2021-人机交互-Lec-5 评估之询问用户和专家

Lec5-询问用户和专家

1. 背景

  1. 了解用户的需要和对产品的意见和建议
    1. 观察用户
    2. 询问用户
      1. 适用于客观上较难度量的、与用户主观满意度和可能的忧虑心情相关的问题
      2. 访谈和问卷调查
        1. 在研究用户如何使用系统,以及哪些系统功能是用户非常喜欢或不喜欢的方面也非常有效
    3. 不知道该怎么做或者对预期的结果没有把握
      1. 请专家帮忙
        1. 不能帮助大家成为可用性专家
        2. 但有助于更好地去评估自己和他人的工作

2. 询问用户之访谈

  1. 访谈:有目的的对话过程
    1. 开放式(或非结构化)访谈,结构化访谈,半结构化访谈和集体访谈
  2. 指导原则
    1. 避免过长的问题
    2. 避免使用复合句
      1. “这款手机与你先前拥有的手机相比,你觉得如何”
      2. “你觉得这款手机怎么样?你是否有其他的手机?若是的话,你觉得它怎么样?”
    3. 避免使用可能让用户感觉尴尬的术语或他们无法理解的语言
    4. 避免使用有诱导性的问题
    5. 你为什么喜欢这种交互方式?
    6. 尽可能保证问题是中性的

2.1. 访谈步骤

  1. “开始”阶段
    1. 访问人先介绍自己
    2. 解释访谈的原因,消除受访人对道德问题的疑虑,询问受访人是否介意被记录(录音或摄像)
  2. “热身”阶段:先提出简单的问题
  3. 主要访谈阶段:按逻辑次序由易到难提问
  4. “冷却”阶段:提出若干容易的问题,消除用户的紧张感觉
  5. 结束访谈:感谢受访者,关闭录音机,收好笔记本,表面访谈已经结束

2.2. 焦点小组

  1. 非正式的评估方法
    1. 在界面设计之前和经过一段使用之后评估用户的需要和感受
    2. 是市场、政治和社会科学研究经常使用的方法
    3. 人数限制:由大约6到9个典型用户组成
    4. 如在评估大学的网站时,可考虑由行政人员、教师和学生们组成3个分别的焦点小组
  2. 主持人工作
    1. 事先列出一张讨论问题和数据收集目标的清单
    2. 保持所谈论的内容不离题
    3. 保证小组的每个成员都积极参与谈论
    4. 讨论结果的分析报告
  3. 焦点小组存在风险

3. 询问用户之问卷调查

  1. 问卷调查是用于搜集统计数据和用户意见的常用方法
    1. 可单独使用
    2. 也可与其他技术结合使用
  2. 问卷设计原则
    1. 应确保问题明确,具体
    2. 在可能时,采用封闭式问题并提供充分的答案选项
    3. 对于征求用户意见的问题,应提供一个“无看法”的答案选项
    4. 注意提问次序,先提出一般化问题,再提出具体问题
    5. 避免使用复杂的多重问题
    6. 在使用等级标度时,应设定适当的等级范围,并确保它们不重叠:做到直观、一致
    7. 避免使用术语
    8. 明确说明如何完成问卷:如说明应在选项前的方框内打“√”
    9. 在设计问卷时,既要做到紧凑,也应适当留空

3.1. 问题类型

  1. 常规问题
    1. 年龄、性别、职业、居住地、应用计算机的经验等
  2. 自由回答问题
    1. 如:你能够对这个界面提出改进意见吗?
    2. 能够提出设计人员没有考虑到的建议
  3. 量化分级问题
    1. 要求用户以数值尺度判断一个特定陈述
    2. 如:系统容易从错误状态恢复:不同意1 2 3 4 5 同意
    3. 第三章中的“Likert尺度”和“语义差异度尺度”
    4. 奇数刻度较偶数刻度更常用
  4. 多选题:对于收集用户以前的经验信息很有用

3.2. 用户满意度调查表(QUIS)

  1. 由Ben Shneiderman开发
    1. QUIS: questionnaire for user interaction satisfaction
    2. 使用9级标度
    3. 已经过了多次实践检验
  2. QUIS调查表涉及
    1. 界面细节(如符号的易读性和屏幕显示的布局设计)
    2. 界面对象(如具有象征意义的图标)
    3. 界面行为(如为用户经常使用的操作设置的快捷方式)
    4. 任务表达(如适当的术语和屏幕显示顺序)

3.3. 问卷设计举例

  1. 比较两个不同学习系统的用户的执行情况和偏爱
    1. 一个应用超媒体
    2. 另一个应用顺序课程

3.4. 问卷组织

  1. 问卷调查中的两个关键问题
    1. 如何寻找有代表性的用户
    2. 如何达到合理的回复率
  2. 有助于提高回复率的措施
    1. 精心设计问卷,避免用户因为厌烦而拒绝回复
    2. 参照QUIS,提供简要描述,说明用户若没有时间完成整份问卷,可以只完成简短的部分
    3. 提供一个带有回复地址并粘好了邮票的信封
    4. 解释为什么要进行这些问卷调查,并说明将为参与者保密
    5. 在发出问卷之后,通过后续邮件、电话或电子邮件联系参与者
    6. 采取一些激励措施(如有偿调查等)
    7. 进行小规模测验

3.5. 在线问卷调查

  1. 能有效而方便地搜集大量人员的意见
    1. 能够快速搜集调查结果
    2. 与纸张式的问卷调查相比,成本更低,甚至为零
    3. 数据可以立即输入数据库进行分析
    4. 可缩短数据分析的时间
    5. 容易更正问卷中存在的问题
    6. 回复率可能低于纸质问卷
  2. 两种形式
    1. 基于电子邮件:能够针对特定的用户,但邮件能够容纳的内容有限
    2. 基于网页的调查:形式灵活,并能验证数据的有效性,但调查对象是随机的

3.6. 问卷调查与访谈

  1. 问卷调查或访谈都属于间接方法
    1. 因为两者都不对用户界面本身进行研究,而只是研究用户对界面的看法
    2. 都不能完全听信和采纳用户的说法
      1. 询问ZAP命令的说明
      2. 系统新增功能的问卷
      3. 移动电话说明书的问卷
  2. 访谈
    1. 形式更自由
    2. 难以获得确切数据
    3. 需要花费更多时间
    4. 可在访谈后立即得到结果
    5. 可能回避某些“敏感问题”的真实想法

4. 询问专家之认知走查

  1. 评估应该贯穿于整个设计过程中
    1. 理想情况下,系统所有实现工作开始之前就应该评估
    2. 专家分析可应用于项目设计的任何阶段
  2. 认知走查
    1. 逐步检查使用系统执行任务的过程,从中找出可用性问题
    2. 无需用户参与
    3. 认知走查的主要目标是确定使一个系统如何易于学习
    4. 试图想象出人们在第一次使用某个产品时的想法以及所采取的动作,它的大作流程是怎样的
    5. 评估的具体过程就是把用户在完成这个功能时所做的所有动作讲述成一个令人可以信服的故事

4.1. 走查的步骤

  1. 标识并记录典型用户的特性:有关用户自身心理、心理特点以及他们的知识和经验的描述
  2. 基于评估重点,设计样本任务:应该是大多数用户要做的典型任务
  3. 制作界面原型(或界面描述),明确用户执行任务的具体步骤
  4. 由设计人员和专家级评估人员(一位或多位)共同进行分析
  5. 评估人员结合应用的上下文,逐步检查每项任务的操作步骤:见下页
  6. 在完成逐步检查之后,汇总关键信息
  7. 修改设计,更正发现的问题
  8. 检查每项任务的操作步骤时,了解以下问题
    1. 正确的操作对于用户是否足够明显?(可预见)
      1. 即用户能否知道如何完成任务
      2. Excel中换行的例子
    2. 用户能否注意到正确的操作?(可理解):功能名称或图标设计是否容易理解
    3. 能否正确解释操作的响应?(可解释)
      1. 执行—评估交互周期的完成
      2. 网页提交按钮的例子
  9. 认知走查的记录工作非常重要!

4.2. 分析

  1. 优点
    1. 不需要用户参与
    2. 不需要可运行的原型
    3. 能找出非常具体的用户问题
  2. 缺点
    1. 工作量大,非常费时
    2. 关注面有限
      1. 只适合于评估一个产品的易学习性
      2. 不太容易发现使用效率方面的可用性问题1

4.3. 认知走查实例

  1. 录像机遥控器的定时功能
  2. 规划一段定时录像,录像过程在通道4上,从2005年2月24日的18:00开始,到19:15时结束

  1. 对每一个行为,回答如下问题
  2. 用户行为1:按“定时录像”键
    1. 行为的结果和用户的目标一样吗?
    2. 用户能看到这个行为是可用的吗?并不清楚哪一个是“定时录像”键
    3. 一旦用户找到了一个正确的行为,他们能知道这个行为是所要的吗?
    4. 用户能够理解所获得的反馈吗?

4.4. 协作走查

  1. 由用户、开发人员和可用性专家合作,逐步检查任务场景,讨论与对话元素相关的可用性问题:在评估过程中,每一位专家都承担用户的角色
  2. 优点
    1. 专注于用户任务;能够产生定量数据
    2. 符合参与式设计原则
  3. 缺点
    1. 需要各方面的专家,速度慢
    2. 由于时间限制,通常只能评估有限的场景

5. 询问专家之启发式评估

  1. 一种灵活而又相当廉价的评估方式
  2. 复习:Nielsen的十条启发式规则
    1. 系统状态的可视性
    2. 系统应与真实世界相符合
    3. 用户的控制权及自主权
    4. 一致性和标准化
    5. 帮助用户识别、诊断和修复错误
    6. 预防错误
    7. 依赖识别而非记忆
    8. 使用的灵活性及有效性
    9. 最小化设计
    10. 帮助及文档

5.1. 启发式评估

  1. 由可用性专家完成
  2. 步骤
    1. 彻底检查界面
    2. 将界面与启发式规则进行对比
    3. 列举可用性问题
    4. 应用启发式规则对每一个问题进行解释与确认

5.2. 问题的严重性分类

  1. 不同作用因素
    1. 频率:有多经常?
    2. 影响:有多难克服?
    3. 持续时间:要多长时间克服?
  2. 严重性等级
    1. 表面问题:不需要被修复
    2. 次要问题:需要修复,但优先级较低
    3. 主要问题:需要修复且优先级很高
    4. 灾难性问题:必须被修复

5.3. 评估步骤

5.4. 如何正确评估

  1. 分析每个问题对应的启发式规则:如“主页上有太多选项”对应“审美与最小化设计”:不能简单地说“我不喜欢它的颜色”
  2. 列出所有问题:即便可能某个界面元素存在多个问题
  3. 至少遍历两次界面
    1. 一次获得系统的初始体验
    2. 另一次关注特定界面元素
  4. 不要局限于10条启发式规则:还有各种affordances、constraints、颜色原理等

6. iTunes评估实例

6.1. 发现的问题

6.2. 问题一

6.3. 问题三

6.4. 分析

  1. 启发式评估的优点
    1. 不涉及用户,所以面临的实际限制和道德问题较少
    2. 成本相对较低,不需要特殊设备,而且较为快捷
    3. 又被称为“经济评估法”
  2. 启发式评估的缺点
    1. 评估人员需要经过长时间的训练才能成为专家:理想的专家应同时具备交互设计和产品应用域的知识
    2. 可能出现“虚假警报”:“专家每找到一个真实的可用性问题,将发出约一个假警报(1.2),忽略大约半个问题(0.6)”

6.5. 友情提醒

  1. 邀请多个评估专家
    1. 评估专家也不是用户
    2. 不同评估专家可能发现不同问题
    3. 越多越好,但回报可能会越来越小
    4. Niesen推荐3-5名评估专家
  2. 使用用户测试替代启发式评估
    1. 不同方法发现的问题不同
    2. 启发式评估更廉价,但用户测试才是可用性的Gold Standard
  3. 观察人员可以帮助评估专家
    1. 只要专家已经注意到了某个问题
    2. 但对用户测试而言并不适合那么做

2021-人机交互-Lec-5 评估之询问用户和专家
https://spricoder.github.io/2022/01/08/2021-human-computer-interaction/2021-human-computer-interaction-Lec-5%20%E8%AF%84%E4%BC%B0%E4%B9%8B%E8%AF%A2%E9%97%AE%E7%94%A8%E6%88%B7%E5%92%8C%E4%B8%93%E5%AE%B6/
作者
SpriCoder
发布于
2022年1月8日
许可协议