Coursera课程详见:https://www.coursera.org/learn/design-principles/home/welcome
这节课讲怎样评估我们的设计。
用对比、衡量尺度来代替“你喜欢这个设计吗”,“给我的设计评个分” 的提问方式。比如,“和微信相比,你使用xx的xx体验是什么”,“使用这个功能的用户的百分比是多少”。
单独测试一个部分,可以调查它的发生频率;测试现象的原因,即两件事物的关联程度,可以计算他们的协方差;但要得到“X导致Y”的结论,必须确定他们之间的因果关系。可以用控制变量法。
HCI中,实验的独立变量用来控制、操作,非独立变量用来衡量、评估。比如,对于一台吸尘器,评价标准可以是吸尘器的移动速度、清洁程度、是否使人劳累、便携性、可操作性、易学性等,这些和吸尘器本身有关;而控制变量可以是吸尘器的类型、品牌、版本等,这些和吸尘器本身无关。
内部有效性:实验结果的可靠程度,复现概率;
外部有效性:实验在真实环境中的普适度。
实验结果被实验方法和执行力两类因素影响。
实验方法包括人员和任务的分配。实验分配会受到被测个人的影响和实验顺序的影响。比如让group 1测试机器1,group 2 测试机器2,这样测试结果可能受到group组员之间区别的影响;而让每组都分别测试两台机器,则结果可能因为测试顺序不同而改变--机器1先测、机器2后测,于是2的使用情况更好些。
那么怎么办呢?有一种叫做counter balancing反向平衡的分配方法:group1测试机器1,group 2测试机器2;然后反过来,group 1测机器2,group 2测机器1。测试的人员和被测物分别反向。
到底有没有必要让每个测试者测试每种情形呢?如果时间允许,所有可能都cover到是最好的情况--within-subjects;如果可以招募到更多的人测试,每人测试一种情景--between-participants也是可以接受的,这种方法有不受经验影响的优点;反向平衡counter balancing是一种在between-participant中减少方差的好方法。
如果变量的维度增加到3--除了被测人员和测试机器,还有机器的多种模式。可以用Latin方阵表示,像这样(每个方格代表一个机器的一种模式):
这样,测试的先后顺序得到了平衡(模式1,2,3和机器1,2,3分别出现在第一,第二,第三次的使用中),不同机器的不同模式也兼顾到了。
这里讲到了研究影响因素的霍桑实验。工厂管理者想验证照明对生产效率的影响,他们增强灯光的亮度,发现生产力会提高;而降低亮度时,生产率并没有明显下降。研究发现并不是照明对工人的工作有了作用,而是工人们觉得自己收到重视,在积极的心理作用下提高了效率。这说明,有时实验媒介的干预是造成结果的原因,而并非我们希望得到的真正的效应。
用“随机”的分配对它导致的副作用作出平衡。随机分配测试物,如果测试数目很多,可以先把他们两两分组,再从每组中随机抽出一个,作为第一/第二组的测试对象。
实验的一种方法是让被测试者“边说边做”,即把自己所做所想的说出来。这样有很多好处,观察者可以对被测人的思考过程更加了解,知晓操作中遇到的困难和疑惑,以及他们的解答方法。但这种方法有看不见的副作用:“边说边做”可能让被测人更容易解决问题,毕竟把问题一个个抛出来会使思路更加清晰。“边说边做”会使行为变慢。被测者也许说的并不是他们的真实想法,他们希望问题迎刃而解。如果实验结合“边说边做”进行测试,不要因为这些副作用和其他测试动机矛盾而犹豫。这种方法的目的是探究用户使用过程中的心理过程,不同的测试应有不同目的,可以分开进行。
设计网页内容时, 有个“承诺升级”commitment escalation原则:先让用户同意做一点点,再网上逐渐增加,用户会更容易接受你的请求。比如评价反馈部分,先让用户评出满意度,再填写原因和意见,好过同时展现这两个要求。更进一步,我们可以设置满意度的评估为“你是否满意...?”的提问选项,根据选项值设定反馈意见的文本,“你对...不满意的地方在于: ..... ”。