中国指挥与控制学会|从“自动化”到“自主化”:人机交互中信任修复的重要性( 四 )

【中国指挥与控制学会|从“自动化”到“自主化”:人机交互中信任修复的重要性】;McGuirl & Sarter, 2006), 增强系统的总体透明度(Koo 等人 , 2014 ;Mercado 等人 , 2016), 传达意图(Schaefer,, Chen, Putney, & Evans, 2017), 传达不确定性(Helldin, Falkman, Riveiro, Dahlbom, & Lebram, 2013), 评估系统的可靠性(van Dongen & van Maanen, 2013)。 这并不奇怪 , 因为长期以来 , 人们成功地将自动化系统视为放在桌子上或安装在驾驶舱中的独立工具 。 虽然这项研究本身非常有价值 , 对于创建人们可以理解和使用的可解释的人工智能和系统至关重要 , 但我们认为 , 鉴于形式、环境和未来自治互动的可能性的多样性 , 一个更加积极和可交易的自主范式至关重要 , 不应被忽视 。 我们认为 , 除了更好的机器信息和用户培训 , 我们还需要对技术本身提出更高的要求 , 并为自主系统配备更好的人类能力 , 可以说是“ 半途而废”。 这种新的自主需要不同于自动化的范例 , 原因有几个;这需要研究界改变态度 。 为了清楚起见 , 我们对自动化系统( 例如 , 现有的自动化系统 , 如GPS 导航) 和显示自主性的系统( 例如 , 无人机可以使用传感器检测障碍物来导航未知路线) 进行了区分 , 如前所述 。 自主性需要一种弹性的工程方法( 伍兹 , 利韦森和霍尔纳格尔 , 2012), 能够主动预测和处理错误 。 我们相信在出现错误后主动修复信任 , 任何自主设计的一个基本部分都应该是无意的行为 。 直接评估计算机违规后修复信任效果的研究很少或已经过时 。 例如 , 错误后的道歉通常对人们的情绪和对电脑的感觉有积极的影响( 阿克京 , 卡尔蒂 , 泽里克 , 2010 ;曾 , 2004)。 其他人已经表明 , 信任弹性随着强调道歉的自动化而增加(de Visser 等人 , 2016)。 还有一些人探索了礼貌对用户与自动化和机器人系统交互的影响 , 这表明通过建立个人关系与用户建立信任是有希望的(Dorneich, Ververs, Mathan, Whitlow, & Hayes, 2012 ;海斯& 米勒 , 2010 ;英博& 迈耶 , 2015 ;克劳斯 , 斯特恩 , 赖泽 , 鲍曼 , 2015 ;李、金、金、权 , 2017 ;龙 , 卡尔平斯基& 布利斯 , 2017 ;Seo 等 , 2017 ;Srinivasan & Takayama, 2016 ;Torrey, Fussell, & Kiesler, 2013)。 一个值得注意的例子是一项研究 , 该研究表明机器人可以通过修复干预来提高违反规范的程度 , 从而帮助调节团队冲突(Jung, Martelaro & Hinds, 2015)。 需要更多的研究来确定自主修复信任对人们的确切影响 。
因此 , 我们提倡一种新的标准来建立自主性 , 这种自主性可以起到类似于生产性人际关系的作用 。 不要悲观 , 就像在人类团队中一样 , 意想不到的事件很可能会成为日常事务 。 就像自动化系统一样 , 完美的自治可能无法保证或不可行( 汉考克 , 2017 ;Parasuraman & Riley, 1997 ;Woods, 2016)。 自主误差、错误和不匹配的期望可能是全新的 , 需要一种新的解决方案来增强人机交互 。 出错后需要快速调整 。 期望需要更快地调整 。
我们已经指定了一种方法( 见图2), 研究人员和设计人员可以在早期人机合作工作的基础上采取这种方法( 纳斯、福格和穆恩 , 1996 ;纳斯 , 月亮 , 福格 , 里夫斯 , 烘干机 , 1995 年;纳斯、斯特尔和陶贝尔 , 1994)。 该模型首先询问自治是否应该充当社会代理人 。 可以使用人- 人模型 , 也可以使用新开发的带有设计建议的人- 自主框架 , 为这类问题提供初步答案 。 下一步是从经验上验证人们是否真的将自主性视为一种社会因素
中国指挥与控制学会|从“自动化”到“自主化”:人机交互中信任修复的重要性
本文插图

图2 决定何时应用人- 人或人- 自主框架的模型


推荐阅读