Enaible|用人工智能监督人工 遭遇非技术困局( 二 )


“Enaible公司的说法也有一定的道理 , 但是未来要全面使用AI监工 , 首先需要厘清人工智能伦理与人工智能应用的关系 。 ”韩亚洪提出自己的看法 , 只有捋顺AI伦理问题 , 才能决定AI监工是否能继续使用 。 而让员工和老板都认可 , AI监工才有可能发展下去 。
“在技术层面 , 增加交互功能 , 对于完善机器算法模型将有很大的帮助 。 ”韩亚洪解释 , 当AI监工部署到一个公司时 , 可能开始的时候 , 它的性能没有那么好 。 而如果AI监工的模型能设计成可交互的形式 , 并且在交互中能够进化 , 它的能力就会在学习中再提升 。 就像我们上面提到的 , 如果遇到模型算法没有遇到过的数据 , 就有可能出现决策错误 。 如果这时候 , 通过交互告诉机器正确的决策 , 那么下次再遇到同类问题 , 机器的算法模型就会举一反三 , 给出正确的决策了 。
“而且现实世界里 , 员工的工作状态必然受其所处的社会、家庭和生活环境的影响 , 所以对员工的监督和管理也不可能只用与工作有关的冰冷冷的数据 。 ”韩亚洪表示 , 如果AI监工能变得更人性化一些 , 也就是算法模型设计得更个性化一些 , 比如通过捕捉员工的表情、动作等方面的变化 , 并通过大数据的蛛丝马迹去发现员工状态、情绪、身体健康等方面的异常和变化 , 并且把这些数据也融入到模型算法的决策中去 , 这样AI监工最终的决策也许会让人觉得更有人情味 。
正如《麻省理工科技评论》援引英国律师科瑞的话 , 良好的工作环境 , 应该让员工觉得自己的工作备受信任 , 而单纯的监控是无法做到这一点的 。 (采访人员 陈 曦)


推荐阅读