软件|用人工智能监工软件监督人工,遭遇非技术困局( 二 )
解决伦理问题 AI监工或迎长远发展
面对各种吐槽 , Enaible公司也感到非常委屈 , 根据他们的统计 , 8小时工作制里 , 其实人们有产出的只有3个小时 , 美国每年有4000亿美元被员工们的低效率损失掉 。 管理者本来就是要盯着员工干活 , 判断他工作中的问题 , 这个过程换成AI也一样 。 企业反正都要裁员 , 那不如精准地找出工作效率最低的人 。
“Enaible公司的说法也有一定的道理 , 但是未来要全面使用AI监工 , 首先需要厘清人工智能伦理与人工智能应用的关系 。 ”韩亚洪提出自己的看法 , 只有捋顺AI伦理问题 , 才能决定AI监工是否能继续使用 。 而让员工和老板都认可 , AI监工才有可能发展下去 。
“在技术层面 , 增加交互功能 , 对于完善机器算法模型将有很大的帮助 。 ”韩亚洪解释 , 当AI监工部署到一个公司时 , 可能开始的时候 , 它的性能没有那么好 。 而如果AI监工的模型能设计成可交互的形式 , 并且在交互中能够进化 , 它的能力就会在学习中再提升 。 就像我们上面提到的 , 如果遇到模型算法没有遇到过的数据 , 就有可能出现决策错误 。 如果这时候 , 通过交互告诉机器正确的决策 , 那么下次再遇到同类问题 , 机器的算法模型就会举一反三 , 给出正确的决策了 。
“而且现实世界里 , 员工的工作状态必然受其所处的社会、家庭和生活环境的影响 , 所以对员工的监督和管理也不可能只用与工作有关的冰冷冷的数据 。 ”韩亚洪表示 , 如果AI监工能变得更人性化一些 , 也就是算法模型设计得更个性化一些 , 比如通过捕捉员工的表情、动作等方面的变化 , 并通过大数据的蛛丝马迹去发现员工状态、情绪、身体健康等方面的异常和变化 , 并且把这些数据也融入到模型算法的决策中去 , 这样AI监工最终的决策也许会让人觉得更有人情味 。
正如《麻省理工科技评论》援引英国律师科瑞的话 , 良好的工作环境 , 应该让员工觉得自己的工作备受信任 , 而单纯的监控是无法做到这一点的 。
(原标题 用人工智能监督人工 遭遇非技术困局)
(本文来自澎湃新闻 , 更多原创资讯请下载“澎湃新闻”APP)
推荐阅读
- 警告!|为精准用户画像,恶意npm软件包窃取浏览器文件
- 车管所|@青岛车主 因系统软件升级 这些车驾管业务本周末停办
- 系方式|贴吧自动发帖顶贴软件
- 人工智能|“宋庆龄文化空间”上海揭幕 首展聚焦少儿人工智能互动体验
- |2020人工智能应用挑战赛前瞻 专家委员会强大阵容震撼发布
- 工信部网站:2020年1-7月我国软件业务收入42448亿元 同比增长8.6%工信部网站2020-08-28 17:01:430阅
- | 社会学所与百度联合开设“社会科学家的第一节人工智能课”
- 李彦宏|百度李彦宏:将为广州提供最具创新的人工智能技术
- 江旭|宜人金科:宜信CTO向江旭分享企业人工智能的理念实践和未来发展前景
- 第一节|社会学所与百度联合开设“社会科学家的第一节人工智能课”
