研究|人类和机器感知比较中常见的三大陷阱,你中了几条?( 三 )

文章图片
当裁剪或降低图像分辨率时,我们最终会无法识别其中的物体。实验表明,这个过程中可识别度会急剧下降,下降的程度被称为“可识别差”。请注意,此图中的比例和裁剪是为了示意而编制的。
Ullman等人找出了人类仍能辨认出物体图像的最小部分,他们还测试了机器的视觉算法是否具有同样明显的差距。结果发现,在所测试的机器视觉算法中,可识别差要小得多(等于0.14),并得出结论,机器与人类视觉系统的功能有所不同(比较第二个图中左边的两个柱形)。
在我们的工作中,我们在一个与Ullman等人的实验非常相似的实验设计中,重新审视了可识别差,但两者之间有一个关键的区别:我们是在机器选择的图块而不是人类选择的图块上测试机器。具体地说,我们利用最先进的深卷积神经网络实现了一种搜索算法,它模仿了人类实验。这就确保了机器在他们选择的图块上被评估——就像人类在他们选择的图块上被评估一样。
文章图片
我们用DNN实现了一个模拟人类实验的搜索算法。正确识别的概率绘制在y轴上,对应于x轴上减少的裁剪。与人类实验类似,当不能辨别出物体时,正确识别概率急剧下降。换句话说,我们发现我们的机器算法也有很大的可识别差。
我们发现,在这些条件下,我们的神经网络确实在最小可识别裁剪和最大不可识别裁剪之间具有同样大的可识别差,正如Ullman等人针对人类的实验结果一样。
文章图片
从左到右的可识别差:Ullman等人2016年用人类选择的图块对人类和机器算法进行测试;我们的DNN在机器选择的图块上进行测试。当用在机器选择的图块上进行测试时,我们的DNN有一个很大的可识别差,这与Ullman等人在2016年用人类选择的图块测试机器算法所得到的结果不同。
这个案例研究说明,适当调整人类和机器的测试条件对于比较两个系统之间的现象是非常重要的。
总结
上述三个案例研究突出了在比较人和机器时面临的几大难点。本文特别强调了这几点:确认偏差会导致对结果的错误解释,从特定的体系结构和训练过程中归纳结论是很困难的,条件不相等的测试过程会导致错误的决策行为。
综上所述,在进行严谨的人机比较时,我们必须保持谨慎,并尽量减少我们习以为常的人类偏见。只有这样,人工智能和人类之间的比较研究才能富有成效。
via https://thegradient.pub/challenges-of-comparing-human-and-machine-perception/
招 聘
AI 科技评论希望能够招聘 科技编辑/采访人员
办公地点:北京/深圳
职务:以跟踪学术热点、人物专访为主
工作内容:
1、关注学术领域热点事件,并及时跟踪报道;
2、采访人工智能领域学者或研发人员;
3、参加各种人工智能学术会议,并做会议内容报道。
要求:
1、热爱人工智能学术研究内容,擅长与学者或企业工程人员打交道;
2、有一定的理工科背景,对人工智能技术有所了解者更佳;
3、英语能力强(工作内容涉及大量英文资料);
【 研究|人类和机器感知比较中常见的三大陷阱,你中了几条?】4、学习能力强,对人工智能前沿技术有一定的了解,并能够逐渐形成自己的观点。
推荐阅读
- 进行|“互联网时代+”背景下品牌童装折扣店的发展对策研究
- |《我的女友是机器人》首曝花絮,辛芷蕾包贝尔搞怪
- 林志颖|当明星都嫌来钱慢?林志颖研究自己,张庭夫妇卖面膜
- 疯狂抹黑!两名中国籍高校研究人员在美被捕,美司法部宣称其“破坏证据”“窃取机密”
- 机器人|AI训练师让机器人更聪明
- 澳大利亚战略政策研究所:臭名昭著的“牵线木偶”!
- 起底澳大利亚战略政策研究所:臭名昭著的“牵线木偶”!
- 「新浪科技」详解马斯克Neuralink外科手术机器人新浪科技2020-08-29 08:30:180阅
- IT|研究发现无神论者在睡眠质量方面胜过宗教教徒
- 论文|中科大学术委员会回应“情侣送礼研究”博士论文:不评价好坏
