推理能力想要推理能力比肩人类 AI先得换种学习方式

不管是人类 , 还是动物 , 在学习大多数事物时 , 都是在自我监督的模式下进行的 , 而不是强化学习模式 。 这个模式本质上就是观察这个世界 , 然后不断与之互动 , 这种观察是自发的 , 而不是在测试条件下完成的 。
【推理能力想要推理能力比肩人类 AI先得换种学习方式】本报采访人员 金 凤
人类在漫长的进化中 , 获得了一种能通过感知、逻辑推理来与世界互动、认识世界的能力 。 当一个梨摆在我们面前时 , 我们能够通过嗅觉、视觉等 , 判断出它是梨而非苹果 。 当在路上行驶时 , 即使行人被部分遮挡住 , 我们也能从露出的部分体貌特征判断出这是一个人 , 从而进行避让 。
在人工智能领域 , 科学家们也一直试图让机器拥有像人一样的逻辑思维能力 , 帮助人完成更多工作 。
近日 , 在2020 ICLR大会上 , 图灵奖得主舒亚·本吉欧(Yoshua Bengio)和扬·勒昆(Yann LeCun)发表观点称 , 自监督学习有望使AI产生类人的推理能力 。 本吉欧相信机器最终可以习得关于这个世界的各种知识 , 这种知识的获得并不需要机器去亲身体验各种真实发生的事件 , 而是通过习得语言化的知识来实现 。
那么机器如何具备类人的推理能力?想具备类人的推理能力还要逾越哪些障碍?
死记硬背让机器难有逻辑能力
购物时 , 无需出示支付码 , 将面部特征绑定银行卡就能轻松消费;回家路上 , 查询手机地图 , 可以看出哪些地段拥堵;到饭点了 , 跟机器人对话叫外卖……这些基于机器学习的应用 , 正在让人工智能变得可观可感 。 但机器学习面临的挑战便是 , 需要大量数据的积累以及很强的算力 。
机器学习分为监督学习、无监督学习和强化学习 。 监督学习需要对数据进行标签分类 , 数据需要涵盖所有可能的场景 , 此外 , 完成学习 , 机器还需要大量的算力 。 例如 , 如果希望创建图像分类模型 , 则必须为系统提供经过适当分类标记的大量图像 , 让模型在其中进行充分训练 。 有时数据量达到百万、千万级规模 , 需要几百万、上千万次的迭代 。 中国科学院自动化研究所研究员、视语科技创始人王金桥告诉科技日报采访人员 。
因此 , 减少对数据的依赖 , 一直是研究人员最重要的探索方向之一 。 在南京航空航天大学计算机学院教授陈松灿看来 , 监督学习往往需要大量的带有注释、标记的数据 , 而标记这些数据 , 需要人工完成 , 既耗时又昂贵 。
然而 , 即使是在有大量数据打底的监督学习环境中 , 一旦机器遇到不同于训练示例的全新状况 , 也面临着失控的风险 。
例如无人驾驶汽车行驶在一条陌生的道路上 , 前方虽然出现了路杆 , 但如果此前系统没有遇到过这种道路模式 , 就会撞上去 。 进入摄像头视野的行人 , 如果未露出全貌 , 那系统就无法判断出这是一个人 , 也会撞上去 。 还有我们进入停车场时 , 有些停车杆不能及时抬起 , 是因为靠近停车杆的行驶角度超出了此前设定的范围 。 王金桥表示 , 虽然数据标签的质量 , 对于监督学习的效果非常重要 , 但监督学习不应局限于这种模式 , 应该提高对未知环境的探索和理解能力 。
自监督学习可利用规律举一反三
对于机器学习的未来 , 扬·勒昆和约舒亚·本吉欧有着相同的期待 , 他们认为 , 自监督学习会创造出更像人类的人工智能 。
正如勒昆所解释的 , 大多数人可以在30小时内学会驾驶汽车 , 因为他们已经凭借直觉构建了一个关于汽车行动方式的物理模型 。
自监督学习是无监督学习中的一种 , 它可以通过揭示数据各部分之间的关系、内在结构 , 从数据中生成标签 , 这种标签便于对数据进行分类 。 自监督学习需要学习的样本量很少 , 但需要有基础知识的积累 。 王金桥说 。
王金桥进一步解释 , 例如下围棋 , 如果机器可以将顶尖高手的棋路都学会 , 就能举一反三 。 又例如 , 假设世界上有5000种苹果的类型 , 植物学家又培育出一种新苹果 , 与其他苹果长得很像 , 那么自监督学习就可以通过数据的分析 , 识别出这是苹果 , 但又能认识到它是不同于以往的苹果类型 。 也就是说 , 通过自监督学习 , 机器不需要训练 , 就可以通过自动分析内部数据的结构关系 , 并且应用分析数据得到的规律 , 对各种新情况作出判断 。 这种能力类似于人 , 在婴幼儿时期 , 人类能用嗅觉、触觉、视觉等感知世界 , 进入学校学习后 , 能将万事万物的物理特征 , 与知识结合起来 , 慢慢形成推理能力 。


推荐阅读