强弱AI的辩论:关于人工智能意识的奇妙理论


全文共3593字 , 预计学习时长9分钟
【强弱AI的辩论:关于人工智能意识的奇妙理论】
强弱AI的辩论:关于人工智能意识的奇妙理论
本文插图
图源:pixabay
最近 , 我与我最喜欢的新晋思想家就高性能和低性能AI进行了辩论 , 这让我想起了自己一年多以前写的东西 , 因此我决定拾起这些尘封的想法 。 人工智能的技术炒作太多了 , 有时应该回到其哲学根源 。 而在围绕AI的所有哲学争论中 , 最重要的就是对强弱AI的争论 。
从技术角度来看 , 我赞成这样的想法 , 即在实现某种形式的强大或通用AI的领域 , 我们实现了一两个突破 。 但从哲学的角度来看 , 仍然存在一些需要调和的挑战 。 许多挑战都可以通过上世纪奥匈帝国数学家开创的晦涩理论以及神经科学研究的领先领域之一来解释 。
在AI理论中 , 低性能AI系统通常只是看起来智能 , 而高性能AI机器则真正具备思考能力 。 这里的思考是指真正的思考 , 而不仅仅是模拟的思考 。 这种困境通常被称为“高性能AI假设” 。

强弱AI的辩论:关于人工智能意识的奇妙理论
本文插图
在一个用数字助理和算法击败围棋世界冠军和魔兽世界2团队的世界中 , 机器是否可以智能地行动这个问题似乎很愚蠢 。 在有限的一些环境中 , 例如医学研究、围棋、旅行等 , 我们已经能够构建大量可发挥其智能作用的AI系统 。 大多数专家都认为低性能AI绝对是可能的 , 但对于高性能AI仍然存在极大的怀疑 。
机器可以思考吗?
自从艾伦·图灵在1950年发表著名论文《计算机与智能》以来 , 这些问题就一直困扰着计算机科学家和哲学家 。 当大多数科学家甚至无法就思维的正式定义达成共识时 , 确定这个问题的答案似乎也不公平 。
为了说明围绕高性能AI假设的困惑 , 我们可以借鉴著名计算机科学家Edsger Dijkstra的幽默表达 。 他在1984年的一篇论文中将机器是否可以思考的问题与诸如“潜艇会游泳吗?”或“飞机能飞吗?”之类的问题进行了比较 。
尽管这些问题看起来很相似 , 但大多数说英语的人都会同意 , 飞机实际上可以飞行 , 但潜艇不会游泳 。 这是为什么?这种比较的基本观点是 , 如果没有对思维的统一定义 , 那么对机器是否可以思考的痴迷似乎无关紧要 。
在对高性能AI的主要反对意见中 , 从本质上讲 , 不可能确定机器是否能够真正思考 。 该论证源于有史以来最著名的数学定理之一 。
强弱AI的辩论:关于人工智能意识的奇妙理论
本文插图
图源:unsplash
哥德尔不完全性定理
当我们谈论历史上最伟大的数学理论对思维方式产生了广泛的影响时 , 哥德尔的不完全性定理应该有一席之地 。
1931年 , 数学家库尔特·哥德尔(Kurt G?del)通过证明其著名的不完全性定理证明了演绎法的局限性 。 哥德尔定理指出了任何形式的可以进行算术运算的理论 , 但有真实的陈述在该理论内没有证据 。
长期以来 , 不完全性定理一直被用作反对强人工智能的对象 。 该理论的支持者认为 , 高性能AI主体将无法真正思考 , 因为它们受到不完全性定理的限制 , 而人类思维显然不受限制 。
该论点引发了很多争议 , 许多高性能AI的从业者也拒绝接受它 。 高性能AI学派最常讲的论点是 , 无法确定人类的思维是否服从于哥德尔定理 , 因为任何证据都需要形式化人类知识 , 而我们知道这是不可能的 。
意识论证
在人们关于AI的激烈辩论中 , 我最喜欢的论点是意识 。 机器真的可以思考还是可以模拟思考?如果机器在将来能够进行思考 , 这意味着它们将需要有意识(即意识其状态和动作) , 因为意识是人类思维的基石 。


推荐阅读