胡泳:对于AI大模型,我们真正应该担心什么?( 二 )


但我们看到的情形恰恰相反,在危险的竞赛中,人人都在加码,因为赌注在加大 。“一场比赛从今天开始”,微软首席执行官萨蒂亚·纳德拉(Satya Nadella)在 2 月 7 日向谷歌发出了挑战,“我们要行动,而且行动要快” 。为应对ChatGPT 的成功,谷歌宣布进入“红色代码”企业紧急状态,并将自己的聊天机器人 Bard 推向市场,在一次演示中表示,它将“重新校准”在发布基于 AI 技术的工具时愿意承担的风险水平 。在 Meta 最近的季度财报电话会议上,首席执行官马克·扎克伯格(Mark Zuckerberg)宣布他的公司目标是“成为生成式人工智能的领导者” 。 如此热浪滚滚,技术带来的错误和危害必然有所增加——人们对人工智能的反对也会增加 。
人工智能安全初创公司SaferAI的首席执行官西米恩·坎珀斯(Simeon Campos)说,他签署这封信是因为,如果连这些系统的发明者都不知道它们是如何工作的,不清楚它们有什么能力,也不了解对它们的行为如何进行限制,那么就不可能管理系统的风险 。“我们正在将这类系统的能力扩展到前所未有的水平,在全速竞赛中对社会产生变革性影响 。必须放慢它们的发展速度,让社会适应并加快替代性的AGI架构,这些架构在设计上是安全的,并且可以正式验证 。”
公开信的签署者、纽约大学名誉教授加里·马库斯(Gary Marcus)相信,这封信将成为一个转折点 。“我认为这是AI史上——也许也是人类史上——一个非常重要的时刻 。” 这个恐怕夸大其词了 。公开信在一些重要的地方是错误的 。
信中说:“正如大量研究表明的那样,具有人类竞争力的人工智能系统会对社会和人类构成深远风险 。”其实风险更多来自于大型语言模型(large language model, LLM)在一个压迫性体系中的使用,这比假想的人工智能反乌托邦前景要具体和紧迫得多 。
不论我们多么惊叹LLMs的“智能”,以及它的学习速度——每天都有各种非常进取的创新出现,微软的一组研究人员在测试了GPT-4之后甚至报告说,它闪现了通用人工智能的火花——然而LLMs在本质上不可能拥有自我意识,它们只是在庞大的文本库中训练出来的神经网络,通过识别模式来产生自己的概率文本 。风险和危害从来都非源出强大的人工智能,相反, 我们需要担心的是,大型语言模型的权力集中在大玩家手中,复制压迫体系,破坏信息生态系统,以及通过浪费能源资源破坏自然生态系统 。
大公司对它们正在做的事情变得越来越神秘,这使得社会很难抵御可能出现的任何危害 。公开信没有说到社会正义,而像OpenAI这样的公司依赖于南半球国家的剥削性劳动,在那里使用时薪不到 2 美元的肯尼亚外包工人来审查有害内容,包括性虐待、仇恨言论和暴力,以教导人工智能避免这些内容 。此外,还有人工智能用于操纵的可能性:现在已经存在通过个性化对话影响活动的技术,这些活动根据用户的价值观、兴趣和背景来定位用户,以推动销售、宣传或错误信息 。也就是说, 人工智能驱动的对话影响有可能成为人类创造的最强大的有针对性的说服形式 。正如马库斯所说,他并不同意其他人对智能机器超出人类控制的担忧,更加担心的是被广泛部署的“平庸的人工智能”,比如被犯罪分子用来欺骗人们或传播危险的错误信息 。
其他问题包括隐私问题,因为 AI 越来越能够解释大型监控数据集;版权问题,包括 Stability AI 在内的公司正面临来自艺术家和版权所有者的诉讼,他们反对未经许可使用他们的作品来训练 AI 模型;能源消耗问题,每次提示 AI模型时,它都需要能源 。人工智能模型使用与游戏计算机相同的强大 GPU 处理器,因为它们需要并行运行多个进程 。

胡泳:对于AI大模型,我们真正应该担心什么?

文章插图
公开信渲染人工智能的末日图景,本身也吊诡地充满了人工智能的炒作,使我们更难解决真实的、正在发生的人工智能危害 。在这方面, 公开信基本上构成了一种误导:把大家的注意力引向假设的LLMs的权力和危害上,并提出一种非常模糊和无效的解决方式,而不是着眼于此时此地的危害并推动解决相关问题——例如,在涉及LLMs的训练数据和能力时要求更多的透明度,或者就它们可以在何处和何时使用进行立法 。
【胡泳:对于AI大模型,我们真正应该担心什么?】


推荐阅读