财经杂志|人工智能社会来临之际,我们如何维系人类基本利益( 二 )


运用情境锚定法 , 《AI联结的社会》给定了一个讨论的初始:在未来 , 无论是专用人工智能还是通用人工智能 , 人工智能自身形成了一个网络 , “使用者不仅可以自己设置 , 也可以接受他人设置”(第10页) , 就像是《黑客帝国》里的机器帝国 , 人工智能甚至具有了拟人的“意志” , “拥有与人类智能相关的功能;能够通过对信息、知识进行系统化处理 , 得到数据、信息和知识”(第6页) , “渗透到社会整体之中 , 进而使人类和人工智能网络共存 , 在各种社会场景中 , 都将可能实现人工智能、物和人的相互联结”(第11页) , 人类如何做才能既利用人工智能为人类服务 , 又保护人类的基本利益?
在汗牛充栋的人工智能研究中 , 人工智能网络化是一个被忽略或被默认的议题 。 说是被忽略 , 至少在我读到的文献中这是第一本将其特别强调的作品 。 说是被默认 , 在众多讨论人工智能的研究中 , 作者们往往忽略了人们生活在一个政治和社会制度有差异的世界 , 国家技术能力的强弱和国家之间关系的好坏并非与人工智能创新和应用没有关系 。 忽视既存的制度约束和假设人类的一般存在看起来有利于讨论 , 实则是学术的不负责任 。 《AI联结的社会》突出强调人工智能网络化的现实社会情境 , 也是学术务实的另一个证明 。
面向超级智慧
《AI联结的社会》首先呈现的不是人工智能带给人类的便利 , 而是风险 。 “这些风险与人工智能网络化为社会带来的便利同在 , 有时可能超越国境 , 超越现实与虚拟的界限 , 瞬时扩散出去 。 ”(第13页)借用既有的研究成果 , 《AI联结的社会》将风险区分为功能风险和制度风险 , 认为其中重要的不是功能风险 , 而是制度风险 。 因此 , 风险分析是人类面对人工智能挑战的出发点 , 包括风险评估、风险管理和风险传播(第14页) 。 风险分析的目的 , 不是为了甩锅 , 而是让风险明确化 , 进而确保公平竞争 , 让风险与收益达成平衡 。 在这里 , 我们既看到了日本人务实的一面 , 又看到儒家文化的深层存在 。
设定人工智能网络化的前提 , 自然地提出了人工智能治理的人类化议题 。 《AI联结的社会》的主张是 , 人工智能的治理 , 一定是国际的 , 而不是一国的 。 为促进技术创新和应用 , 初始期宜采用软性治理 , 治理内容除了确保各种价值观 , 还应确保廉洁、透明性、可控性、安全性、隐私性、安保体系、公正性等(第18页) 。 为了既促进人工智能的发展 , 给人类带来更多便利 , 又保障治理的有效性 , 约束人工智能可能带来的风险 , 《AI联结的社会》认为 , 一个由人工智能高度互联建构的智联社会(第20页) , 应该遵从八项基本原则:“第一 , 所有人都可以受惠;第二 , 保障个人的自主性及人的尊严;第三 , 保证革新性研究开发的持续与公平竞争;第四 , 坚持可控性和透明性;第五 , 利益相关方的参与;第六 , 兼顾虚拟世界与现实社会;第七 , 通过超越空间的协调合作实现有活力的区域社会;第八 , 通过分散合作解决全球性问题 。 ”(第21页)
与上述原则关联密切的被分解为了人工智能研发中的人类伦理与秩序的贯彻 , 人工智能使用中的数据、信息、知识等价值观 , 人工智能与人类的关系 , 包括如何保障人的尊严、人格与责任以及支撑因素如隐私、安全、既存的社会准则等 。 贯穿《AI联结的社会》始终的是 , 保障人类基本利益的原则被置于在最优先的位置 , 基于此 , 《AI联结的社会》里出现了一些日文风格突出的概念 , 如“联结”(第11页)、“人物侧写”(第48页)、“立人设”(第62页) , 也引用了众多流行的概念 , 如“隐私设计”(Privacy by Design , PbD)(第206页)、“切断开关”(Kill Switch)(第208页)等 。 它意味着《AI联结的社会》的讨论既不是日本人自己圈子内的讨论 , 也不是脱离了日本的话术贩卖 , 而是从日本的关切出发 , 面向整个世界的分析和探讨 。


推荐阅读