直面人工智能伦理挑战( 二 )


第三个维度源于人工智能的“拓展性”,这意味着该技术可被各类人群和组织运用,其中可能包括一些别有用心的人群 。
人工智能具有易移植、易被改造、易集成的特点,技术突破容易扩散,同样的算法可能服务于完全相悖的目的 。一些犯罪分子可以绕过模型安全策略向人工智能套取“危险知识”,他们同样可将人工智能改造为犯罪工具 。美国《福布斯》网站称,人工智能已经成为电信诈骗领域最强力的武器,任何一个国家都很难逃过这场波及全球的浩劫 。被人工智能赋能后的电信诈骗行为有可能成为全球最具危害性的有组织犯罪 。
第四个维度源于人工智能的“垄断性”,这意味着该技术高度依赖资本投入,先进算法的使用有很高门槛 , 包含设计者和数据形成的算法偏好 , 容易扩大阶层分化 。
首先 , 人工智能可能加剧垄断行为 。人工智能已经成为营销领域最具威力的“大规模杀伤性武器” , 全方位改变了企业的营销策略 。但是,这种更为精确的营销也可能助长“千人千价”等行为 。
其次,人工智能可能加剧现实歧视 。人工智能应用的算法受数据驱动,这些数据涵盖种族、性别、信仰、残障、传染病等特定标签,反映人类社会庞杂的价值观、意识形态特点 。一旦偏见被引入相关应用模型训练中 , 算法输出的内容就可能出现对个人或群体、国家的偏见或偏爱,引发公平性问题 。
最后,人工智能可能带来发展的不公平 。人工智能的关键专业知识和前沿技术集中在少数企业和国家,这些企业和国家具有先发优势,这必然导致全球人工智能产业发展的参差,将更大程度加深全球“数字鸿沟” 。同时,在人工智能技术与规则方面领先的国家,正处于技术优势快速积累周期,这种优势很可能成为诸如半导体领域存在的“卡脖子”工具,为人工智能后发国家的进步带来阻碍 。

直面人工智能伦理挑战

文章插图
在杭州亚运会田径女子铁饼决赛前,一名工作人员将铁饼放在用来搬运铁饼的机器狗上(2023年10月1日摄) 江汉摄/本刊
全球人工智能伦理治理开局之年
上述伦理挑战正在引起国际社会的广泛关注 。2023年,各国政府及国际组织开始密集讨论人工智能的伦理问题,发布一系列声明、愿景及政策 , 试图规范人工智能的发展路径 。
联合国在人工智能伦理治理上扮演了更加重要的作用 。2023年 , 联合国在推动各国凝聚共识、探讨安全风险和治理合作方面取得一定进展 。3月,联合国教科文组织号召各国立即执行该组织于2021年11月发布的《人工智能伦理问题建议书》 。7月,联合国首次举行由人形机器人与人类一同参加的新闻发布会,9个人形机器人接受了参会专家和各路媒体的提问;举办“人工智能造福人类”全球峰会,讨论未来人工智能的发展和治理框架;安理会就人工智能对国际和平与安全的潜在威胁举行首场公开辩论 。10月,联合国秘书长古特雷斯宣布组建人工智能高级别咨询机构,全球39名专家加入,共商人工智能技术风险与机遇 , 为加强国际社会治理提供支持 。由此可见,联合国已经将人工智能伦理纳入全球治理议程,未来将推动形成更加正式、更有约束力的组织及治理规范 。
欧盟为人工智能专门立法,对该技术实施全面监管 。欧盟委员会2021年提出《人工智能法案》提案的谈判授权草案 , 严格禁止“对人类安全造成不可接受风险的人工智能系统”,要求人工智能公司对算法保持控制,提供技术文件,并建立风险管理系统 。在历经马拉松式谈判后 , 欧洲议会、欧盟成员国和欧盟委员会三方2023年12月8日就《人工智能法案》达成协议,该法案成为全球首部人工智能领域的全面监管法规 。
美国出台监管政策,但立法进程较为缓慢 。相较于欧盟,美国监管要求少,主要强调安全原则,鼓励企业自律 。2023年1月,美国国家标准与技术研究院(NIST)正式公布《人工智能风险管理框架》,旨在指导组织机构在开发和部署人工智能系统时降低安全风险,但该文件是一份非强制的指导文件 。10月,拜登签署美国迄今为止最全面的人工智能监管原则,即《关于安全、可靠、可信地开发和使用人工智能的行政令》,该行政令超越了AI target=_blank class=infotextkey>OpenAI、谷歌和Meta等公司今年早些时候做出的自愿承诺 , 但仍缺乏强制执行效能 。拜登政府在行政令发布后敦促国会尽快推出相关立法 。美国国会参议院多数党领袖舒默已分别在9月和10月主持召开两次人工智能洞察论坛收集业界建议 , 并期望在数月内准备好人工智能立法 , 但未来此类法案能否顺利通过尚未可知 。


推荐阅读