直面人工智能伦理挑战( 三 )


英国在人工智能治理外交上投入更多资源 。2023年11月,首届全球人工智能安全峰会在英国布莱奇利园召开 。美国、英国、欧盟、中国、印度等多方代表参会 。会议最终通过《布莱奇利宣言》,强调人工智能的许多风险本质上是国际性的,因此“最好通过国际合作来解决” 。与会者同意协力打造一个“具有国际包容性”的前沿人工智能安全科学研究网络,以对尚未完全了解的人工智能风险和能力加深理解 。英国为举办此次峰会开展大量前期准备和外交斡旋,意在将本国树立为全球人工智能治理的“召集人” 。未来 , 越来越多的国家将在人工智能治理外交上投入更多资源,争夺这一新兴领域的话语权 。
中国高度重视人工智能治理问题 , 治理理念侧重于平衡发展和安全 。2023年4月 , 国家互联网信息办公室起草《生成式人工智能服务管理办法(征求意见稿)》 。《生成式人工智能服务管理暂行办法》于7月正式公布,从技术发展与治理、服务规范、监督检查和法律责任等方面对生成式人工智能做出具体规定,并于8月15日起施行,是全球首部针对生成式人工智能的专门立法 。与此同时,中国在年内也推出一系列针对深度合成、算法等专门领域的规定,例如1月生效的《互联网信息服务深度合成管理规定》、3月生效的《互联网信息服务算法推荐管理规定》 。10月,中国提出《全球人工智能治理倡议》,对个人隐私与数据保护、数据获取、算法设计、技术开发以及风险等级测试评估和伦理准则等提出了具体的原则准则或建议 。
美国为何行动迟缓
相比于美国在人工智能技术应用层面的发展速度,美国关于人工智能监管的政策和立法行动迟缓,这是诸多因素共同作用的结果 。
首先,美国不愿放弃人工智能有利地位 。
美国政府和战略界人士普遍认为 , 人工智能是决定美国能否在下一轮全球科技竞争中胜出的战略性技术之一 。从奥巴马时期开始,美国政府即提出若干相关国家规划和愿景 。特朗普政府和拜登政府的人工智能行政令均强调维护“美国人工智能的领导地位”,将这一目标作为美国治理人工智能的基础性目标 。相比于治理风险,美国更不愿在确保自身技术绝对领先前就严格限制该技术的发展 。ChatGPT大热后,美国相关监管政策陆续出台,其目标不仅仅是应对治理风险,更是为了防范该技术快速扩散从而削弱美国领先优势 。
【直面人工智能伦理挑战】其次 , 人工智能伦理问题在美国被政治化,两党难以协调分歧达成治理共识 。
近年来,美国政治极化加剧,两党在几乎所有社会问题上均意见对立 , 在涉及民众生活方式的人工智能伦理上更是如此 。在议题上,民主党更关注个人隐私、算法歧视、算法公正等与多元化相关的议题;共和党则更关注国家安全、人工智能犯罪等安全性议题 。在风险防范上,民主党认为人工智能造假、传谣领域的应用是最突出风险 , 要求强化社交媒体等中间传播渠道责任;共和党则认为此类治理措施存在政治动机,对共和党参选人不利 。受2024年大选影响,两党的矛盾和争论更加尖锐,让立法进度明显滞后于形势发展 。从拜登政府在2023年底陆续推出一系列人工智能治理政策文件可以看出,民主党有意率先打破僵局,将人工智能治理作为一个潜在的竞选议题,加速该议题的立法进程 。
最后 , 美国管控人工智能也面临一些制度上的障碍 。
美国政治传统中的所谓“自由至上”“个人至上”不利于管控去中心化、风险分散、快速扩散的技术和应用 。这种传统容易在各州之间形成监管空白,也让政府难以动用行政资源铲除非法利益链条 。枪支泛滥、毒品犯罪等美国社会顽疾均与此有关,危险的人工智能应用也可能成为美国下一个泛滥成灾的社会风险 。
这种迟疑可能会导致全球人工智能“军备竞赛”风险上升 。美国作为全球人工智能技术研发最为领先的国家,有义务成为全球推动人工智能相关监管措施的最早参与者,但美国尚未形成监管立法,在全球层面推进人工智能治理的议程也随之放缓 , 将使越来越多的国家忽视管控,一味追求技术领先 , 进而加入算法“军备竞赛” 。这种竞逐色彩可能会使人工智能渐渐偏离健康有序的发展方向,无疑将为后续全球立法和治理带来更多阻碍,也使各国围绕人工智能的恶性竞争事件发生风险升高 。


推荐阅读