人工智能|人工智能“军备竞赛”的真正危险是什么( 三 )


当机器学习系统出现失误时 , 也会像人类一样沮丧并变得阴晴不定 。 即使研究人员并不一定每一次都能预测到机器的行为 , 对于基于规则的人工智能系统 , 研发者大体还是可以解释机器的行为 。 然而对于深度学习系统 , 研究人员往往无法理解机器为什么要这样做 。 谷歌公司的人工智能研究人员阿里·拉希米(Ali Rahimi)认为 , 中世纪的炼金术士虽然发现了现代玻璃制造技术 , 但并不了解这一突破背后的化学或物理原理 , 与此相似 , 现代正在研发机器学习的工程师们也能在人工智能上取得重大突破 , 但相应的基础科学还没有发展到能对此进行解释的程度 , 是技术走到了科学的前头 。
人工智能系统的每一次故障都会成为一个可以利用的漏洞 。 在某些情形下 , 攻击者可以使训练数据中毒 。 微软公司在2016年创建了一个名为泰(Tay)的聊天机器人 , 并为其开设了推特账户 。 当一些用户对泰发布攻击性的推文后 , 不到24小时泰就开始鹦鹉学舌地模仿他们的种族主义和反犹太言论 。 这就是一个显而易见的数据中毒的例子 , 但不是所有的数据中毒攻击都如此明显 , 有些潜伏在训练数据中人类无法检测到 , 却在暗中操纵机器的运作 。
深度学习系统的创建者即使保护了数据源 , 攻击者也可以通过提供精心定制的输入—对抗性样本—来欺骗系统让机器犯错误 。 正常图像的轻度变形 , 人类可以一眼就看穿却能够糊弄人工智能 。 对卫星图像分类的神经网络系统会被对抗性样本欺骗 , 把稍加变形的医院图片识别为军事机场 , 反之亦可能 。 对抗性样本甚至可以就是具体的物体 。 一个案例中 , 物体识别系统把龟壳上嵌有细微旋涡的塑料乌龟识别为步枪;另一项研究中 , 研究人员在停车标志前放置了几个白色和黑色的小正方形 , 这些干扰让神经网络系统将其辨识成每小时45英里的限速标志 。 更糟糕的是 , 入侵者根本无须访问训练数据或他们试图打败的系统底层算法 , 就可以开发出这类欺骗性图像和物体 , 因此研究人员也一直在努力寻找有效的防御手段来抵御这种威胁 。 此类威胁与网络安全漏洞不同 , 后者通常可以在发现漏洞后通过打补丁进行修补 , 前者还没有办法可以针对攻击对算法提前打预防针 。
各国政府测试人工智能在军事、网络和监测方面已经积累了丰富的经验 , 但还没有一种测试方法可以保证复杂的系统一旦在现实世界中运行就不会出现故障 。 F-22战斗机第一次穿越国际日期变更线时 , 计算机系统崩溃 , 飞机几乎坠毁在太平洋 。
测试人工智能系统比测试传统军事硬件设备要花费更多的时间和金钱 。 人工智能的复杂性赋予其更大的能力 , 也导致了更多难以预见的意外故障 。 假设某国政府研发出可以不知不觉入侵敌对国计算机网络的人工智能系统 , 部署该系统的政府将获得远超敌对国的巨大优势 。 由于也担心敌对国正在加紧开发类似的人工智能工具 , 政府会被迫缩短测试时间并尽早部署该系统 。 这种你追我赶的局面已经在自动驾驶汽车等行业形成风气 , 然而人工智能工具在国家安全领域造成事故的后果更加巨大 。
政府醉心于强大但并不安全的技术 , 其实首开先河的不是人工智能而是计算机 。 尽管计算机系统存在巨大漏洞 , 但仍在从股票交易到制导导弹的几乎所有领域中发挥着至关重要的作用 。 美国政府责任署调查员在2018年发现 , 美国武器系统存在许多网络安全漏洞 , 通过“相对简单的工具和技术”就可以利用这些漏洞 。 更糟糕的是 , 国防部的项目主管居然不知道问题所在 , 并对责任署的发现不予理睬 , 还宣称其测试不切实际 。 计算机安全漏洞不仅限于政府运行的系统 , 很多大公司也相继遭受重大数据泄露 , 因此现在再提数字安全性已经是马后炮的做法 。 然而人工智能系统遍布全球不仅仅是一种可能 , 而是默认设置 , 人工智能安全性更是一个迫在眉睫的世界性问题 。
5.人工智能发展需要全球合作和安全第一
【人工智能|人工智能“军备竞赛”的真正危险是什么】人工智能的威胁如此紧急 , 全球需要进行紧急响应 。 政治家们应对人工智能危害最重要的防御方法之一就是增加人工智能安全研究的资金投入 。 私营公司花费数十亿美元研发人工智能在商业方面的应用 , 各国政府更应该在该领域发展之初就加大基础性研究上的投入 。 美国国防高级研究计划署正在执行“下一代人工智能创新”项目 , 计划在未来5年内耗资20亿美元解决弱人工智能系统局限性问题(译者注:弱人工智能是指在人为规定的框架内 , 可以按照人类做出的决定 , 独立执行某些精确任务 , 但不具备意识) 。 在此基础上 , 作为美国人工智能创新规划的一部分 , 白宫会相应追加人工智能安全性研究的资金 , 并要求国会对人工智能安全性的研发提供更多预算 。
将人工智能应用于国家安全方面 , 政府机构需要重新审视一直以来测试新系统的传统方法 , 仅仅验证系统是否符合设计规格还远远不够 。 测试人员还需要确保当面临现实世界敌对入侵威胁时 , 系统还能够继续正常运行 。 在某些情况下 , 测试人员可以参考自动驾驶汽车制造商的做法 , 使用计算机模拟来梳理错误漏洞 。 另外国防部和情报界还应建立“红色军团”—充当攻击者以测试系统的防御能力—来搜索人工智能系统中的安全隐患 , 这样开发人员可以在系统上线之前进行修复 。


推荐阅读