陈根|陈根:为什么我们需要警惕人工智能?

文/陈根
历史表明 , 网络安全威胁随着新技术的进步而增加 。
关系数据库带来了SQL注入攻击 , Web脚本编程语言助长了跨站点脚本攻击 , 物联网设备开辟了创建僵尸网络的新方法 。 互联网打开了潘多拉盒子的数字安全弊病;社交媒体创造了通过微目标内容分发来操纵人们的新方法 , 使网络用户更容易收到网络钓鱼攻击的信息;比特币使得加密ransowmare攻击成为可能 。
近年来网络安全事件不断曝光 , 新型攻击手段层出不穷 , 安全漏洞和恶意软件数量更是不断增长 。 2019年VulnDB和CVE收录的安全漏洞均超过了15000条 , 平均每月高达1200条以上 。 2019年CNCERT全年捕获计算机恶意程序样本数量超过6200万个 , 日均传播次数达824万余次 , 涉及计算机恶意程序家族66万余个 。
根据研究集团IDC的数据 , 到2025年联网设备的数量预计将增长到420亿台 。 我们正在迅速进入“超数据”时代 , 但是 , 在数据算法大行其道人工智能方兴未艾的今天 , 我们也迎来了新一轮安全威胁 。
陈根|陈根:为什么我们需要警惕人工智能?
文章图片
人工智能攻击如何实现?
我们先想象一个超现实场景:
【陈根|陈根:为什么我们需要警惕人工智能?】未来的恐怖袭击是一场不需要炸弹、铀或者生化武器的袭击 , 想要完成一场恐怖袭击 , 恐怖分子们只需要一些胶布和一双健步鞋 。 通过把一小块带有电子芯片的胶布粘贴到十字路口的交通信号灯上 , 恐怖分子就可以让自动驾驶汽车将红灯识别为绿灯 , 从而造成交通事故 。 在城市车流量最大的十字路口 , 这足以导致交通系统瘫痪 , 而这卷胶布可能只需1.5美元 。
以上就是“人工智能攻击” , 那么它又是如何实现的?
要了解人工智能的独特攻击 , 需要先理解人工智能领域的深度学习 。 深度学习是机器学习的一个子集 , 其中 , 软件通过检查和比较大量数据来创建自己的逻辑 。 机器学习已存在很长时间 , 但深度学习在过去几年才开始流行 。
人工神经网络是深度学习算法的基础结构 , 大致就是模仿人类大脑的物理结构 。 传统软件开发需要程序员编写定义应用程序行为的规则 , 与传统的软件开发方法相反 , 神经网络只需通过阅读大量示例就能创建自己的行为规则 。
当你为神经网络提供训练样例时 , 它会通过人工神经元层运行它 , 然后调整它们的内部参数 , 以便能够对具有相似属性的未来数据进行分类 。 这对于手动编码软件来说是非常困难的 , 但对神经网络而言却非常有用 。
举个简单的例子 , 如果你使用猫和狗的样本图像训练神经网络 , 它将能够告诉你新图像是否包含猫或狗 。 使用经典机器学习或更古老的人工智能技术执行此类任务非常困难 , 一般很缓慢且容易出错 。 近年兴起的计算机视觉、语音识别、语音转文本和面部识别都是借助深度学习而获得巨大进步 。
但由于神经网络过分依赖数据 , 从而引导神经网络犯错 。 一些错误对人类来说似乎是完全不合逻辑甚至是愚蠢的 , 人工智能也由此变成了人工智障 。 例如 , 2018年英国大都会警察局用来检测和标记虐待儿童图片的人工智能软件就错误地将沙丘图片标记为裸体 。
当这些错误伴随着神经网络而存在 , 人工智能算法带来的引以为傲的“深度学习方式” , 就成了敌人得以攻击和操控它们的方法 。 于是 , 在我们看来仅仅是被轻微污损的红灯信号 , 对于人工智能系统而言则可能已经变成了绿灯 , 这也被称为人工智能的对抗性攻击 , 即引导了神经网络产生非理性错误的输入 , 强调了深度学习和人类思维功能的根本差异 。
陈根|陈根:为什么我们需要警惕人工智能?
文章图片
尽管恐怖袭击看起来远在天边 , 但这一类的安全威胁却近在眼前 。 上一阵子引起惶恐的丰巢智能快递柜刷脸功能就被小学生破解 , 一群小学生只用一张打印照片就能代替真人刷脸 , 骗过“人工智能”快递柜 , 取出父母的包裹 。 比利时鲁汶大学的两位少年仅仅通过在肚子上贴一张图片就轻松躲过了目标检测界翘楚YOLOv2的火眼金睛 , 成为了一个“隐形人” 。


推荐阅读