故事传记|人工智能骗人工智能:黑客如何“弄瞎”人脸识别算法?( 三 )


“通过将动量项整合到攻击的迭代过程中 , 该方法可以稳定更新方向 , 并在迭代过程中避开局部最大值 , 从而得出迁移性更优的对抗样本 , 进一步提高黑盒攻击的成功率 。 ”
今时今日 , 以对抗算法的地位 , 将其定义为人工智能算法前沿 , 丝毫不为过 。 而学术论文又在为其方法的迭代与演化 , 提供源源不断的新鲜思路 。
纸眼镜的思路 , 也能用在云计算厂商人脸识别算法的API攻击中 。
一般情况下 , APP开发者不会自己研发人脸识别算法 , 而是通过第三方的API接口或SDK组件来获得人脸识别功能 , 这个第三方 , 可以是云计算厂商 。 黑客直接将对抗样本图上传到云厂商的API , 进行攻击 。 这种对抗样本同样也可以使亚马逊、微软等人脸识别平台的服务出现严重的识别错误 。
这也是一个典型的黑盒攻击 。
将对抗样本用纸打印出来 , 黑客可以直接作为“作案工具” 。 也就是说 , 对抗样本通过区区打印的照片就可以攻击那些算法工程师冥思苦想才能提高精确度的人脸识别算法 。 给人脸识别系统捣乱 , 听上去如此的轻而易举 , 似乎成了春田花花幼稚园手工课的作业 。
对抗样本技术 , 是在用算法欺骗算法 。 这里的算法 , 是深度神经网络算法 , 是人工智能算法的一种 。 所以 , 也算人工智能骗人工智能 。
黑盒攻击不是《聊斋志异》里的鬼故事 , 也不是《哈利波特》里的黑魔法 。 对抗样本“走出”学术论文 , 现身于真实的生活环境 。
萧子豪特别提起2017年那场比赛 , 这是一个标志性事件 。 这场对抗样本攻防赛 , 由谷歌公司赞助 , 由图灵奖获得者Ian Goodfellow牵头 , 在NIPS顶级学术会议期间举办 。 参赛团队均来自全球顶级院校 , 清华大学团队在竞赛的全部三个项目中得到冠军 。 由清华大学博士生董胤蓬、廖方舟、庞天宇及指导老师朱军、胡晓林、李建民、苏航组队 。
朱军教授在ICLR2020会议的署名论文数量排名中 , 位居世界第二 。
大风起于青萍之末 。
竞赛中 , 之前的很多积累都用上了 , 其中一种方法——广泛的基于梯度的迭代算法来增强对抗攻击(Momentum Iterative Method , MIM) , 被两位图灵奖得主J.Hopcroft教授、G.Hinton教授在ICLR2019等论文中大幅引用 , 也被该领域主流开源项目FoolBox、Cleverhans等收录为对抗攻击的标准算法 。
方法出自名为《Boosting Adversarial Attacks with Momentum》的论文 , 这一方法被称为代表性方法 。 人工智能算法领域 , 事实性标准最为难得和宝贵 。
2017年 , 清华大学计算机科学与技术系人工智能实验室就开始研究这一领域 。 最初刷学术数据集 , 后面不断地提升攻击的成功率 。 有了RealAI公司之后 , 打磨重点从图像分类往人脸识别去切 。
一群科研人员掌握独门技术 , 认为技术切实可行 , 判断应用价值大 , 那就出发 , 冷静且理性 。
算法研究 , 靠理论指导方向 , 靠做大量的实验来实现 , 对抗算法也是如此 。 理论和其实现无法替代 , 实现的过程需要征服大量细节 , 而细节存在于大量的实验中 , 多番尝试 , 才能追求更好 。 就好比化学实验 , 摸索某种配方比例 。 积累得够久 , 才会形成技术壁垒 。
都说技术壁垒是技术创业者的护城河 。 人工智能的护城河饱受质疑 , 仿佛人人手里有把尺子 , 伸手就能量出人脸识别算法公司技术壁垒有多高 。
“对抗算法属于人工智能算法 , 你怎么看别人手中这把尺子?”
萧子豪的观点是 , 技术周期上的领先不会太久 , 领先6个月到12个月 , 最后也会都被别人赶超 。 但是 , 对抗算法有一个独特之处 , 使得其不会重度依赖从数据上获得的优势 。
猛一听 , 这是个缺点 。 然而 , 面对越来越重视隐私保护的法律环境 , 这是名副其实的长处 。
人脸识别算法信奉 “人海战术” , 越是人脸数据训练出来的模型 , 效果越好 。 一个亿的人脸数据用二流设计的算法训练 , 一千万人脸数据用一流设计的算法训练 , 前者的准确率往往会更高 。 这就是一亿人脸数据带来的优势 。
做人脸识别算法的人可能需要到处找“照片” , 做对抗算法的人 , 则无此忧虑 , 因为这种算法训练所需的数据量并不大 。
香港电影《盲探》中 , 刘德华饰演探案警官 , 在连续高强度工作后因视网膜脱落而双目失明 。 靠肉眼夜以继日地盯着监控视频录像 , 查找犯罪嫌疑人 , 并不现实 。 所以 , 人工智能纷纷在视频监控里上岗 , 查找视频中和犯罪分子相似度超过97%的人脸 。
可惜 , 椅子还没有坐热 , “对抗样本”的攻击就可能让人工智能看花了眼 。 眼看“犯罪嫌疑人”进入监控区域 , 结果就是找不到 。 因为对抗样本可以制造监控视频里的“隐身人” 。
这也许会让海康威视和大华股份这样的监控摄像头厂商紧张 。 业界是否已有类似的攻击极难调查 。 谁丢人谁心里知道 , 吃了亏被窝里流泪 , 绝少会有人脸识别算法的厂商宣布受到对抗算法攻击的数据 , 所有电商企业也都不会说自己一年会被黑产薅多少羊毛 。
危险之处还在于 , 浑然不觉 。


推荐阅读