「脑极体」需要AI安全这样守护,产业智能化的大江大河( 二 )


针对这些算法安全风险 , 提供AI算法的安全评估检测成为未来的AI安全的重要发展方向 。
当前 , AI算法模型 , 由于算法黑箱和算法漏洞的存在 , 面对攻击者恶意攻击难以被检测 。 因此 , 建立可解释、可溯源、鲁棒性强的AI模型成为AI应用落地的根本任务 。
而对抗样本攻击又是造成当前AI安全风险中的主要手段 。 攻击者可以在判断阶段对样本加入少量噪音 , 诱导算法识别出现误判 , 影响判断结果 。 提升对抗样本攻击的防御手段 , 提供算法漏洞检测技术 , 也成为AI安全的当务之急 。
「脑极体」需要AI安全这样守护,产业智能化的大江大河
文章图片
随着产业智能化落地的加速 , AI算法安全已经成为一个产业现实的需求 。 当前 , 像谷歌、IBM以及国内的一些AI开发的公司和团队 , 也早已展开了相关AI安全的研究和应用 。
据我们了解 , 在AI安全检测领域 , 一家背景源自清华大学人工智能研究院的RealAI , 则成为国内第一家专门进行AI安全产品商业化的公司 。
为解决AI模型安全检测问题 , RealAI在去年5月与清华大学人工智能研究院联合推出一款名为“RealSafe”的对抗攻防工具箱 , 并于近日就攻防能力和使用方式进行了全面升级 。
升级后的RealSafe平台是目前首个针对算法模型本身安全的检测平台 , 提供从安全测评到防御加固升级整体解决方案 。 非技术人员仅需几步即可快速应对对抗样本攻击带来的安全威胁
目前来说 , RealSafe安全平台主要可以实现以下三大功能:
1、AI算法模型的安全检测 。 主要包括提供AI算法漏洞检测 , 以及全面、细致的攻击效果评测与比较 , 给出模型安全评分及详细的测评报告 。 其方法主要是利用多种主流和自研的算法生成对抗样本进行模拟攻击 , 通过黑盒查询攻击方法与黑盒迁移攻击方法 , 来实现AI算法模型的检测评估 。
2、对抗样本体验 。 这一功能并不难理解 。 想要成为AI安全技术的领先者 , 也必然了解和精通最丰富的对抗样本攻击手段 。 在去年10月举办的GeekPwn2019国际安全极客大赛上 , RealAI与清华大学共同组成的TSAIL战队获得“CAADCTF图像对抗样本挑战赛”以及“CAAD隐身挑战赛”两项比赛的冠军 。 其中 , RealAI团队所使用的图像对抗样本 , 可以轻易攻破目前主流的人脸识别系统 , 或者直接骗过目标检测系统而实现“隐身” 。
通过对抗样本和样本噪声清洗后的对比体验 , RealSafe可以将AI对抗样本攻防体验在线直观地呈现给客户和大众 , 从而提高人们的AI安全风险意识 。
3、通用防御解决方案 。 目前RealSafe已经能够提供五种去除对抗噪声的通用防御方法 , 可实现对输入数据的自动去噪 , 破坏攻击者恶意添加的对抗噪声 。 用户可以根据自身的AI模型的评测类型 , 选择相应的防御解决方案 。 据了解 , 部分第三方的人脸比对API通过使用RealSafe平台的防御方案加固后 , 安全性可提高40%以上 。
对于AI算法安全评测以及防御应用 , RealSafe平台并不是给出一套复杂的算法模型和开发工具 , 让企业客户再去部署开发 , 而是采用了流程化、模块化、零编码的功能设置 , 用户只需提供相应的数据即可在线完成评估 , 极大降低了算法评测的技术难度 。
同时 , 为了降低用户理解难度 , RealSafe还提供了可视化和量化的评测结果 , 可以实现对抗样本攻击下的表现评分和防御处理后的评分变化以及模型效果的变化展示 。
在RealSafe已经完成的这一安全检测平台之上 , 可以实现哪些产业领域的AI安全保障呢?
为AI产业落地保驾护航
正如技术发展呈现的“矛与盾”的复杂关系 , AI安全也同样呈现出一种持续攻防的过程 。 新的攻击手段出来 , 也必然要求有新的防御方法去应对 。
随着AI技术不断地成熟 , 以及在工业、金融、安防、交通、医疗教育等领域的实际应用 , 这场AI安全的攻防赛就会以一种更加复杂和多变的竞对状态呈现出来 。


推荐阅读