「品品科技」全球诈骗案件已屡次得逞,AI软件克隆你的声音( 二 )


虽然有种种风险 , 但技术的发展一点也没有慢下来 。 目前 , 许多硅谷巨头和人工智能初创企业都在开发这种语音合成软件 , 用以模仿人的声音节奏和语调 , 并被用来制作令人信服的演讲 。
(Lyrebird官网)
几个月前 , Resemble团队发布了一个名为Resemblyzer的开源工具 , 该工具使用人工智能和机器学习来通过获取语音样本的高级表示并预测它们是真实的还是生成的来检测深度伪造 。 而在AI语音合成届早已成名已久的Lyrebird , 其开发出的AI合成软件更是可以在合成语音中模拟出说话人的感情 。
AI技术被滥用 , 它的工作原理是什么?
无数的研究表明 , 重现人们讲话的韵律只需要一个小的数据集 。 像Resemble和Lyrebird这样的商业系统仅需要几分钟的音频样本 , 而百度最新的DeepVoice实现等复杂的模型可以从3.7秒的样本中复制语音 。
斯坦福大学网络政策中心研究员、曾任奥巴马和特朗普政府时期白宫网络安全政策高级主管的AndrewGrotto(安德鲁·格罗托)表示:“罪犯将使用任何能让他们以最低成本实现目标的工具 。 也许这是一项在10年前听起来很新奇的技术 , 但是现在任何有想法的非专业罪犯都可以使用 。 ”
(图片来自网络)
目前市面上的AI语音合成软件的工作原理是将一个人的声音分解成不同的组成部分 , 比如音轨或音节 , 然后将这些组成部分重新排列 , 形成具有相似语音模式、音调和音色的新语音 。 除了借助这种新技术 , 骗子们还依赖于最常见的诈骗技巧来提高他们的效率 , 利用时间压力 , 比如临近的截止日期 , 或者社会压力 , 比如安抚老板的愿望 , 来让受害人打消任何疑虑 。 在某些情况下 , 犯罪分子会瞄准公司会计或财务的负责人 , 因为他们知道这些人有能力立即汇款 。
【「品品科技」全球诈骗案件已屡次得逞,AI软件克隆你的声音】(Pindrop的CEO演示如何合成公众人物的视频截图)
视频链接https://www.youtube.com/watch?v=PDs8-Exx6kE&feature=youtu.be
除了进行诈骗 , DeepFake音频还存在向公众传递负面信息的风险 。 RSA大会演讲现场 , Pindrop的CEO向公众演示了一款合成公众人物声音的AI系统 , 这项技术通过在网上搜索特朗普之前的录音来模仿他的声音 , 耗时不到一分钟 , 并用美国总统特朗普的声音说了一些笑话 。 如果这项技术被用于仿造领导人物的声音 , 并用到犯罪事件中 , 无疑可能非常危险 , 甚至给国家安全带来危害 。
AI声音合成如此猖獗 , 应该如何防范?
虽然风险重重 , 但语音模拟技术的发展势不可挡 。 例如 , Google已经为自动识别DeepFake语音的研究项目提供了资金和资源的帮助 。 但Google也开发了一些世界上最具说服力的语音人工智能 , 包括它的Duplex服务 , 它可以用电脑生成的栩栩如生的声音 , 打电话给餐厅预定座位 。
(Google语音助手 , 图片来自网络)
卡内基国际和平基金会(CarnegieEndowmentforInternationalPeace)硅谷办公室主任CharlotteStanton则提醒业界:“在商业领域 , 人们有很强的的意愿想要制造出好的技术产品 , 但一定要平衡 , 避免它被用于非法途径 。 所以 , 研究人员在研发像AI语音合成技术这样强大的技术时需要更加谨慎 , 很明显 , AI语音合成已经到了可以被滥用的地步 。 ”
幸运的是 , 人工智能开发人员正在努力构建能够检测和打击Deepfake音频的解决方案 。 例如 , Pindrop公司已经开发出一种人工智能算法 , 可以从DeepFake的音轨中辨别真实的语言 。 它是通过检查说话时单词的实际发音 , 以及这些发音是否与真实人类的说话模式相匹配 , 因为人类的声音无法像机器伪装那样标准和快速 。
Pindrop还预测到 , 也许有一天音频安全服务会像数据安全服务一样有巨大的市场 。 该公司CEO表示:“会有一些公司建立检测这些安全漏洞的机制 。 如果网上出现了伪造的音频 , 那么这个机制就会开始保护你的声音数据 。 ”


推荐阅读