太平洋电脑网|《连线》:AI 生成的文字将是最可怕的 Deepfake 内容


据《连线》(Wired)杂志报道 , 当评论家和研究人员试图猜测什么样的操纵活动可能会威胁到2018年和2020年的选举时 , 误导性的人工智能生成的视频往往名列榜首 。 虽然这项技术仍在兴起 , 但其被滥用的可能性是如此惊人 , 以至于科技公司和学术实验室优先研究并资助检测方法 。 社交平台为含有"合成和操纵媒体"的帖子制定了特殊政策 , 希望在保护自由表达和阻止大肆传播的谎言之间取得适当平衡 。
但现在 , 距离11月3日还有3个月左右的时间 , 一波deepfake内容似乎从未断过 。 相反 , 另一种人工智能生成的媒体形式正在成为头条新闻 , 这种媒体更难被发现 , 却更有可能成为互联网上一股无孔不入的力量:deepfake文字 。
《连线》称 , 上个月推出的GPT-3是生成式写作的下一个前沿:一个可以产生令人震惊的句子的AI 。 随着它的输出变得越来越难以与人类产生的文本区分开来 , 可以想象未来在互联网上看到的绝大多数书面内容都是由机器产生的 。 如果这种情况发生 , 它将如何改变我们对周围内容的反应方式?

太平洋电脑网|《连线》:AI 生成的文字将是最可怕的 Deepfake 内容
本文插图

这不会是第一个这样的媒体拐点 。 三十年前 , 当Photoshop、AfterEffects以及其他图像编辑和CGI工具开始出现时 , 这些工具对艺术创作的变革潜力--以及它们对我们对世界认知的影响--立即得到了认可 。 "AdobePhotoshop很容易成为出版史上最能改变生活的程序 , "Macworld在2000年的一篇文章中宣布推出Photoshop6.0 。 "今天 , 艺术家们通过Photoshop对他们的作品进行修饰 , 而色情作品的制作者如果不对他们的每一张图像进行Photoshop处理 , 那么除了现实 , 他们将一无所获 。 "
人们开始接受这种技术的本质 , 并产生了健康的怀疑态度 。 今天 , 很少有人相信 , 杂志封面能展现模特的真实面貌 。 (事实上 , 吸引公众注意的往往是未经PS的内容 。 )
生成的媒体 , 如deepfake视频或GPT-3输出 , 则有所不同 。 如果被恶意使用 , 就没有未经修改的原件 , 没有可以制作的原始资料作为对比的依据 , 也没有可以作为查证事实的证据 。 在2000年代初 , 我们很容易剖析名人的前后照片 , 讨论后者是否造成不切实际的完美理想 。 在2020年 , 人们面对的是色情片上越来越似是而非的名人换脸 , 以及世界领导人说一些他们从未说过的话的片段 。 人们将不得不调整 , 并适应新的不现实程度 。 即使是社交媒体平台也认识到了这一区别;他们的deepfake造假节制政策区分了合成的媒体内容和仅仅是"修改"的媒体内容 。

太平洋电脑网|《连线》:AI 生成的文字将是最可怕的 Deepfake 内容
本文插图

《连线》认为 , 无孔不入的生成文本有可能扭曲我们的社交传播生态系统 。 不过 , 要想对deepfake内容进行管理 , 必须知道它的存在 。 在现在存在的所有形式中 , 视频可能会变成最容易检测的形式 。 "软生物识别" , 比如一个人的面部动作不对;耳环或一些牙齿的呈现效果很差 。 这些很多都可以通过软件的调整来克服 。 例如 , 在2018年的deepfake视频中 , 被试者的眨眼经常是错误的;但在这一发现公布后不久 , 这个问题就被修复了 。 生成的音频可能更微妙--没有视觉效果 , 所以犯错的机会更少--但有希望的研究工作也在进行中 , 以弄清这些问题 。 伪造者和鉴定者之间的战争将永远持续下去 。
但是 , 合成文本--特别是现在正在生产的那种--代表了一个更具挑战性的前沿 。 它很容易大量产生 , 而且检测的次数也较少 。 Deepfake文字不像合成视频或音频那样 , 可以在敏感时刻使用 。 正如任何关注过激烈的Twitter标签的人可以证明的那样 , 活动家和营销人员都认识到主导所谓的"声音份额"的价值 。 看到很多人在同一时间或同一地点表达相同的观点 , 可以让观察者相信每个人都有某种感觉 , 不管说话的人是否真正有代表性 , 甚至是真实的 。 随着制作评论所需的时间和精力的下降 , 将有可能就任何可以想象的主题制作大量的人工智能生成的内容 。 事实上 , 人们有可能很快就会有算法阅读网络 , 形成"意见" , 然后发布自己的回应 。 这些无边无际的新内容和评论的资料库 , 主要是由机器制造的 , 然后可能会被其他机器处理 , 导致一个反馈循环 , 这将大大改变我们的信息生态系统 。


推荐阅读