AI生成的假新闻难以识别,那就用神经网络来对抗吧( 四 )

本文研究了深度预训练语言模型怎样分辨真实新闻和机器生成的文本 。 研究发现 , 由于数据偏差 , 在假新闻生成过程中引入了关键缺陷:即生成器是不完美的 , 所以根据其分布进行随机采样时 , 文本长度增加会导致生成结果落在分布外 。 然而 , 缓解这些影响的采样策略也会引入强大判别器能够察觉的缺陷 。

该研究同时探讨了伦理问题 , 以便读者理解研究者在研究假新闻时的责任 , 以及开源此类模型的潜在不良影响(Hechtetal.,2018) 。 由此 , 该研究提出一种临时的策略 , 关于如何发布此类模型、为什么开源此类模型更加安全 , 以及为什么迫切需要这么做 。 研究人员认为其提出的框架和模型提供了一个坚实的初步方案 , 可用于应对不断变化的AI假新闻问题 。

具体方法

下图2展示了利用Grover生成反疫苗文章的示例 。 指定域名、日期和标题 , 当Grover生成文章主体后 , 它还可以进一步生成假的作者和更合适的标题 。

AI生成的假新闻难以识别,那就用神经网络来对抗吧

----AI生成的假新闻难以识别 , 那就用神经网络来对抗吧//----江苏龙网 http://www.jiangsulong.com //

本文原始标题为:AI生成的假新闻难以识别 , 那就用神经网络来对抗吧---来源是:

本文原始标题为:AI生成的假新闻难以识别 , 那就用神经网络来对抗吧---来源是:

图2:如图展示了三个Grover生成文章的例子 。 在a行中 , 模型基于片段生成文章主体 , 但作者栏空缺 。 在b行中 , 模型生成了作者 。 在c行中 , 模型使用新生成的内容重新生成了一个更真实的标题 。


推荐阅读