造个破谣而已,咋还用上AI了?( 二 )


造个破谣而已,咋还用上AI了?

文章插图
这就引出了用AI造谣的第二个动机:利用AI洞察大数据的能力 。
用过生成式AI的朋友应该有所体会,如果你向AI提出诸如“文案里要有网络梗”“文案要让年轻人爱看”之类的需求,会发现很多时候AI比我们更懂网络,更懂流量 。甚至还可以让AI生成“老年人爱看”“能引发中年焦虑”“能挑起性别话题”等内容 。
这背后的技术原理,就是大模型具有更好的泛化信息理解能力,可以将没有直接关联的信息按照语义结合在一起 。显然,造谣者对技术原理不感兴趣,但很快掌握了大模型的应用窍门 。
在河南郑州市通报的一起案例中,嫌疑人就是通过对AI下命令,进行提示的方式获得谣言内容的 。他要求AI生成的内容要能吸引眼球,并且明确说明要让年轻人看到 。在这些提示关键词的要求下,AI生成了很多内容,嫌疑人最终选择了自己比较满意的进行发布 。
可以看到,这个造谣原理,基本已经跟现在很火的职业“AI提示工程师”非常相近了 。AI大模型带来的底层逻辑变革之一,就是人类可以不用搜索和点击来进行数字化交互,而是直接向AI提出需求,这一点也先被造谣者学会了 。
而让人啼笑皆非的是,这名嫌疑人提示AI制造的谣言,最终确实引发了关注 。只不过在给造谣者带来二三百元收益的同时,还带来了法律的制裁 。
有图,没真相
还有那么一些造谣者,他们想要造谣骗取流量或实现其他目的,但苦于没有能让人信服的所谓“证据” 。毕竟大多数网友也知道,空口无凭,有图有真相,而一些谣言很快被拆穿,也是因为造谣者利用了此前网络上已经发布过的图片 。比如说前不久的某流量明星火速辟谣事件 。
但如果能让AI做出来看着有点真,此前又没出现过的图片,这个难题似乎也就攻克了 。于是就有了用AI造谣的第三个动机:通过AIGC平台来生成作为论据的图片 。
还记得今年年初在土耳其大地震期间,就有人在推特上散布谣言,称自己是消防员、志愿者等,以此请求捐款 。而信息中的配图就是AIGC平台合成的 。由此可见,有图有真相的时代真的已经过去了 。在今天,只要能够熟练使用AIGC软件,想要什么图基本都是可行的,而且很可能以假乱真 。
这里要说的是,AIGC图片并没有那么神 。其拟真程度甚至比不过大部分PS高手 。但问题是,PS并非人人都会,使用AIGC则只需要按教程学一遍就能上手 。于是不少游手好闲者开始用AIGC制造“谣图”,其中最恶心的一种,就是用AI来造黄谣 。
造个破谣而已,咋还用上AI了?

文章插图
不久前,《光明日报》就报道了一位女士在社交网络上发现了用自己面容合成的不雅图片 。报道中还称,相关的AI制图工具堪称唾手可得,并且还有人在社交平台上兜售相关视频、订制换脸服务、贩卖操作教学等 。
用AI换脸的Deepfake技术堪称屡禁不止,而AIGC平台的出现还让相关问题愈演愈烈 。在一些缺乏监管的海外AIGC平台,用户基本可以在无技术门槛的情况下获得订制化的不雅图片 。随着AI技术的前进,造谣者的工具箱也确实更加丰富了 。
如何对抗这股歪风邪气?
奥尔波特在《谣言心理学》提出,想要限制谣言的传播,需要做到三件事:法律上严惩不贷、社会中进行阻隔、公民具备谣言意识 。
其实最近备受关注的AI造谣,本质上与此前的网络谣言基本没有不同,唯一的变化就是造谣的门槛更底了,于是必然会有人觉得用AI造谣更加划算 。
归根结底,大部分的AI造谣都是为流量和平台分成而来 。这种造谣其实原本也有,但如果想要做大做强,可能需要几个写手、几个美工,有网络运营和大数据分析人员 。类似电影《孤注一掷》里,诈骗集团就按“千门八将”分了八个部门,其中就有专门散播谣言的“谣部” 。
造个破谣而已,咋还用上AI了?

文章插图
但对于绝大多数造谣者来说,目标都仅仅是流量,而不是诈骗、勒索、敲诈这种重大刑事犯罪,他们的贼心和贼胆都不够,并且也不会写,不会P图 。
于是对于他们来说,用AI来炮制谣言就显得更加划算,尤其在大模型出现之后,一个人就可以是一只谣言队伍,基本不用分工协作 。
想要让这股AI造谣的歪风邪气不再猖獗,也需要从这三个方面入手,让AI造谣变得不再那么具有性价比 。


推荐阅读