造个破谣而已,咋还用上AI了?( 三 )


首先当然是严惩不贷 。从目前曝光的AI造谣案例中来看,大部分造谣者都是产生的影响很坏,但真正的收益很少 。持续的犯罪打击与案例宣传,会让更多造谣者与准造谣者看到,AI造谣虽然看似成本低,但其实是非常不具备性价比的一件事 。
接下来是建立造谣者在炮制、传播、获利等环节中的社会阻隔 。很多相关讨论,都说可以用AI来检测AI内容,用魔法打败魔法 。事实上,这样做当然可以,但技术上的实现空间很窄 。比如说,让AI炮制一条假新闻很容易,但要让AI对比所有新闻数据,然后确定某条信息是假的,这个技术难度相当大 。AI检测谣言工具,在一段时间内将更多是辅助性质 。
想要从技术上建立造谣者与AI工具之间的组个,还是需要从AIGC工具上入手 。让AI模型知道自己在写什么、生成什么图片,一旦遇到不合理、不合法的内容主动屏蔽,从而让造谣者不能那么顺利地应用AI 。
与此同时,还需要在利益层建立给造谣者建立阻隔 。大多数AI造谣案例的获利方式都是平台分成 。那么我们是不是可以考虑唯流量论的分成体现机制是否过于简单粗暴?且必然给谣言留下了滋生空间?毕竟没人看狗咬人,都想看人咬狗 。降低、甚至切断这些毫无营养的谣言内容获利渠道,也是重要的社会阻隔方式 。

造个破谣而已,咋还用上AI了?

文章插图
最后才是用户必须提高谣言意识 。毕竟绝大多数人不是专家,不可能就看到的每条信息都考证二三,因此确实不能将太多分辨谣言的责任推给最终用户 。但至少我们需要知道,确实有AI炮制假新闻,AI伪造图片这种可能性的存在 。
另外还是想说,AI不可怕,用AI造谣也不可怕 。心怀不轨之人,会利用一切可资利用的技术与工具 。今天有AI,明天就有BI、CI,他们瞧上了AI,恰好说明AI确实已经做到了可利用和低门槛,如果因此就怀疑和污名化AI,岂不就把它白白让给了到处散德行的小人?
技术没有好坏,人心才有 。

【造个破谣而已,咋还用上AI了?】


推荐阅读