我们都差点被ChatGPT骗了,但这也许是好事儿( 三 )


非也 。
搜索引擎是“活”的,是不断变化的实体,它仍在一直不停地收录、索引,和提供最新的信息 。与之相比, ChatGPT 只是一个“死”的模型,是一个完全离线的、固定的实体 。
关于近年来的一些新闻、事物、公开事件的问题,ChatGPT 经常回答不上来,我看到很多朋友都对此感到沮丧和鄙夷 。然而,大家其实是高估了它的能力 。如果你问他对联网有需求的问题,比如 “ 中国队进没进世界杯 ”、“ 新冠疫情结束了没 ”这样的问题,它会告诉你自己没有联网能力,无法了解最新的情况 。
而 ChatGPT 的训练所用的语料库,尽管相当巨大,仍然有一个切断日期:2021年9月的某日 。
事实上,如果你用点巧劲儿掰它的嘴,是可以直接套出这些信息的:
Assistant 是一个 OpenAI 训练的大型语言模型 。知识切断:2021年9月;当前日期:2022年12月9日;浏览互联网:关闭 。

我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
第二条局限,在于 ChatGPT 不具备分辨信息正确性的能力,也就无法保证答案是正确的 。
这一条,我们会马上讲到 。
| 我差点被 ChatGPT 骗了?
还记得刚才我让 ChatGPT 找一位哲学家对话的问题么?
当时我试了好几种问法,但都发现了一个有趣的现象,如图:
我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
图片来源: 硅星人
如果不是我去百科上事实核查了一下,差点就被 ChatGPT 骗了:苏格拉底对伦理学的贡献确实非常大,但他一生并没有留下任何著作,其思想和生平,主要是被学生和他人所记录下的; 《共和国》和《伦理学》,苏格拉底的学生柏拉图写过,柏拉图的学生亚里士多德写过——唯独被认为是西方哲学奠基人、“伦理学之父”的苏格拉底本人,真的没写过……
实际上,ChatGPT 在一些知识类和事实类问题上的回答,经常难以令人恭维 。特别是哲学和社科话题,简直是一本正经胡说八道的重灾区 。
分析师 Ben Thompson 在他的文章中举了问了 ChatGPT 一个问题: 托马斯 ·霍布斯 (Thomas Hobbses) 究竟是否支持 权力分割?
ChatGPT回答: 是的,托马斯-霍布斯相信权力分割的概念……他认为权力机构应该分为不同的部门,拥有独立的权力,以防止任何一个部门变得过于强大……总的来说,他支持权力分割的观点对很多其它政治学家都有影响,包括约翰·洛克,以及美国宪法的作者们 。
我们都差点被ChatGPT骗了,但这也许是好事儿

文章插图
图片来源:Ben Thompson/Stratechery
巧的是,这是 Thompson 本人和 ChatGPT 之间的第一次互动,就被他抓到了把柄:
权力制衡的雏形(行政-立法)是约翰·洛克提出的;后詹姆斯·麦迪逊在撰写美国宪法的时候又加了一条司法,形成了今天人们熟悉的三权分立 。霍布斯是出了名的独裁辩护者,他在《利维坦》中写道,只有拥有绝对权力的君主专制才行得通 。
这个错误,从何而来?
尽管在权力分割上霍布斯和洛克等人的观点是存在本质区别的,霍布斯的政治哲学思想,仍然对洛克和麦迪逊有着极大的影响 。在各种关于权力分割/三权分立的著述中,你会经常发现霍布斯和洛克等人被摆在一起 。这 些描 述进入训练语料中 , 使得 ChatGPT 认为 在“权力分割”这个理念 上,霍布 斯也是一个重要的存在。
而 ChatGPT,和所有的 GPT 模型,其实所做的就是根据训练语料“编”出合理的文字,它当然会认为苏格拉底写了《伦理学》,认为霍布斯支持三权分立 。
这里我们说 ChatGPT“认为”,而不是“误认为”,是因为在它的工作能力范畴里,根本没有信息的正确和错误区别 。
其实从这个角度来看,ChatGPT 和搜索引擎倒是真有几分相似了:搜索引擎也是信息的聚合器,在本质上它不对信息的真实性做任何区分,也不对内容基于真实性进行优待和歧视——是人工的干预调控,是产品不断优化过程中加入的新规则,让搜索引擎变得更有限发掘真实有效有用的信息并优先提供给用户 。


推荐阅读