OpenAI遭遇滑铁卢,ChatGPT正在走向失控的原因是什么?( 三 )


根据斯坦福人工智能研究所(HAI)发布的《2023年人工智能指数报告》,训练像OpenAI的GPT-3这样的人工智能模型所需消耗的能量,足可以让一个普通美国家庭用上数百年 。
而根据方正证券的一份研究报告,如果Open AI想通过ChatGPT实现盈利,那么就需要通过降低精度控制算力成本,并且提高用户的付费率 。目前,ChatGPT大部分用户使用的正是免费且所占算力成本巨大的GPT-3.5 。
因此,无论是从资源环境的方面,还是出于项目成本控制的考虑,降低GPT-3.5的精度似乎都成为了一项可以考虑的事情 。
此前就有媒体报道,GPT-4疑似变笨 。有国外网友称,虽然GPT-4反应很快,但它的输出质量更像是GPT-3.5++ 。GPT-4产生了更多的bug代码,答案也缺乏深度和分析,其对复杂程度相似的问题处理结果甚至还不如它的前身GPT-3或GPT-3.5 。
这直接引发了OpenAI为节约成本偷工减料质疑 。
OpenAI打开的是魔盒还是百宝箱,最终还要看人类自己目前OpenAI有非常多棘手的问题有待解决,其中有生存的问题,更有发展的问题,而这些问题都急需ChatGPT可以与人类重建信任,而信任的第一步就是可追溯 。
从教育界开始,越来越多的人需要分清哪些内容来自于AI,哪些内容来自于人类 。除了OpenAI自研的AI Classifier外,普林斯顿大学的华人学生开发的软件 GPTZero也曾被给予厚望,但效果并不尽如人意 。此外,包括Turnitin等软件也有AI检测的功能,但识别准确率仍然不够高 。
有人把目前的AI技术大爆炸描述成“军备竞赛”,但似乎,我们现在确实也到了面对新型“核弹”的时刻 。虽然OpenAI不同的高管在多个场所表明安全的重要性,但如何实现这一承诺仍然道阻且长 。
实际上,为了保证ChatGPT的答案可以不至于太离谱,OpenAI需要非常多准确且来源清晰的训练数据 。斯坦福的研究显示,使用AI生成的数据训练次数超过5次,模型就会出现崩溃(性能下降以致于难以使用) 。也就是说,如果不能给模型提供新鲜的、人类标注的数据,其输出质量将会受到严重影响 。
遗憾的是,目前AIGC的内容已经无处不在,而OpenAI并没有办法大规模的分离出目前AI已经产生的内容 。而AI Classifier的失败正是OpenAI对于此事无能的注解 。
虽然,包括美国政府在内,越来越多的人正在期待数字水印技术可以为ChatGPT之类的人工智能装上护栏,但一个遗憾的事实是,OpenAI本身早就对数字水印技术进行了研究和探索,而OpenAI截至目前仍未有效的利用数字水印来区分AI所生产的文本 。
至于未来如何,也许我们只能祈祷,大语言模型会成长为核电站,而不是核导弹了 。




推荐阅读