ChatGPT为何没能诞生在中国?( 二 )


当地时间2月10日 , 微软创始人比尔·盖茨接受一家德国媒体采访时表示 , ChatGPT的重要性不亚于互联网的发明 。而作为曾经的ChatGPT投资人、特斯拉 CEO埃隆·马斯克也曾在推特发文称赞 , “ChatGPT好得吓人 , 我们离强大到危险的人工智能不远了 。”
和其他聊天机器人相比 , ChatGPT显示出了更高的“情商” 。用户会发现 , ChatGPT可以回答用户追问的问题 , 能承认错误 , 不断调整回答 。问它《红楼梦》开篇“原来女娲氏炼石补天之时”的出处 , 它的回答是《山海经》 , 被提醒错误后 , 它很快道歉并调整答案:《封神榜》 。它解释的理由中可以看到 , 它搜索的关键词是“女娲炼石补天” , 再次追问 , 它说 , 女娲炼石补天的传说是一个历史悠久的故事 , 出现在多个文献和传统文化中 , “因此 , 没有一个确定的出处” 。
李笛说 , ChatGPT目前在三个地方有价值 , 它能帮用户生成一段内容作为初稿 , 例如邮件、短新闻等 , 用户再去修改 , 但现实中 , “已有一些国外学生等用户 , 用它作弊 , 直接作为终稿提交” 。
第二个价值在于 , 可以给用户提供“启发”和灵感 。ChatGPT可以把信息有条理地呈现出来 , “假如你想找一个人讨论 , 尽管它的观点不一定准确 , 但它会为你提供一种思路 。”李笛说 , 第三个价值就是娱乐 。除此之外 , 如果有人希望ChatGPT提供知识并对此深信不疑 , “最好不要 , 没人能确保它的准确性” 。
多位专家提醒 , 不必神化ChatGPT及其背后的大模型 。“它可以像模像样写推荐信 , 但如果让它回答一些专业问题 , 你仔细看会发现 , 它可能是在一本正经胡说八道 。”清华大学计算机系自然语言处理实验室副教授刘知远对《中国新闻周刊》说 。
就连ChatGPT也承认自己的局限性 。问及缺点 , 它回答:有可能会生成存在种族歧视、性别歧视等偏见的文本 , 因知识有限或不能理解语义而回答错误 , 不能处理复杂的逻辑和数学问题 , 而且 , 其拥有的知识只停留在2021年 。新版必应和Edge浏览器则可以检索实时更新的新闻 , 甚至可以跟你聊过去一个小时发生的事情 。
ChatGPT发布仅一周 , 当地时间2022年12月6日 , 因用户大量搬运ChatGPT生成的错误答案 , 海外知名编程问答平台Stack Overflow暂时在该网站封杀ChatGPT , 认为“发布由 ChatGPT 创建的答案对网站及询问和寻找正确答案的用户来说 , 是非常有害的” 。
“某种意义上有点像‘大力出奇迹’”
在李笛看来 , 就ChatGPT而言 , “它不会对产业产生颠覆性影响 , 但大模型则会 。”
2016年前 , 小模型是人工智能理解人类语言的主流技术 , 下围棋或机器翻译等某一个具体任务 , 标注好数据 , 进入模型训练 。但小模型无法用于其他任务 , 数据标注成本也极高 。当时 , 人工智能领域催生了一个新的职业 , 人工智能数据标注员 。“大家会嘲笑人工智能 , 说有多少人工 , 才有多少智能 。”刘知远对《中国新闻周刊》说 。
传统模式下 , 自然语言处理是一个非常严密的推理过程 , 不仅要识别每个词 , 还要处理词语间的序列 , 因此诞生了循环神经网络(RNN)模型 。但RNN只考虑单词或者上下文信息 , 常常导致全文句意前后不连贯 , 或者理解复杂句子时出错 。2016年以前 , 当时的小冰、Siri等问答系统或者机器翻译 , 都使用小模型 。
“当时的人工智能行业 , 很多技术领域(比如机器学习等)已进入到一个瓶颈阶段 。”李笛告诉《中国新闻周刊》 。
2017年 , 谷歌发表论文《Attention is All You Need》 , 引入自注意力机制学习文本 , 命名为Transformer模型 。在该模型下 , 神经网络需要学会自动判断哪些词语对理解句意最有帮助 , 而不是“全文死记硬背” , 因此 , 也不再像过去一样需要大量精标样本 。论文一经发布 , Transformer模型很快取代RNN成为主流 。2018年 , 基于Transformer , 谷歌推出预训练模型BERT(即基于变换器的双向编码器表示技术) , 同年 , OpenAI推出了GPT-1(即生成式预训练变换器) 。


推荐阅读