人工智能翻译会取代人类翻译 机器翻译会取代人工翻译( 二 )


这两个神经网络都是用大量语料训练出来的,即通过反复调整参数,它们“记住了”这两种语言各语句之间的对应关系,并可以据此推广到以前没见过的句子 。对每个输入语句,系统实际上是在计算不同输出语句的概率,并最终选取可能性最高的那个 。参考资料[2]是谷歌团队关于这个系统工作原理的技术报告 。和以往同样基于统计的翻译系统来比,这个系统的优势之一就是把“短语到短语”的翻译拓展到“句子到句子”的翻译,因此改善了译文的可读性 。另一个创新是把没见过的词切分成片段,因此可以根据其前后缀、词根等来决定如何翻译 。
最近,谷歌翻译团队又取得了新进展 。现在同一个翻译模型可以处理多语种,并实现了一定程度的“迁移学习” 。比如说该模型的训练语料是在英语-日语之间和英语-韩语之间,但训练完成后可以被用于日语-韩语之间的翻译,尽管该模型从未被直接在这两个语言之间被训练过 。这种功能被称作“零数据”(zero-shot)翻译,但这个说法有误导之嫌,因为翻译仍然是基于海量数据的,尽管不是直接关于某次翻译所涉及的两种语言间的对应关系 。
统计翻译能走多远
对不关心技术细节的读者,我们只需说统计翻译的基本思路是“照猫画虎”,即把每句话按照最接近、最常见的方式处理,正所谓“熟读唐诗三百首,不会作诗也会吟” 。在系统见识了海量范文之后,用这个办法的确可以完成大量翻译工作 。随着语料的积累、算法的优化、硬件性能的提高等可以预见到的进展,机器翻译的能力必定会进一步提高 。
但这不意味着统计翻译可以完全取代人的翻译工作 。具体到谷歌神经网络翻译来说,下面两个基本预设其实就划出了这个技术的边界:(1)“翻译是把一种语言中的语句对应到另一种语言中的语句”;(2)“在诸个可能的翻译结果中,选择那个在训练语料中最常出现的” 。
这两个预设对简单翻译任务来说是合理的,但翻译活动中的很多其它因素被完全忽略了,例如背景知识、上下文、作者(说者)的意图、读者(听者)的接受能力、文体的一贯性、情感色彩等等 。在任何需要考虑这些因素的场合,神经网络翻译的局限性就暴露出来了 。
这些局限性是不能被神经网络翻译的进展所克服的,因为它们来自这个技术的基本前提,而否定了这些前提的发展就不能再算是这个技术的发展,而应当说是另一个技术了 。某些小改动可以缓解一些困难,如对训练样本加标记,把翻译单位从单句扩大到多句等等,但这些都不足以彻底解决问题 。神经网络翻译的上述问题可以总结为一点:这种翻译过程没有包括对语句内容及其所属的言语行为的理解 。
翻译和理解

人工智能翻译会取代人类翻译 机器翻译会取代人工翻译

文章插图
这就扯出个大麻烦来:怎么才算“理解”?对这个概念不同的人显然有不同的理解 。谷歌翻译团队就说,既然他们的模型可以把一句话翻译成多种语言,这就说明该模型真正理解了这句话的含义 。这个标准对人说来是足够好了,但人工智能的历史说明了对人合适的标准对机器未必合适 。如果某系统对一句话的翻译很准确,但既不能回答有关的简单问题,也不能以此影响自己的行为,那说它“理解了这句话”就很牵强 。
本文不试图对“理解”这个概念做全面、深入的分析,而希望通过两个简单的例子说明统计翻译的局限性 。这两个不恰当的名词翻译我以前都提到过 。
在《人工智能危险吗?》中,我提到阿西莫夫的“Three Laws of Robotics”应当译作“机器人三律令”而非“机器人三定律”,因为这里的“law”更接近于康德的“道德律令”,而完全不像牛顿的“三大定律” 。译成“定律”会使有些读者误以为它们是所有机器人都必然会遵循的法则,而根据阿西莫夫的本意,它们是机器人的设计者强加的约束,因此完全可能被修改甚至背离 。实际上阿西莫夫在他的后期作品中又加了一条更根本的律令作为对那三条的修正 。
在《图灵测试是人工智能的标准吗?》中,我提到“chatbot”应当译作“聊天程序”而非“聊天机器人” 。这个英文单词是由“chat”(“聊天”)和“robot”(“机器人”)的后半部分组成,所以译作“聊天机器人”不是毫无来历 。总的来说,“bot”是指和机器人有一些相似的“拟人”程序,但在英文中没人会把“chatbot”误解为一种“robot”,而在中文中,“聊天机器人”完全可能被误解成“机器人”的一种 。随着把“bot”译作“机器人”成为时尚,后者将不再特指与通用计算机相区别的专用计算装置 。这就是为什么“实体机器人”、“物理机器人”等说法开始出现,以强调它们和纯软件的差别 。实际上更好的选择是保留“机器人”一词的“实体”、“专用硬件”的本意,而用其它词汇称呼拟人化的程序,因为这些程序和其它程序的区别并不明晰,而且在所有重要的意思上(商业宣传除外)都没有理由被称为“机器人” 。


推荐阅读