【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?( 三 )



【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

省略
在非正式的口语交际中 , 对于那些我们觉得对方能在语境中获得的信息 , 我们通常会省略 。
例如 , 我们一般会说“我对奶制品过敏 , 鱼也是 。 ”——大家自然会理解为你对鱼和奶制品过敏 , 而不会理解为鱼对奶制品过敏 。
一些情况下 , 省略也会造成模糊 。 例如:
1. 迈克喜欢他的母亲 , 比尔也是 。 (比尔是喜欢迈克母亲还是他自己的母亲?)
2. 安娜在她自己房间 , 简也是 。 (简是在安娜房间还是她自己的房间?)

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

反问和讽刺
不是每个问句都需要答案 。 一些问句表达反问的含义 , 说话人只是想传达自己的情感状态 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

图源:unsplash
例如 , 问句“你知道现在几点了吗?”一般的回答是具体时间(“现在11点30了”) , 下面这种语气就不同了:
“你说过我们会在11点前赶到!你知道现在几点了吗?”
如果你的聊天机器人回答“现在11点30了” , 确实很难忍住翻白眼 。
此外 , 如果客户在表达讽刺时机器人没能理解 , 这场对话也没法继续进行下去了 。 例如客户不满意聊天机器人的回答 , 说到:“我就是需要这个 。 我要怎么做呢?”如果聊天机器人没有察觉到讽刺意味 , 回答道:“不用客气”或者试着回答这个问题 , 客户当然不会满意 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

更多的不确定性
在一些情况下 , 比如演讲 , 我们能通过韵律或者语气上的线索来判定模糊的句意(语调、语气、音高等 。 )
例如 , They arecooking apples这句话有两种意思:
1.他们在煮苹果 。
2.这些苹果是用来煮的 。
人们能依靠语境和语调来正确判断句意 , 但大多数聊天机器人则不能做到 。
【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

模棱两可的幽默
说到底 , 让聊天机器人像人类一样说话简直难如登天 , 幽默感就是最好的例子 。 下面是这则喜剧片段 , 英国喜剧演员Jimmy Carr就利用问句的模糊性和不确定性设计出了这个十分荒谬的喜剧段子 。
一天 , 一位拿着剪贴簿的女士在街上拦住了我 。 她说:‘‘你能为癌症研究花点时间吗?”我回答道:“没问题 , 但我们只做一点点 。 ”
要避开这些可能的圈套 , 你需要一个真正智能的聊天系统 。 这个聊天程序要足够灵活并且学得很快 , 只有这样它才能察觉到人类语言的微妙之处 , 而一般的命令——控制式聊天机器人却不能做到这一点 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

图源:unsplash

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

如何避免错误
当今大多数的聊天机器人都有一个通病 , 那就是它们将AI和机器学习当作招牌 。 然而 , 仅仅基于机器学习的聊天机器人本质上就是个黑箱系统 , 如果没有大量精心挑选的训练数据 , 这些程序就无法运作 。
如果他们无法马上理解你的意图 , 那么开发者也很难对其进行升级和完善 。 唯一让它们“改变想法”的办法就是增加更多数据 。 这些数据不仅要大量输入 , 而且要准确、做到分门别类、机器可读以及具有相关性 。 很少有公司能保证每种语言的聊天程序都具备以上特点 。


推荐阅读