【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?( 二 )


再看这个例子:
“詹妮弗邀请阿曼达来玩 , 她送给她一条漂亮的项链 。 ”
那么究竟是谁送给谁项链呢?涉及到赠送项链的社交惯例要少于准备晚餐 , 因此 , 就连人类也不确定这句话中的指代含义 。
“詹妮弗邀请阿曼达来玩 , 但她告诉她 , 她要去外地 。 ”
如果詹妮弗邀请阿曼达来玩 , 然后突然告诉她自己那天要出远门 , 这就十分奇怪了 。 所以我们能确定是阿曼达要外出 , 因此不能接受邀请 。
再强调一下 , 我们仅仅因为语境和社交惯例得出了正确意思 , 而这确实难为聊天机器人了 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

图源:chatbotslife
现在 , 我们再来看看代词that在特定语境中可能有多少先行词 。
“安娜告诉布莱恩 , 她决定在英国学习一年创意写作 。 ”
“这可能是她一生的事业 。 ”(这=创意写作)
“她完成这件事后就会搬回来和他一起住 。 ”(这=在英国学习一年)
“这就是她一整个周都在思考的事 。 ”(这=做出决定)
“因为这个 , 他俩吵了两个小时 。 ”(这=告诉布莱恩这件事)
你应该如何让普通的聊天机器人分辨像that这样的词呢?
【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

习语
有时 , 我们只使用词语的字面意思 , 但在很多情况下 , 我们还会使用这些词语构成的习语 。 习语指的是一组词语 , 习语的意思不能从单个词语来推断 , 而应作为一个整体来记忆 。
在下面的错误中 , Siri仅仅从字面上来理解习语“makea note”的意思 , 只解读出了每个词语的含义 。 实际上 , 人们往往使用这个习语表达“记住某些东西”的意思 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

人们会根据语境以及其他线索来决定某组词语是否为习语 , 但聊天机器人却不能轻易做到 。 当聊天机器人对习语进行字面解读时 , 那尴尬的场景简直难以想象 。 例如 , ”make your blood boil”的意思是“让某人生气” 。 (医学方面的聊天机器人会将其理解为病患症状和病因吗?)
诸如此类的例子还有“make up your mind”, “make yourday”, “It’s raining cats and dogs”, “break a leg”, “up in the air”, and “a pieceof cake”等等 。

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

图源:unsplash

【】不会“聊天”的聊天机器人:为什么Siri这么“蠢”?
本文插图

结构模糊
还有一些结构上的模糊 。 例如“The chicken is ready to eat”这句话既能表示鸡肉被端上了桌 , 也能表示你需要喂养宠物鸡了 。
聊天机器人应该知道各种对话发生的语境 , 不论是关于这个世界还是关于你个人的情况(比如 , 你并没有喂养宠物小鸡 , 或者chicken指的是一道流行菜肴而不是宠物 , 又或者你是把小鸡当作宠物养的素食主义者) , 只有这样才能做出正确的理解 。
如果一句话中含有一处时间状语和不止一个动词 , 那么状语究竟应该修饰哪一个动词呢?
例如 , “Jamie saidon Friday we will have a party” 这句话有两种含义:
1.杰米在星期五的时候说我们要举办派对 。
2.杰米说星期五的时候我们要举办派对 。
在现实的对话中 , 人们要么能够凭借丰富的语境判定句意 , 要么就会通过询问进一步确认 , 但是多数聊天机器人却无法辨明模糊的句子结构 。


推荐阅读