|学习80亿个偏好模型才能了解地球上每个人的偏好 | 赠书


如果世界上有一个叫哈里特的完全理性的人和一个乐于助人、恭敬有礼的机器人罗比 , 我们的状态就会很好 。 罗比会尽可能无声无息地逐渐了解哈里特的偏好 , 并成为哈里特的完美助手 。 我们可能希望从这个充满希望的开端推演下去 , 也许可以将哈里特和罗比的关系视为人类与机器之间关系的模型 , 无论是人类还是机器都被整体地解释 。
然而 , 人类不是单一的、理性的实体 , 而是由多得不计其数的、令人讨厌的、嫉妒驱动的、非理性的、不一致的、不稳定的、计算能力有限的、复杂的、不断进化的、异质的实体组成的 。 这些问题是社会科学的主要内容 , 甚至可能是社会科学存在的理由 。
在人工智能中 , 我们需要加入心理学、经济学、政治理论和道德哲学的思想 。 我们需要将这些思想熔化、塑形和锤炼成一个足够强大的结构 , 以抵御日益智能的人工智能系统给它带来的巨大压力 。 这项工作现在刚刚开始 。
千人千面 , 那么机器呢?
我将从或许是最简单的问题——“人类是多种多样的”这一事实开始讲起 。
当人们第一次接触“机器应该学会满足人类偏好”的想法时 , 人们通常会反对 , 反对的理由是 , 不同的文化 , 甚至不同的个人 , 有着完全不同的价值体系 , 因此机器不可能有正确的价值体系 。 当然 , 这对机器而言不是问题:我们不希望它拥有自己正确的价值体系 , 我们只是想让它预测其他人的偏好 。
关于机器难以满足人类不同偏好的困惑可能来自一种错误的想法 , 即机器采用的是它学习到的偏好 , 例如认为素食家庭中的家用机器人会采用素食偏好 。 事实上 , 机器人不会这样 。 它只需要学会预测素食者的饮食偏好 。 除了帮助人类实现他们的偏好外 , 机器人并没有自己的一套偏好 。
从某种意义上讲 , 这与餐馆厨师学做几道不同的菜来满足客人不同的口味 , 或者跨国汽车公司为美国市场生产左舵驾驶汽车 , 为英国市场生产右舵驾驶汽车没有什么不同 。
原则上 , 一台机器要学习 80 亿个偏好模型 , 即地球上每个人的偏好 。 而在实际中 , 这并不像听上去那么无望 。 首先 , 机器很容易互相分享它们学到的东西 。 其次 , 人类的偏好结构有很多共同点 , 所以机器通常不会从头开始学习每个模型 。
机器的权衡与决策
存在多人的另一个明显后果是 , 机器需要在不同人的偏好之间进行权衡 。
几个世纪以来 , 人与人之间的权衡问题一直是社会科学的主要焦点 。 如果人工智能研究人员期望他们能够不用了解已知成果就找到正确的解决方案 , 那就太天真了 。 关于这个主题的文献浩如烟海 , 我不可能在这里对它做出公正的评价 , 不仅因为篇幅有限 , 还因为我没有读过其中的大部分内容 。 我还应该指出 , 几乎所有的文献都与人类的决策有关 , 而我在这里关注的是机器的决策 。
二者截然不同 , 因为人类有个人权利 , 这可能与任何假定的为他人履行的义务相冲突 , 而机器则没有 。 例如 , 我们不期望或要求一个真实的人类牺牲自己的生命来拯救他人 , 而我们肯定会要求机器人牺牲自己的存在来拯救人类的生命 。
哲学家、经济学家、法学家和政治学家经过几千年的努力 , 制定出了宪法等法律、经济体系和社会规范 , 它们有助于(或阻碍 , 取决于谁负责)达成满意的折中解决方案 。 尤其是道德哲学家一直在从行为对他人有益或有害的影响的角度来分析行为正当性的概念 。 自18世纪以来 , 他们一直在效益主义的主题下研究权衡的量化模型 。 这项工作与我们目前关注的问题直接相关 , 因为它试图定义一个公式 , 根据这个公式 , 人工智能可以代表许多个人做出道德决定 。
即使每个人都有相同的偏好结构 , 我们也需要进行权衡 , 因为我们通常不可能最大限度地满足每个人的偏好 。
例如 , 如果每个人都想成为全能的宇宙统治者 , 那么大多数人都会失望 。 另外 , 异质性确实让一些问题变得更加困难:如果每个人都对天空是蓝色的感到满意 , 那么处理大气问题的机器人就可以努力保持这种状态;如果很多人都在鼓吹改变天空的颜色 , 那么机器人就需要考虑可能的妥协 , 比如每个月的第三个星期五把天空变成橙色 。


推荐阅读