|学习80亿个偏好模型才能了解地球上每个人的偏好 | 赠书( 三 )


尽管很多人都尝试过反驳结果主义 , 但是结果主义是一个很难反驳的原则 。 因为以结果会产生不良结果为理由反对结果主义是不合逻辑的 。 人们不能说 , “但是如果你在某某情况下遵循结果主义的方法 , 那么这种非常可怕的事情就会发生” 。 任何这样的失败都只是该理论被误用的证据 。
如果我们计划建造结果主义机器 , 下一个问题是如何评估影响多人的结果 。 一个貌似合理的答案是给予每个人的偏好同等的权重 , 也就是最大化每个人的效用总和 。
这个答案通常可以追溯至18世纪的英国哲学家杰里米·边沁和他的学生约翰·穆勒 , 他们发展了效益主义的哲学方法 。 其底层思想源自古希腊哲学家伊壁鸠鲁的著作 , 这一思想还明确地出现在中国哲学家墨子的著作《墨子》中 。 墨子活跃于公元前4世纪 , 他提出了“兼爱”的思想 , 意为“包容的关怀”或“普世的爱” , 以此定义道德行为的特征 。
效益主义的名声有些不太好 , 部分原因是人们对它的主张存在简单的误解 。 (效益主义一词的意思是“为了实用而设计 , 而不是为了吸引人而设计” , 这当然无济于事 。 )效益主义经常被认为与个人权利不相容 , 因为效益主义者会对未经许可就切除一个活人的器官去挽救其他五个人的生命无动于衷 。 当然 , 这样的政策会使地球上每个人的生活都处于让人无法忍受的不安全之中 , 而效益主义者甚至不会考虑这一点 。 效益主义也被错误地认定为一种相当不讨人喜欢的最大化财富的行为 , 并被认为不重视诗歌或苦难 。 事实上 , 边沁的版本特别关注人类的幸福 , 而穆勒则自信地宣称智力上的快乐远比单纯的感觉更有价值 。 (“当一个不满足的人比当一头满足的猪更好 。 ”)G.E.摩尔的理想效益主义走得更远:他主张将内在价值的心理状态最大化 , 这集中体现为对美的审美观照 。
我认为效益主义哲学家没有必要规定人类效用或人类偏好的理想内容 。 (人工智能研究人员这样做的理由就更少了 。 )人类可以为自己做到这一点 。 经济学家约翰·豪尔绍尼用他的偏好自主原则提出了这一观点:“一个人在决定什么是好什么是坏时采用的最终标准只能是他自己的欲望和偏好 。 ”
因此 , 豪尔绍尼的偏好效益主义与我在《AI新生》中提出“有益的AI”的第一原则大致一致 , 即机器的唯一目的是实现人类的偏好(此原则主要用于指导人工智能研究人员和开发人员如何创建有益的人工智能系统) 。 人工智能研究人员绝对不应该从事决定人类偏好的工作!和边沁一样 , 豪尔绍尼把这些原则视为公共决策的指南 , 他不期望个人完全无私 。 他也不期望个人完全理性 , 例如 , 一个人可能拥有与自己“更深层次的偏好”相矛盾的短期欲望 。
|学习80亿个偏好模型才能了解地球上每个人的偏好 | 赠书
本文插图

《AI新生》
作者:斯图尔特·罗素
中信集团出版社
【|学习80亿个偏好模型才能了解地球上每个人的偏好 | 赠书】欢迎戳留言 , 一起来聊聊你对人工智能的体验 。 获得点赞数量前3名的读者 , 将有机会获得中信集团出版社的《AI新生》一书 。


推荐阅读