算法许可 朱悦 | 算法解释权:科技与法律的双重视角( 九 )


若任一层次的算法解释权无法实现 , 个体即可不接受该等算法作出的决定 , 并有权要求相应算法使用者采取人工方式重新作出 。 此外 , 考虑到许多经由算法的决定系其他事务的中介环节或必要前提 , 遭受不利影响的个体还可另行提出其他权利主张 , 以弥补损失 。 例如 , 在征信领域 , 央行征信报告和科技金融公司的信用评分在风险控制中的作用日益凸显 , 如个体认为其在贷款发放过程中被不公正对待 , 且央行或科技金融公司未能充分履行算法解释的义务 , 则个体可以据此要求赔偿因之产生的“纯粹经济损失” 。
结语
【算法许可 朱悦 | 算法解释权:科技与法律的双重视角】在人工智能的决策中 , “准确性”(accuracy)和“可解释性”(interpretability)始终负相关 , 换言之 , 容易向人类解释的算法的准确性往往低于难以理解的算法 。 例如 , 深度学习、随机森林(Random Forests)、支援向量机(Support Vector Machines, SVMs)等准确性高的算法可解释性相对较低 , 而可解释性较高的信念网路(BeliefNets/Bayesian)或决策树(Decision Trees)却有着较低的准确性 。 这种“准确性”和“可解释性”两难 , 何尝不是科技与法律的两难 。 我们生活在一个科技领先于法律的时代 , 这是科学家的幸运 , 但亦是法律人的不幸!面对人之尊严和人之完整性被算法侵蚀的威胁 , 算法解释权是不可或缺的制度因应 。 但同时必须承认 , 迄今为止 , 我们还很难为算法提供有意义、普适且自洽的解释理论 , 它需要数学和哲学等基础学科方面的积淀 , 需要心理学和社会学提供的经验 , 算法解释权的法律之途任重而道远 。
本文首发于微信公众号:数字经济与社会 。 文章内容属作者个人观点 , 不代表和讯网立场 。 投资者据此操作 , 风险请自担 。
(责任编辑:董云龙 )


推荐阅读