算法许可 朱悦 | 算法解释权:科技与法律的双重视角( 六 )


(四)可能的技术进路
“黑盒之内的解释”是算法解释权实现的最主要方案 , 这不但源于其落在个体理解能力和技术层面边界 , 更由于其与实用主义解释理论相吻合 。 其中 , 由揭示影响决策因素信息 , 至决策相关性信息 , 再到预测反事实的决策 , 三层方案层层递进 , 困难也层层提升 。 至于各类打开黑盒的解释 , 鉴于其间风险及实现障碍 , 在出现根本性突破之前 , 暂可作为方案长期设想的考虑因素之一 。 最后 , 无论是便利个体感知的各类可视化或交互技术 , 还是重点突出的举例解释 , 均可与“黑盒之内的解释”手段互补运用 。
三、权利怎样构造:算法解释权之法
作为一项法律制度 , 算法解释权的困境根植于科技层面的障碍 , 即没有充分考量技术上的实现程度 , 或者即使承认“在机器学习等算法中 , 使其向用户提供自动化决策及与个体画像相关的信息变得十分困难” , 但依然坚持认为“如此困难不应成为拒绝提供相应信息的正当理由” 。 其间逻辑联系 , 可谓“跳跃” 。 为了化解实践与理论的鸿沟 , 我们认为 , 算法解释权的构造必须秉承实用主义解释理论 , 回归人和算法使用场景 , 同时在技术设定的条件下 , 促进法律与科技的耦合 。
(一)算法解释权的主体、对象与范围
当今 , 准确界定应当提供解释的主体 , 正变得愈发困难 。 这首先因为 , 作为算法输入之数据 , 相应收集与标注工作日益专业化 , 并可能与算法开发工作相分离;其次 , 在算法开发过程中 , 伴随Github等专业平台的兴盛 , 调用已有算法实现的现象日益频繁 。 由此 , 即使是算法的开发者 , 亦未必清楚算法的具体实现机理;最后 , 人工智能芯片等封装算法硬件的发展 , 在使算法之实现日趋专业化、标准化、模块化的同时 , 也进一步延长了算法开发者与实际的算法使用者间的距离 。 此时 , 如果令算法开发者提供解释 , 相应主体可能亦难与解释对象直接沟通;而令算法使用者提供解释 , 因相应主体未必知晓算法原理 , 无法提供有意义的信息 。 这是一个两难选择 。
算法许可 朱悦 | 算法解释权:科技与法律的双重视角
图片

算法解释权的范围 , 同样尚未完全解决 。 如前所述 , 除“具备法律效应的自动化决策”外 , 欧盟GDPR第22条及鉴于71条还涵盖“产生(与法律效应相似的)显著效应的”“自动化决策” 。 这里可以明确的是 , “自动化决策”意味着个人无法对该决策过程施加有意义的影响 , 无论这个决策由行政机关还是私人部门作出 , 均在所不问 。 欧盟29条工作组进一步指出 , 计算机辅助决策系统并不在该自动化决策范围内 。 但另一方面 , 关于何为“显著影响” , 一直语焉不详 。 29条工作组认为 , 若自动化决策长期或永久地严重影响了个人所关切的环境、行为和选择 , 或导致个人遭受排斥或歧视 , 则构成“显著影响” 。 对此 , GDPR的序言举出在线信贷申请和数字招聘的例子 , 试图明晰 。 造就这一困境的同样是一对张力:一方面 , 算法日益包罗万象、渗透个体生活各层面 , 本身是引入解释的理据之一;另一方面 , 以上倘若对各色算法均要求解释 , 相应信息之数量 , 恐足以构成对个体脑海的“DDoS攻击” 。
针对上述难题 , 我们建议不妨将算法解释权与现有个人信息保护实践深度整合 。 具言之 , 提供解释的主体 , 是在特定场景下以算法处理其个人信息的“个人信息控制者”;提供解释的对象 , 是自动化决策的相对人;提供解释的范围 , 则仅针对特定场景中的算法 。 此处的“特定场景” , 应由个人信息保护规制体系中已经或将会列明的重要或敏感场景界定 , 包括但不限于健康医疗 , 特别是涉及基因遗传的领域;社会信用;金融业务;用户画像;新闻的个性化推送;(足以识别至个体的)音视频合成;对相应个体产生法律效力的情形;以及后续被界定为重要或敏感的、使用算法处理个人信息的情形 。


推荐阅读