算法许可 朱悦 | 算法解释权:科技与法律的双重视角( 四 )


但还需说明的是 , 实用主义解释的包容性使之并不排斥传统解释理论 。 事实上 , 由于其对实证层面的强调 , 其完全可以借鉴“统计相关”解释 , 以增强其说服力 。 另外 , 实用主义解释亦并非是一时一地的 , 它还要求一定程度的普适性 , 即必须关注是否广泛适用于不同类别的算法 , 就此而言 , 它属于弱版本的“模型无关可解释”(Model-agnostic explainable) 。
二、解释如何“实现”:算法解释权之路
徒法不足以自行 。 在代码统治的世界中 , 一种纸面上的权利能否转化为真实的主张 , 必须具有技术可行性 , 否则只能沦为具文 。 正如欧盟GDPR实践所显示 , 无论是“在技术上很难实施” , 还是“未能与算法的实际运行挂钩” , 都被视为欧盟算法解释权未具实效的原因 。 事实上 , 远在1970年代 , 计算机科学家就致力于解释特定类型的算法 , 但目前仍分歧重重 。 就此而言 , 算法解释权的技术路径毋宁说是决定性的 。 倘若连奋战于技术前沿的研究者都未能弄清算法的具体工作机理 , 赋予个体清晰知晓内部逻辑的权利 , 无异于缘木求鱼 。 而在更加积极的面向上 , 明确技术边界所在 , 并初步说明介入或改善技术的可能性 , 应是与法律携手 , 落实算法解释权的必由之路 。
(一)“黑盒之内”的解释
与传统算法不同 , 当前的主流算法(如深度学习)并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程 , 而是由计算机直接从事物原始特征出发 , 自动学习和生成高级的认知结果 。 在其输入的数据和输出的答案之间 , 存在着我们无法洞悉的“隐层” , 它被称为“黑盒”(black box) 。 这里的“黑箱”并不只意味着不能观察 , 还意味着即使计算机试图向我们解释 , 我们也无法理解 。 哥伦比亚大学的机器人学家Hod Lipson把这一困境形象地描述为“这就像是向一条狗解释莎士比亚是谁” 。
在黑盒难以打破的前提下 , 所谓“黑盒之内的解释” , 即只针对模型输出 , 而无需或只需要非常优先的模型内部信息所进行的解释 。 根据信息量的多少 , 解释可进一步划分至三个不同层面:(1)影响算法决策因素的信息;(2)在特定范围内 , 相关相应因素 , 如何影响算法决策的信息;(3)应如何变动对应因素 , 使算法输出特定决策的信息 。
目前 , 第(1)层解释方案仍存在大量问题待解 。 首先 , 如何在难以解释的算法中挖掘出相应影响因素 , 目前仍在持续研究之中 。 其次 , 假设对特定算法 , 确实可以得出上述信息 , 但未必能当然地为个体所理解 。 因为在很多场景中 , 深度学习等算法的目的之一 , 本就是学习有效、但常常难以为个体所发现或表征的影响因素 。 而在另一部分场景中 , 开发者同样有可能需要将易于为人所理解但不易处理的因素 , 转化为对处理有效、但不易于理解的特征 , 此谓“特征工程” 。 最后 , 即使相关因素均可为人所理解 , 由于相应模型常十分复杂 , 可能涉及成千上万个高维因素 , 而个体通常偏好简洁的、有选择的解释 , 仅仅机械地展示对决策有所影响的因素 , 很可能明显超出个体的认知能力 , 进而导致解释无法达到预期的效果 。
第(2)层解释方案同样不易 , 但并非不现实 。 至少 , 在一部分算法中 , 现有技术可实现以下三类功能:在局部或全局范围内 , 展示不同因素与算法间的相关性;在局部或全局范围内 , 展示不同因素影响算法决策的程度;以及用本身具备可解释性的算法 , 在局部或全局范围内近似其它不可解释算法 。 虽然如此 , 由于第(1)层面信息的限制 , 如果我们没有尽晓为个体感兴趣、且影响算法决策的变量 , 上述功能的发挥 , 自然会打折扣 。 不仅如此 , 除“局部可解释模型不可知论解释”(Local Interpretable Model-agnosticExplanations, LIME)方法等少数方法外 , 其它各类型解释 , 多难以普遍适用 。


推荐阅读