@人工智能法律监管的几大问题 或需修改现有法律( 二 )



人工智能的司法规制
这里在讨论人工智能规制的时候 , 将不去区分人工智能和算法之间的区别 , 将它们作为同一概念处理 。美国联邦法院和州法院在判例中或者将算法定性成商业秘密 , 或者在关于搜索引擎算法的判决中 , 将它看成是言论 , 在学者中激起了广泛的争论 。
【@人工智能法律监管的几大问题 或需修改现有法律】算法作为言论
2003年的Search King v 。Google- Tech 。, Inc 。案中 , 俄克拉荷玛州法院认为 , 网页排名是一种意见 , 搜索引擎根据算法生成的结果是它的言论 。四年之后 , Longdon v 。Google案中 , 联邦地区法院也支持了算法是言论的主张 。
就搜索引擎算法是否是言论 , 在理论上仍然有激烈的反对意见 。更进一步的问题在于 , 即使司法对此已经给出了正面的回答 , 这一定性是否推广到所有领域的算法仍然是悬而未决的问题 。
算法作为商业秘密
在美国刑事诉讼领域 , 算法广泛运用于预测个体是否会重新犯罪 , 以及是否到庭 , 从而影响定罪、量刑以及保释 。这种做法 , 在算法的准确性、算法考虑不相关的社会因素以及算法的正当程序三个方面引发了普遍的质疑 。
在State v 。Loomis , 881 N 。W 。2d 749一案中 , 鲁米斯因驾车枪击案而遭受刑事指控 。威斯康星州法院在量刑的时候基于COMPAS的评估判处鲁米斯六年监禁外加五年监外执行 。鲁米斯以侵犯了他的正当程序权利和平等保护权为由提起上诉 。威斯康星州最高法院认为 , 性别作为参数进入算法 , 其目的是为了算法准确性而非为了歧视 , 因此没有侵犯被告的平等权 。其次 , COMPAS所分析的数据依赖于公开的刑事犯罪记录和被告提供的数据 。最后 , 由于评估结论并非法院量刑的唯一依据 , 法院所要求的个别化对待的权利得到了保障 。
在算法公平和商业秘密之间 , 法院在这个案件中站在了商业秘密一边 。这一司法立场有助于促进技术创新和人工智能产业的发展 。但算法公平性的问题仍然悬而未决 。
当认为算法会带来歧视性的结果的时候 , 根本原因在于作为算法基础的数据中隐含着民族、种族和性别的偏见 。Anupam Chander认为有效的补救措施应当是 , 设计算法的时候必须考虑到现有数据中潜藏着的歧视 。Danielle Keats Citron和Frank Pasquale主张 , 监管者应当可以检测系统以确保其公平性和正确性 , 个人有权要求纠正对他们进行错误分类而带来不利影响的机器决策 。
人工智能的源头规制
欧盟《一般数据保护条例》通过访问权、修改权、删除权、可携带权等具体权利的规定确立了个人数据决定权 。除了可携带权有利于在人工智能企业之间形成竞争、促进产业发展之外 , 其他的权利都对人工智能的发展构成了直接的限制 。
《条例》更赋予数据主体以免于自动化决策的权利 。《条例》21条明确规定:“数据主体有权根据其特殊情况 , 在个人数据被处理的过程中行使反对数据画像的权利 。”第22条进一步明确 , 如果某种包括数据画像在内自动化决策会对数据主体产生法律效力或者造成类似的重大影响 , 数据主体有权不受上述决策的限制 。
根据第29条工作组指引 , 在下述情形中 , 不得使用自动化决策 。比如解除合同;对法律所提供的某一具体的社会福利的获取或丧失;婴幼儿补贴或住房补贴;拒绝入境某个国家或者是否认公民身份 。上述情形具有的共同特点就是自动化决策已经影响到行政相对人的权利义务 。
除了第21条的规定之外 , 《条例》“序言”第71条规定 , 数据主体应免于受制于自动化处理手段对其个人进行精准评价 , 以及对其产生法律效果或重要影响的情况 。任何情况下 , 这些数据处理应当有适当的保护措施 , 包括获得认为干预的权利、表达观点的权利、评估后达成决定的解释权以及获得救济的权利 。
《条例》区分一般数据和敏感数据 , 对后者进行更为严格的保护 。第9条明确 , 除非各成员国立法授权 , 辨识种族或民族出身、政治观点、宗教或哲学信仰、工会成员的个人数据以及以识别自然人为目的的基因数据、生物特征数据、健康数据、自然人的性生活或性取向的数据的处理应当禁止 。


推荐阅读