「腾讯研究院」欧盟人工智能安全和责任报告( 二 )


二是AI自主行为有可能违背生产者意图 。 AI产品和系统的自主性可能会使机器做出的决策与生产者的最初意图 , 以及用户的期望有所偏差 。 部分人工智能系统在其生命周期内的自主行为一旦对安全产生影响 , 便需要进行新的风险评估 。 此外 , 欧盟的相关立法应该对制造商规定强制性义务 , 要求其对用户提供明确的安全指示和警告 。 另外 , 从产品设计到整个人工智能产品生命周期都可能需要人工监督来保障安全 。
三是AI系统的类人行为(humanoid)可能会给用户带来心理健康风险 。 因此 , 规定生产者义务时可以适当考虑到用户心理的安全风险(例如与类人机器人合作);立法框架中的产品安全概念应明确涵盖精神健康风险 。 对于AI类人机器人的生产商 , 明确其产品可能对用户(特别是弱势用户 , 例如被护理的老年人)造成心理损害的承担义务 , 可以考虑将其纳入欧盟相关立法 。
四是数据依赖性可能扩大错误数据的安全风险 。 数据的准确性和相关性可以确保人工智能系统按照生产者意图做出决定 。 因此 , 欧盟产品安全法规可以作出规定 , 要求在设计阶段解决错误数据带来的安全风险 。 根据产品的用途 , 生产商应在设计和测试阶段预测数据的准确性及其与安全功能的相关性 , 以确保在整个人工智能产品和系统的使用过程中有良好的机制来保障数据质量 。
五是AI产品的不透明性导致难以跟踪系统的决策过程(即所谓的“算法黑箱”‘black box-effect’ ) 。 欧盟产品安全法规目前尚未解决基于算法不透明所带来的日益增长的风险 。 因此 , 有必要考虑增加对算法透明性、稳健性和问责制的相关法律规定 , 在发生事故的情况下 , 规定算法开发人员必须公开数据集的设计参数(design parameters)和元数据(metadata of datasets) 。 这对于事后执行机制的完善 , 建立对新兴数字技术的信任尤其重要 。
六是独立软件(stand-alone software)的更新会对产品进行实质性修改 。 复杂的AI系统通常包含独立软件 , 如果独立软件的更新对产品进行了实质性修改 , 则整个产品可能会被视为新产品 , 必须重新评估是否符合相关安全产品法规规定 。 现有的欧盟产品安全法应需要对独立软件有特定或明确的要求 , 确保AI产品和系统中的独立软件具备安全功能 。 此外应规定制造商的相关强制性义务 , 以确保上传的软件不会在人工智能产品的生命周期内对安全产生影响 。
七是新兴数字技术也受复杂的价值链(value chains)影响 。 欧盟产品安全法规考虑了价值链的复杂性 , 并遵循“共同责任”的原则对多家企业施加了义务 , 明确规定价值链中的企业与用户之间进行合作的条款 , 尤其是价值链中影响产品安全的每个企业(例如软件生产者)和用户(通过修改产品)都会承担相关责任 , 并为链中的下一个行为者提供必要的信息和保护措施 , 以期为复杂的价值链问题提供法律明确性 。
三、人工智能、物联网和机器人技术对现有责任框架的影响及应对
新兴数字技术(如人工智能、物联网和机器人)的特质可能会在某些方面影响责任框架 , 并可能降低它们的有效性 。 例如很难将造成的损害追溯到人类的行为导致无法对受害者进行及时合理的补偿 。 此外还需要进一步评估新技术对现有责任框架的挑战是否会导致法律适用的不确定性 , 这些可能会阻碍投资 , 并增加生产者和供应链中其他企业(尤其是欧洲中小型企业)的信息和保险成本 。
其一 , 产品、服务和价值链的复杂性挑战传统生产者概念 。 在过去的几十年中 , 科技发展迅速 , 随着产品和服务的日益融合 , 产品责任值得我们重点关注 。 以软件为例 , 一旦软件发生变更可能会使产品损害 , 这最终可能导致产品生产商承担责任 。 因此《产品责任指令》可以进一步明确生产者概念 , 扩大责任范围 , 对于软件或其他数字功能导致产品缺陷从而造成的损失 , 明确赔偿义务和责任范围 。 这样可以更好地根据相关法律规定判断是否可以将经济参与者(例如软件开发人员)视为生产者 , 从而确定相关责任人 。


推荐阅读