新闻生产中的算法风险:成因、类型与对策(16)

  (4)可解释:算法系统产生的任何决策都应该向利益相关者进行解释 。 这些解释必须便利益相关者理解 , 而不是用专业的技术知识“应付”利益相关者 。

  (5)可审计:开发算法时应该允许第三方分析和检查算法 。

  (6)责任:遵守法律、法规 , 如果出现错误 , 应有责任主体及时修复、中止服务 , 并及时更正 , 对造成的损失承担责任 。

  2.他律层面:制定监管新闻算法的法律法规

  当前部分国家和地区已将人工智能立法提上日程 。 2017年12月美国国会提出《人工智能未来法案》(Future of Artificial Intelligence Act of 2017) , 如果经两院通过 , 该法案将成为美国第一个针对人工智能的联邦法案 。 纽约为了解决政务系统算法歧视问题于2017年12月通过了算法问责法案 。 2018年5月生效的欧盟《一般性数据保护法案》(General Data Protection Regulation , GDPR)给予用户申请某项基于算法得出结论的解释权 。 中国在《新一代人工智能发展规划》中提出要加强人工智能相关法律问题研究 , 开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、信息安全利用等法律问题研究 , 建立追溯和问责制度 , 明确人工智能法律主体以及相关权利、义务和责任等 。


推荐阅读