可持续发展旷视徐云程“云对话”北大光华卢瑞昌教授:企业AI治理造就“可持续发展的AI”( 二 )


其次是企业道德标准和个人道德标准的统一 。 对外交往中 , 每个人的道德标准都是不一样的 , 看问题的角度更是各有侧重 。 这时就需要企业能够在最初创立的使命、愿景、价值观的基础上 , 协同大家的意见 , 形成自己的道德标准 , 与员工统一认知 。 这也是个反复商榷、磨合的过程 。 正如徐云程在论坛上坦言 , 有很多次在和产品团队讨论新产品的某个功能或设计时 , 会对其是否符合企业的AI伦理观而争论 , 大家会有不同的看法 , 但是最终都能够通过开放性地讨论和深入思考而形成共识 。 这个过程中 , 公司管理层的坚持功不可没 。
“治理总是有成本的 , 可以在事前投入 , 也可以在事后付出 。 当你不太确定的时候 , 你应该把治理的成本作为一个预防的成本 , 宁可慢一点 。 ”徐云程说 , “幸运的是当我们以长期主义的思维方式作为指导原则后 , 最后得到的是一个更稳健的成长 。 ”
综上所述 , 卢瑞昌教授认为企业的AI治理要回归公司的本质 , 包括三个方向:第一 , 公司是利益共同体 , AI治理应当符合公司利益;第二 , 公司是社会的公司 , AI治理应当符合社会利益;第三 , 公司是创业者的公司 , AI治理应当符合核心创业者的理想和抱负 。 这也是旷视在推进“可持续发展的AI”过程中的践行方向 。
旷视的实践:企业的AI治理 , 行胜于言
旷视一直是行业内AI治理的积极推动者 。 2019年初 , 在国家科技部的推动下“国家新一代人工智能治理专业委员会”建立 。 旷视作为委员之一 , 全程参与并联合发布新一代人工智能治理八项原则 , 发展负责任的人工智能 , 推进我国人工智能健康发展 。
旷视坚信AI治理需要理性的关注 , 深度的研究 , 建设性的讨论 , 以及坚持不懈的行动 。 2019年7月 , 旷视发布了《人工智能应用准则》 , 从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护等六个维度 , 作为在公司在AI治理上的依据 , 并影响同行和合作伙伴重视人工智能的治理 , 呼吁各界共建可持续发展的AI生态 。
为了将《准则》的内容落到实处 , 旷视本着坚定不移的推进态度、务实的落地机制设计和与各界广泛合作的开放心态 , 从制度与机制的设立、科研、产品、客户管理等多方入手 , 初步建立并打开了公司推动AI治理的局面 。
首先 , 从机制保障上 , 旷视成立了“旷视人工智能道德委员会” , 是公司人工智能治理事项最高的决策机构 , 向董事会汇报 , 其中包括外部委员 。 同时 , 在公司内部成立了“旷视人工智能道德管理委员会” , 从研发学术、产品工程、客户渠道、运营管理四个方向进行具体推进 。 目前 , 已经在数据隐私保护的研发项目、《正确使用人工智能产品的倡议书》方面切实落地 。
其次 , 从对外交流、促进联合研究上 , 旷视成立了“旷视AI治理研究院” 。 2020年初 , 旷视发布了一篇名为《全球AI治理十大事件》的文章 , 梳理了2019年海内外共同关心的10件AI治理典型事件 。 这篇文章在微博上引起了热烈反响 , 点击量在短短几天内超过了2000多万 。 根据网友的反馈 , 旷视逐步从中确定了未来两大类课题研究方向 , 即:基于AI应用实际场景的可信AI治理探索 , 技术发展衍生的数据与隐私保护规范 。
【可持续发展旷视徐云程“云对话”北大光华卢瑞昌教授:企业AI治理造就“可持续发展的AI”】不积跬步无以至千里 。 建立“可持续发展的AI” , 旷视正坚定信念 , 执着前行 。 正如徐云程所说:“在我们面前的是一座巍峨的高山 。 新一代人工智能的领军者肩负着建设受人尊敬的中国企业的使命 , 在AI治理的话题上 , 旷视希望与社会各界协同共创 , 一起勇攀高峰 。 ”
(责任编辑:王荣智 )


推荐阅读