「人工智能」何时才能以法之名,守住人工智能的底线( 二 )


除《北京共识》外 , 有的倡议从更为抽象的层面表达人工智能的伦理原则 , 还有倡议认为 , 人工智能的最高原则是安全可控;其创新愿景是促进人类更加平等地获得技术能力;人工智能存在的价值是教人学习 , 让人成长 , 而不是取代人 , 超越人;人工智能的终极理想是为人类带来更多的自由和可能 。
就具体公司而言 , 英特尔公司的人工智能原则包含了促进创新和开放发展 , 创造新的人类开发机会和保护人的福祉的理念;谷歌的人工智能原则表明人工智能要有利于社会 。
规范人工智能目前主要依赖行业自律
以上全球人工智能伦理原则各有侧重 , 不尽相同 , 但又有共同的特点 。 根据算法观察的统计分析 , 关于人工智能伦理原则的文件大多是在2018年和2019年发表的 。 可见 , 人工智能伦理是近两年引起全球高度关注的问题 。 且许多倡议的发起者多为技术界、学界联盟或机构 , 大多采取声明的形式 , 属于行业自律性质 。
法律试图规范人工智能的愿景至今还没有成功的迹象 。 目前主导人工智能伦理原则和准则的仍然是技术界 。 脸书的行政总裁马克·扎克伯格曾在美国国会就减少网络仇恨言论作证时宣称 , 脸书将承担更广泛的责任 , 制定前瞻性的针对内容的政策 。
其中 , 人工智能的使用是这一模式的基石 。 这一声称引发了人工智能局限性的争议 , 诸如提前删除内容缺乏透明度、算法歧视、仇恨言论涉及价值判断 , 以及如何应用人工智能的伦理原则和规范等 。 然而 , 国会议员对其没有足够的理解 , 以至于不能对扎克伯格的人工智能技术提出有效反对 。 挑战不熟悉的事情几乎是不可能的 , 这也是脸书不再等待最高法院而是自己决定人工智能应用规则的原因 。
然而 , 目前的人工智能伦理原则缺乏内部执行或治理机制 。 伦理原则仅是宣言式的倡议或承诺 , 缺乏具体程序和规则 。 当企业和其他组织承诺遵守道德准则 , 而不建立任何治理机制时 , 我们当然有理由认为 , 它们只是在做做样子 。 在技术乐观主义和巨大现实利益的裹挟下 , 未来人工智能领域 , 法律的作用会非常重要 。
(作者系哈尔滨工程大学人文社会科学学院副教授)
(责任编辑:王治强 HF013)


推荐阅读