机器会取代人类吗?解局人工智能技术的伦理风险丨数据政治( 二 )


风险背后的逻辑
然后我们来看人工智能风险形成的基本机制的逻辑 , 正如马修.谢勒所说 , “行为的自动化 , 是人工智能与人类其它早期科技最大的不同 , 人工智能系统已经可以在不需要人类控制或者监督的情况下运行” 。 可以看到 , 人工智能技术带给人类社会的收益和风险就是双刃剑的两面:一方面AI通过代替人类的劳动 , 使得生产力得到了解放 , 让人类活动拥有了更多的时间和空间;另一方面 , AI通过实际上取代了人们的劳动 , 使得人类有失去控制性的风险 , 人类的主体地位在某种程度上被让渡 。 更深入的看 , 实际上人类是通过技术实现了身体能力的放大和提升的 , 现代技术的潜在动力就是人类对技术放大性的追求 。 人工智能技术就是一种整合了多种技术以后对人类技术放大意愿和动力的落实 , 与此同时人类也有可能逐渐在技术放大过程中失去了自我 , 技术朝向背离人类意愿的方向发展从而使得技术风险成为现实 。
如果说康德“人为自然界立法”的论断成为了人脱离自然界控制 , 树立人的主体性地位的标志 , 那么AI的发展就正在对这样的主体性地位带来威胁 , AI正在通过类人性特质的成长 , 逐步增加自己替代人类活动的能力 。 换言之 , 技术自身具备一种不确定性 , 人工智能技术本来是利于人类发展的 , 但是在发展过程中有可能产生增加人类生存风险的障碍 , 这是我们不得不警惕的地方 。
除了技术自身的特质之外 , 我们很容易忽略的一点就是伴随着技术革命成长的另外一个重要的要素——资本的力量 , 工业革命以来的现代技术发展无法脱离资本的力量 。 众所周知资本是逐利的 , 而技术的目的是实现人的物质的追求 , 因此技术就能够最大化的实现资本的目标 , 技术与资本体现出来一定程度的同构性 。 换言之 , 资本的逻辑和技术的逻辑产生了共谋 , 资本在实现价值增长的过程中 , 能够扩散技术的优势 。 资本作为有效的资源配置方式 , 能够最大化的将资源放在最好的技术路径中进行配置;技术作为集置(海德格尔语) , 能够将外部事物纳入自身的规范体系中 , 用自己的力量促逼和摆置存在者 , 将事物以人类自身的方式解蔽 。 简单的说 , 技术能够产生一种力量是人类不能控制的 , 就好像乘坐上某种座驾一样 , 人在技术这个座驾的要求下不受限制的开发自然、掠夺资源 , 同时把人自身当作技术所需要的的资源投入进去 , 被技术所支配而无法脱离 。 这是海德格尔所讨论的现代技术的本质 , 也是理解人工智能带来风险的重要视角 。 于此同时 , 由于资本(金钱)具备一种不被局限在任何具体事务的超现实性 , 因此可以按照人们的需求去改变自然 。 更重要的是 , 由于AI技术的发展会扩大数字鸿沟的出现 , 因此关注这个过程中的数字化带来的社会公平问题也是非常重要的方面 。
技术的边界
在理解了人工智能带来的风险之后 , 我们接下来讨论人工智能技术发展的边界 , 只有明确了边界才能理解风险 。 事实上我们可以看到人工智能的风险相对于通常的技术风险来说 , 主要是在于智能的理解边界有了分歧 , 由于人类是目前唯一具备智能的实体 , 因此出现了人工智能之后就产生了所谓智能边界的问题 。 我们可以从三个方面理解这个概念:
第一 , 人工智能的“智能”是通过计算机技术将信息转换为知识发展出来的 , 因此存在可计算下的边界 。 目前来说 , 计算机更多的是着重于逻辑相关的运算 , 而情感是无法被计算的 。 当然我们也看到了马斯克等企业家通过脑机接口等技术来实现人的思维的解读 , 赋予了AI新的智能模式 。 不过考虑到我们对人的大脑的认知(尤其是与意识情感相关的部分)是非常肤浅的 , 我们暂时还看不到AI产生自我意识和概念的可能性 。 当然如果技术的推进使得人工智能产生了意识 , 那么毫无疑问就会产生系统性的风险 , 人类将不得不与其共存 , 相关的生存空间的矛盾也就难以避免了;


推荐阅读