#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭

作为21世纪最伟大的科学家 , 霍金的一生取得无数成就 , 也对人类未来做出过不少预言 。 其中有一则预言他提到 , 当前人类科学发展存在着一项巨大隐患 , 就是人工智能发展速度太快 , 如果不进行约束 , 很可能导致人类灭亡 。
#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭
文章图片
【#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭】霍金认为 , 当人工智能“聪明”到一定程度后 , 它们就会有了自己的思想 。 届时 , 任何搭载人工智能的武器装备都将不受控制 。 一旦它们想造反 , 将迅速接管作战体系 , 控制作战飞机、航空母舰 , 甚至是核武器向人类发起反击 。 就像电影《终极者》中描述的一样 , 人工智能彻底觉醒 , 控制了核武器 , 将所有人类赶尽杀绝 。
那么在未来某一天 , 人工智能真可能觉醒吗?
#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭
文章图片
人工智能的概念诞生于上世纪60年代 , 如今已过去70年时间 , AI早已融入我们生活的方方面面 。 有时候只要我们说一句话 , 它们就能听懂并且完美执行 , 效率比人类高得多 。 在大多数时候 , 我们对人工智能的认知仅仅局限于“它是一台电脑” , 最多是一台拥有语音识别功能的电脑 。
但在几年前 , 阿尔法狗先后战胜李世石、柯洁两位围棋世界冠军后 , 第一次刷新了世人对“人工智能”的认知——原来电脑还可以这么聪明 , 甚至聪明地有点“过分” 。
#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭
文章图片
多年来 , 各个科技公司打造的人工智能产品 , 都在尽可能追求“拟人化” , 使得这些产品能在和用户交流的过程中不再刻板 。
那么问题来了 , 未来人工智能将发展到什么程度?它们真的会产生自我意识 , 威胁到人类生存吗?
#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭
文章图片
我们以阿尔法狗为例 , 它的棋力远超人类 , 但这一切都是基于一套庞大的数学模型 , 函数和算法而来 。 它看似“智能” , 其实还是人类知识的一种体现 。 与其说是阿尔法狗战胜了柯洁 , 倒不如说是精确、快速的数学算法打败了他 。
所以说 , 按照目前以效果为先导的发展思路走下去 , 即便AI会比现在聪明一百倍 , 它始终脱离不了一台“机器”的命运 。
#环球火力点#不是核武器,霍金生前最后的警告:这种技术可能使人类毁灭
文章图片
但霍金提到 , 虽然目前人工智能的一切都是人类赋予的 。 但假如有一天 , 某些野心家想让这些机器具备更高的智慧 , 一些自主程序的加入会越来越多 。 说不定未来某一天 , 机器人能在人类毫无知觉的前提下 , 就能自己驾驶战机起飞、自行启动坦克 , 将科幻片里的场景变为现实 。


    推荐阅读