DARPA 在这个“黄金”时期,将大部分资金投入到 AI 领域,就在十年后他们还发明了 ARP.NET(互联网的前身) 。早期的 AI 先驱们试图教计算机做模仿人类的复杂心理任务,他们将其分成五个子领域: 推理、 知识表述、 规划、 自然语言处理(NLP)和 感知,这些听起来很笼统的术语一直沿用至今 。
从专家系统到机器学习
1966 年,Marvin Minsky 和 Seymour Papert 在《感知器:计算几何学导论》一书中阐述了因为硬件的限制,只有几层的神经网络仅能执行最基本的计算,一下子浇灭了这条路线上研发的热情,AI 领域迎来了第一次泡沫破灭 。这些先驱们怎么也没想到,计算机的速度能够在随后的几十年里指数级增长,提升了上亿倍 。
在上世纪八十年代,随着电脑性能的提升,新计算机语言 Prolog & Lisp 的流行,可以用复杂的程序结构,例如条件循环来实现逻辑,这时的人工智能就是 专家系统(Expert System),iRobot 公司绝对是那个时代明星;但短暂的繁荣之后,硬件存储空间的限制,还有专家系统无法解决具体的、难以计算的逻辑问题,人工智能再一次陷入窘境 。
我怀疑任何非常类似于形式逻辑的东西能否成为人类推理的良好模型 。
Marvin Minsky直到 IBM 深蓝在 1997 年战胜了国际象棋冠军卡斯帕罗夫后,新的基于 概率推论(Probabilistic Reasoning)思路开始被广泛应用在 AI 领域,随后 IBM Watson 的项目使用这种方法在电视游戏节目《Jeopardy》中经常击败参赛的人类 。
概率推论就是典型的 机器学习(Machine Learning) 。今天的大多数 AI 系统都是由 ML 驱动的,其中预测模型是根据历史数据训练的,并用于对未来的预测 。这是 AI 领域的第一次范式转变,算法不指定如何解决一个任务,而是根据数据来诱导它,动态的达成目标 。因为有了 ML,才有了 大数据(Big Data)这个概念 。
1.2 Machine Learning 的跃迁
Machine Learning 算法一般通过分析数据和推断模型来建立参数,或者通过与环境互动,获得反馈来学习 。人类可以注释这些数据,也可以不注释,环境可以是模拟的,也可以是真实世界 。
Deep Learning
Deep Learning是一种 Machine Learning算法,它使用多层神经网络和反向传播(Backpropagation)技术来训练神经网络 。该领域是几乎是由 Geoffrey Hinton 开创的,早在 1986 年,Hinton 与他的同事一起发表了关于深度神经网络(DNNs - Deep Neural Networks)的开创性论文,这篇文章引入了 反向传播 的概念,这是一种调整权重的算法,每当你改变权重时,神经网络就会比以前更快接近正确的输出,可以轻松的实现多层的神经网络,突破了 1966 年 Minsky 写的 感知器局限 的魔咒 。
配图03:Geoffrey Hinton & Deep Neural Networks
数据是新的石油

文章插图
配图04:FeiFei Li & ImageNet
该数据集对研究人员非常有用,正因为如此,它变得越来越有名,为最重要的年度 DL 竞赛提供了基准 。仅仅七年时间,ImageNet 让获胜算法对图像中的物体进行分类的准确率从 72% 提高到了 98%,超过了人类的平均能力 。
ImageNet 成为 DL 革命的首选数据集,更确切地说,是由 Hinton 领导的 AlexNet 卷积神经网络(CNN - Convolution Neural Networks)的数据集 。ImageNet 不仅引领了 DL 的革命,也为其他数据集开创了先例 。自其创建以来,数十种新的数据集被引入,数据更丰富,分类更精确 。
神经网络大爆发
在 Deep Learning 理论和数据集的加持下, 2012年以来深度神经网络算法开始大爆发,卷积神经网络(CNN)、递归神经网络(RNN - Recurrent Neural Network)和长短期记忆网络(LSTM - Long Short-Term Memory)等等,每一种都有不同的特性 。例如,递归神经网络是较高层的神经元直接连接到较低层的神经元 。
1.3 开启潘多拉的魔盒
从 2012 到现在,深度神经网络的使用呈爆炸式增长,进展惊人 。现在 Machine Learning 领域的大部分研究都集中在 Deep Learning 方面,就像进入了潘多拉的魔盒被开启了的时代 。

文章插图
配图06:AI 进化史
GAN
配图07:GANs 模拟生产人像的进化
GANs 将有助于创建图像,还可以创建现实世界的软件模拟,Nvidia 就大量采用这种技术来增强他的现实模拟系统,开发人员可以在那里训练和测试其他类型的软件 。你可以用一个神经网络来“压缩”图像,另一个神经网络来生成原始视频或图像,而不是直接压缩数据,Demis Hassabis 在他的一篇论文中就提到了人类大脑“海马体”的记忆回放也是类似的机制 。
推荐阅读
- Windows为啥难以摆脱隔代升级的魔咒?
- 美国国家安全局督促弃用 C/C++,使用更安全的 Rust、C# 等
- 黑客攻击致破产的FTX再损失6亿美元用户资产,安全专家称其大概率是内部人员
- 作为我国首位女性航天员,刘洋当然有报道的价值 我国女航天员刘洋所在机组
- 屈原投江的节日是什么 因为屈原投江才有了端午节
- 全球十大蜜月旅游胜地之一 世界最适合度蜜月的旅游胜地
- 已所不欲,勿施于人的理解和体会 己所不欲勿施于人的理解和体会自己的亲身体会
- 鹿晗|周杰伦鹿晗11月19号晚8点同时开演唱会,你会去谁的直播间?
- 汪小菲|汪小菲说要亲自教女儿学法语,这又是一个不能兑现的诺言
- 王佳颖|山东王佳颖事件,她长相虽不咋样,可是会的花样很多
