埃尔法哥哥|复旦大学邱锡鹏教授:一张图带你梳理深度学习知识脉络,AI( 二 )


2.无监督学习(UnsupervisedLearning , UL)
无监督学习是指从不包含目标标签的训练样本中自动学习到一些有价值的信息 。 典型的无监督学习问题有聚类、密度估计、特征学习、降维等 。
3.强化学习(ReinforcementLearning , RL)
强化学习是一类通过交互来学习的机器学习算法 。 在强化学习中 , 智能体根据环境的状态做出一个动作 , 并得到即时或延时的奖励 。 智能体在和环境的交互中不断学习并调整策略 , 以取得最大化的期望总回报 。
4.三种机器学习类型的比较
监督学习需要每个样本都有标签 , 而无监督学习则不需要标签 。 一般而言 , 监督学习通常需要大量的有标签数据集 , 这些数据集一般都需要由人工进行标注 , 成本很高 。
因此 , 也出现了很多弱监督学习(WeaklySupervisedLearning)和半监督学习(Semi-SupervisedLearning , SSL)的方法 , 希望从大规模的无标注数据中充分挖掘有用的信息 , 降低对标注样本数量的要求 。
强化学习和监督学习的不同在于强化学习不需要显式地以“输入/输出对”的方式给出训练样本 , 是一种在线的学习机制 。
埃尔法哥哥|复旦大学邱锡鹏教授:一张图带你梳理深度学习知识脉络,AI
文章图片
深度学习原理简介
为了学习一种好的表示 , 需要构建具有一定“深度”的模型 , 并通过学习算法来让模型自动学习出好的特征表示(从底层特征 , 到中层特征 , 再到高层特征) , 从而最终提升预测模型的准确率 。
所谓“深度”是指原始数据进行非线性特征转换的次数 。 如果把一个表示学习系统看作是一个有向图结构 , 深度也可以看作是从输入节点到输出节点所经过的最长路径的长度 。
这样我们就需要一种学习方法可以从数据中学习一个“深度模型” , 这就是深度学习(DeepLearning , DL) 。 深度学习是机器学习的一个子问题 , 其主要目的是从数据中自动学习到有效的特征表示 。
通过多层的特征转换 , 把原始数据变成更高层次、更抽象的表示 。 这些学习到的表示可以替代人工设计的特征 , 从而避免“特征工程” 。 下图为深度学习的数据处理流程 。
埃尔法哥哥|复旦大学邱锡鹏教授:一张图带你梳理深度学习知识脉络,AI
文章图片
深度学习是将原始的数据特征通过多步的特征转换得到一种特征表示 , 并进一步输入到预测函数得到最终结果 。
和“浅层学习”不同 , 深度学习需要解决的关键问题是贡献度分配问题(CreditAssignmentProblem , CAP)[Minsky,1961] , 即一个系统中不同的组件(component)或其参数对最终系统输出结果的贡献或影响 。
以下围棋为例 , 每当下完一盘棋 , 最后的结果要么赢要么输 。 我们会思考哪几步棋导致了最后的胜利 , 或者又是哪几步棋导致了最后的败局 。 如何判断每一步棋的贡献就是贡献度分配问题 , 这是一个非常困难的问题 。
从某种意义上讲 , 深度学习可以看作是一种强化学习(ReinforcementLearning , RL) , 每个内部组件并不能直接得到监督信息 , 需要通过整个模型的最终监督信息(奖励)得到 , 并且有一定的延时性 。
目前 , 深度学习采用的模型主要是神经网络模型 , 其主要原因是神经网络模型可以使用误差反向传播算法 , 从而可以比较好地解决贡献度分配问题 。 只要是超过一层的神经网络都会存在贡献度分配问题 , 因此超过一层的神经网络都可以看作是深度学习模型 。
随着深度学习的快速发展 , 模型深度也从早期的5~10层到目前的数百层 。 随着模型深度的不断增加 , 其特征表示的能力也越来越强 , 从而使后续的预测更加容易 。
常见深度学习框架
在深度学习中 , 一般通过误差反向传播算法来进行参数学习.采用手工方式来计算梯度再写代码实现的方式会非常低效 , 并且容易出错 。


推荐阅读