Google首席科学家谈Google是怎么做深度学习的( 六 )

典型的非线性函数就是整形线性单元(max(0,x)) , 在90年代很多非线性函数是很平缓的sigmoid()函数或者tanh()函数 。 但对于神经元来说产生的数值是不是更接近0对优化系统更有利 。 比如如果神经元有3个输入X1,X1,X3 , 权重分别是-0.21,0.3,0.7,计算就是

y=max(0,-.0.21x1+0.3x2+0.7*x3)

为了决定图片到底是猫还是狗 , 这个图片要经过很多层 。 这些神经元根据输入来产生下一步 。

Google首席科学家谈Google是怎么做深度学习的

----Google首席科学家谈Google是怎么做深度学习的//----江苏龙网 http://www.jiangsulong.com //

本文原始标题为:Google首席科学家谈Google是怎么做深度学习的---来源是:

本文原始标题为:Google首席科学家谈Google是怎么做深度学习的---来源是:

最低层的神经元会查看像素的小块 。 更高层的神经元会看下层神经元的输出再决定是否生产 。

这个模型也会错 , 比如说这里是猫 , 但事实上是狗 。 那么做错误决定的信号就会返回到系统中做调整 , 让剩余的模型在下一次查看图片时候 , 更可能输出狗 。 这就是神经网络的目标 , 通过模型小步调整边的权重让它更可能去得到正确答案 。 你可以通过所有样本去聚合 , 这样可以降低错误率 。

学习算法其实比较简单如下

选择随机训练样本“(输入 , 标签)” , 比如上面猫图和想要的输出标签 , ‘猫’运行神经网络 , 在输入上去查看它产生的 。 调整边的权重让最后输出更接近于“标签”上的 。 如何调整边的权重去保障输出更接近于标签呢?


推荐阅读