深度学习之改善深层神经网络(2)

小批量梯度下降 每次使用训练数据的子集进行梯度下降,算法执行速度会更快,这些子集称为Mini-batch(小批量)。当选择的批量大小为1时,每次对一个训练样本执行梯度下降,称为随机梯度下降。当大小为所有训练样本的个数时,则为批量梯度下降,每次对所有训练样本执行梯度下降。 ...

2018-12-20 · 2 min · 346 words · Vozhuo

深度学习之改善深层神经网络

本文主要叙述神经网络的数据集、偏差与方差、正则化、随机失活、归一化输入、梯度消失与梯度爆炸、梯度检验等要点。 数据集 在建立神经网络模型前,我们要将数据集划分为三个部分:训练集、交叉验证集和测试集。欠拟合的情况下,出现高偏差;过拟合的情况下,出现高方差。出现高偏差时,可以使用增加隐藏层数目、加长训练时间等方法解决。出现高方差时,可以使用增加训练数据、正则化等方法解决。 ...

2018-12-13 · 2 min · 245 words · Vozhuo

深度学习之神经网络

因为此部分在之前的博文中提及,所以不再详细赘述其中原理,代码只展示核心部分。 激活函数在神经网络中具有重要的地位,常见的激活函数有sigmoid、tanh、ReLU(修正线性单元)和Leaky ReLU等。前两种是饱和激活函数、后两种则是非饱和激活函数,它可以解决“梯度消失”的问题并加快收敛速度。 ...

2018-12-06 · 2 min · 239 words · Vozhuo