DEEP LEARNING之十七:指数加权平均和动量梯度下降
首先我们来看一下什么是指数加权平均(Exponentially Weighted Averages)… 继续阅读 DEEP LEARNING之十七:指数加权平均和动量梯度下降
薛鹏的个人博客
首先我们来看一下什么是指数加权平均(Exponentially Weighted Averages)… 继续阅读 DEEP LEARNING之十七:指数加权平均和动量梯度下降
我们之前的例子里用的都是批量梯度下降算法。这一片文章我们来比较一下不同的梯度下降算法,以及他们的优劣… 继续阅读 DEEP LEARNING之十六:批量梯度下降,小批量梯度下降以及随机梯度下降
在训练神经网络的时候,特别是深度神经网络,如果初始参数选择不恰当将会导致网络训练非常缓慢。再加上计算… 继续阅读 DEEP LEARNING之十五:梯度爆炸,梯度消失,以及如何初始化参数
Dropout首选是在《ImageNet Classification with Deep Conv… 继续阅读 DEEP LEARNING之十四:使用Dropout方法来预防过拟合
都说如果各个feature之间的值取值范围差距很大的话,应用梯度下降会让训练变慢。这时我们就需要对每… 继续阅读 DEEP LEARNING之十三:为什么需要归一化(Normalization)
这一节我们来说一下在机器学习里建模的一般方法和模型的测试,以及如何根据测试结果评价你的模型。 参数和… 继续阅读 DEEP LEARNING之十二:测试和评价模型
之前我们的神经网络里用了simgoid激活函数。也有人叫做激励函数。 为什么要有激活函数 正是激活函… 继续阅读 DEEP LEARNING之十一:神经网络里的激活函数
一个正经的关于神经网络的教程肯定要有一个手写数字识别的例子。今天我们就来做一个。 我们要处理的是像下… 继续阅读 DEEP LEARNING之十:用神经网络来进行手写数字识别
因为目前我们可以简单的把神经网络看成是由一层一层的逻辑回归堆叠而成,而逻辑回归的cost funct… 继续阅读 DEEP LEARNING之九:用梯度下降来求解神经网络中的参数
通过前边的讲解,我们对逻辑回归有了一个认识。现在我们就要正式的开始神经网络的学习了。我们通过多个逻辑… 继续阅读 DEEP LEARNING之八:从逻辑回归到神经网络