8.4激活函数
激活函数在神经网络里很重要。如果没有激活函数,不论几层的神经网络都是一个线性回归。激活函数的作用是引入非线性。
8.4.1引入非线性

以上边1个隐藏层,一个输出层的简单神经网络为例,如果没有激活函数,只进行线性回归。那么第一个隐藏层输出为:
输出层的输出为:
联立并带入上式,可以得到:
可以将参数w和b的组合看成是一个新的参数。最终输出还是输入和的一个线性组合。
正是因为引入激活函数,模拟了大脑神经元里的抑制和激活。才让神经网络可以拟合任意函数。下边我们就来看一下常见的激活函数。
8.4.2Sigmoid
我们之前讲过Simgoid函数,它的公式为:
函数图像为:

它可以将x映射到0到1之间。这样有一个好处是0-1自然映射到概率值范围。它非常适合作为二分类问题的神经网络的最后一层唯一神经元的激活函数。
8.4.3Tanh
Sigmoid适合作为二分类神经网络最后一层输出的激活函数。但是不适合作为隐藏层的激活函数,因为Sigmoid输出总是正数。这导致与误差项相乘的梯度全由误差项决定。梯度总是同为负或者同为正。这会让权重只能向同方向调整,不利于网络捕捉复杂模式,收敛也可能变慢。
而Tanh函数可以解决这个问题,它的函数公式为:
函数图像为:

可以看到tanh函数的值域是-1到1之间。这样就解决了sigmoid函数值域全为正的问题。
8.4.4Relu
ReLU函数是目前深度学习里最常用的激活函数。它的函数形式非常简单:
也就是说,当输入当x>0 时,输出为 x;当输入 x≤0 时,输出为 0。 它的函数图像为:

为什么ReLU会成为深度学习里默认的激活函数呢?后边我们会详细介绍。
8.4.5Leaky ReLU
ReLU函数有个问题,就是当x小于0时,ReLU(x)值为0,它的梯度为0,参数无法更新。所有人们提出了Leaky ReLU:
当x大于0时:
当x小于等于0时:
其中一般取小于1的数,比如0.1。这样当x取负值是也会有一个微小的梯度,可以更新参数。它的函数图像为:
