函数图像
ReLU(Rectified Linear Unit)
此激活函数广泛应用于各种深度学习网络中。
f(x)={x0x>0x⩽0
f′(x)={10x>0x⩽0
S形函数(Sigmoid)
此激活函数早期广泛应用于神经网络中,但是由于梯度饱和问题,超过三层时误差就无法传到最初的层了,因此在深度学习中效果不如ReLU。
f(x)=1+e−x1
f′(x)=f(x)(1−f(x))
双曲正切函数(Hyperbolic tangent)
双曲正切函数简称Tanh函数,类似于Sigmoid函数,不过函数值范围是-1~1。
f(x)=ex+e−xex−e−x
f′(x)=1−f2(x)
线性(Linear)
线性相当于没有激活函数,每层之间直接进行矩阵乘法,无法学习非线性数据。
f(x)=x
f′(x)=1