激活函数

函数图像

  • 红色:ReLU

  • 蓝色:Tanh

  • 绿色:Sigmoid

  • 紫色:Linear

ReLU(Rectified Linear Unit)

此激活函数广泛应用于各种深度学习网络中。

S形函数(Sigmoid)

此激活函数早期广泛应用于神经网络中,但是由于梯度饱和问题,超过三层时误差就无法传到最初的层了,因此在深度学习中效果不如ReLU。

双曲正切函数(Hyperbolic tangent)

双曲正切函数简称Tanh函数,类似于Sigmoid函数,不过函数值范围是-1~1。

线性(Linear)

线性相当于没有激活函数,每层之间直接进行矩阵乘法,无法学习非线性数据。

Last updated