激活函数
Last updated
Was this helpful?
Last updated
Was this helpful?
红色:ReLU
蓝色:Tanh
绿色:Sigmoid
紫色:Linear
此激活函数广泛应用于各种深度学习网络中。
此激活函数早期广泛应用于神经网络中,但是由于梯度饱和问题,超过三层时误差就无法传到最初的层了,因此在深度学习中效果不如ReLU。
双曲正切函数简称Tanh函数,类似于Sigmoid函数,不过函数值范围是-1~1。
线性相当于没有激活函数,每层之间直接进行矩阵乘法,无法学习非线性数据。