You are viewing a single comment's thread from:
RE: 深度学习笔记 IV – 多层感知器-前馈神经网络与反向传播学习 - Multi Layer Perceptron - Feedforward Neural Network&Backward Propagation of Errors
写得很好!加油!期待下一编。
我看了一下ReLu的资料,有几个有趣点:
ReLu也是从生物学借来的,因为神经元只有开和关,而不像sigmoid正反都有讯号。
Sigmoid 的斜率(slope) 永远小於0.25, 当神经网的深度变大,算backprop时所有sigmoid乘起来就会归零,所以sigmoid在深度学习基本上沒用。
3.当x小於0, ReLu的斜率等於0。若果一个神经元进入这个状态之后就只会归零。这个神经元就废了。所以用ReLu有可能算到一半整个神经网都废了(dying ReLu problem) 。这个问题可以用Leaky ReLu解决。
真的非常感谢你!