Dead ReLu问题

原因很简单,是因为函数的负数区间值为0,导数为0,导致权重不更新。

但实际上,真要出现永久dead还是很严苛的:

  • 所用训练样本x在该神经元的输入值都是 < 0
  • 一般都是网络第一层,前面没有隐藏层。因为如果有隐藏层,隐藏层不死的话,隐藏层输出值还是会变,同样的x, 输入到该层还是有可能被激活。

BP经典公式:

该神经元某条链路w导数 = 前面的导数累计 该神经元导数值 该链路输入值x


Dead ReLu问题
http://yoursite.com/2019/05/16/深度学习/Dead ReLu问题/
作者
Wei Lyu
发布于
2019年5月16日
许可协议