您的位置:首页 > 其它

关于梯度消失/爆炸理解

2018-03-28 11:51 330 查看
深度神经网络中的梯度不稳定性,前面层中的梯度或会消失,或会爆炸。
1. 梯度不稳定问题
  根本原因在于前面层上的梯度是来自于后面层上梯度的乘积。当存在过多的层次时,就出现了内在本质上的不稳定场景。

                       

梯度消失   

梯度爆炸


所以可以使用Relu()函数   f(x) = max(0,x)
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息