您的位置:首页 > Web前端

caffe学习笔记30-关于梯度消失与溢出

2017-03-05 16:27 507 查看
解决梯度消失问题的策略:

1.LSTM:通过选择记忆和遗忘机制克服RNN的梯度消失问题

2.用无监督数据做分层预训练,再用有监督数据fine-tune

3.ReLU:新的激活函数解析性质更好,克服可sigmoid函数和tanh函数的梯度消失问题

4.辅助损失函数:googlenet中的两个辅助损失函数,对浅层神经元直接传递梯度

5.Batch Normalization:逐层的尺度归一

梯度溢出问题:

1.尺度不平衡的初始化容易导致网络NAN

2.Xavier的方差不变准则保持网络节点尺度不变
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: