RNN上的BPTT的简单推导
2017-03-10 22:23
232 查看
RNN上的BPTT的简单推导
从图中可以看出RNN的结构及其时间上反向传播的推导。当然图中是一个简化形式,没有偏置(bias)(不过这不是本质问题)。本来以为RNN上应该有多层hidden layer,然后存在时间和NN层之间的方向传播,也就是RNN可以结合NN。但是看了很多资料发现一般的RNN都只有一个hidden layer,不然会遇到梯度爆炸或者梯度消失问题,而且难以训练,所以一般的RNN都只有一个hidden layer,不过推导起来没有本质区别。只是反向传播有两个方向了而已。
事实上,无论是普通的神经网络,还是RNN,CNN,它们的方向传播思路都是类似的,就是把握δ流动的主线,以及经过不同神经网络层时候的根据不同神经网络生成的具体导数。然后再把其他参数和同层的δ联系起来求解。
至于δ求解无非是链式法则转移到已经求解完的部分,注意把握导数求解的流动方向,沿层次或者沿着时间。最后再根据矩阵形式做一个简化就好了。
从图中可以看出RNN的结构及其时间上反向传播的推导。当然图中是一个简化形式,没有偏置(bias)(不过这不是本质问题)。本来以为RNN上应该有多层hidden layer,然后存在时间和NN层之间的方向传播,也就是RNN可以结合NN。但是看了很多资料发现一般的RNN都只有一个hidden layer,不然会遇到梯度爆炸或者梯度消失问题,而且难以训练,所以一般的RNN都只有一个hidden layer,不过推导起来没有本质区别。只是反向传播有两个方向了而已。
事实上,无论是普通的神经网络,还是RNN,CNN,它们的方向传播思路都是类似的,就是把握δ流动的主线,以及经过不同神经网络层时候的根据不同神经网络生成的具体导数。然后再把其他参数和同层的δ联系起来求解。
至于δ求解无非是链式法则转移到已经求解完的部分,注意把握导数求解的流动方向,沿层次或者沿着时间。最后再根据矩阵形式做一个简化就好了。
相关文章推荐
- RNN的简单的推导演算公式(BPTT)
- RNN中BPTT的推导和可能的问题
- 深度学习笔记——理论与推导之RNN的训练过程BPTT(五)
- 从NN到RNN再到LSTM(附模型描述及详细推导)——(二)RNN
- 深度学习BP算法的推导(附加RNN,LSTM的推导说明)
- LQR 的直观推导及简单应用
- kuangbin带你飞,矩阵(简单数学推导题)
- LQR 的直观推导及简单应用
- 由语法推导树理解确定短语、直接短语(简单短语)、句柄
- RNN(二) 前向和BPTT
- HDU 4112 Break the Chocolate(简单的数学推导)
- POJ 2231 Moo Volume(排序+简单公式推导)
- 神经网络中的BPTT算法简单介绍
- Logistic回归的简单推导过程
- UVALive 6835 (简单推导)
- 从NN到RNN再到LSTM(附模型描述及详细推导)——(一)NN
- 运放虚短虚断的简单推导
- Deep learning:四十九(RNN-RBM简单理解)
- 从NN到RNN再到LSTM(附模型描述及详细推导)——(三)LSTM
- RNN 入门教程 Part 3 – 介绍 BPTT 算法和梯度消失问题