深度学习——PReLU激活
2016-05-08 15:22
239 查看
本次介绍PReLU激活函数,方法来自于何凯明paper 《Delving Deep into Rectifiers:Surpassing Human-Level Performance on ImageNet Classification》.
PReLU激活
PReLU的几点说明
![](http://img.blog.csdn.net/20160508143448263)
如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。
(2) BP更新ai时,采用的是带动量的更新方式,如下图:
![](http://img.blog.csdn.net/20160508151416707)
上式的两个系数分别是动量和学习率。
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。
(3) 整个论文,ai被初始化为0.25。
PReLU激活
PReLU的几点说明
PReLU激活
PReLU(Parametric Rectified Linear Unit), 顾名思义:带参数的ReLU。二者的定义和区别如下图:如果ai=0,那么PReLU退化为ReLU;如果ai是一个很小的固定值(如ai=0.01),则PReLU退化为Leaky ReLU(LReLU)。 有实验证明,与ReLU相比,LReLU对最终的结果几乎没什么影响。
PReLU的几点说明
(1) PReLU只增加了极少量的参数,也就意味着网络的计算量以及过拟合的危险性都只增加了一点点。特别的,当不同channels使用相同的ai时,参数就更少了。(2) BP更新ai时,采用的是带动量的更新方式,如下图:
上式的两个系数分别是动量和学习率。
需要特别注意的是:更新ai时不施加权重衰减(L2正则化),因为这会把ai很大程度上push到0。事实上,即使不加正则化,试验中ai也很少有超过1的。
(3) 整个论文,ai被初始化为0.25。
相关文章推荐
- SpringMVC实战(四)-处理模型数据
- POJ 1094 Sorting It All Out【floyd传递闭包+拓扑排序】
- Linux mysql设置表名不区分大小写,设置编码
- 熵
- 第十周学习进度表
- Linux mysql设置表名不区分大小写,设置编码
- 终极编程道场(The Ultimate Code Kata)
- leetcode 19. Remove Nth Node From End of List-移除链表元素|双指针
- 18. 4Sum
- 模拟算法
- DevExpress美化应用程序
- php 之 查询 投票练习(0508)
- 学习进度条——第十周
- Python之re(正则表达式)模块小结
- android textview设置字体的行距和字间距
- 战略游戏 树形DP
- 堆排序
- codeforcs 351 B. Problems for Round
- 试探算法
- Java学习之多态