神经网络激活函数总结
2017-03-29 14:05
183 查看
激活函数总结
sigmoid
tanh
ReLU
Leaky ReLU
Maxout
ELU
sigmoid
数学表示:y=11+e−x
不建议使用,容易饱和
tanh
数学表示:y=ex−e−xex+e−x
ReLU
数学表示:y=max(0,x)
建议使用, 但是注意学习率,保证ReLU激活
Leaky ReLU
数学表示:y=max(αx,x)
Maxout
数学表示:y=max(WT1x,WT2x)
ELU
数学表示:y={x,α(exp(x)−1), if x>0if x≤0
相关文章推荐
- 神经网络的激活函数总结
- 神经网络激活函数总结
- 机器学习总结(七):基本神经网络、BP算法、常用激活函数对比
- cs231n 卷积神经网络与计算机视觉 5 神经网络基本结构 激活函数总结
- 深度学习/神经神经网络常用激活函数总结
- 神经网络与深度学习之激活函数
- 人工神经网络框架AForge学习(二):Sigmoid激活函数
- 神经网络之激活函数面面观
- [转]神经网络-激活函数
- 激活函数在神经网络中的功能
- 神经网络五:常用的激活函数
- 神经网络之激活函数(Activation Function)(附maxout)
- 【机器学习】神经网络-激活函数-面面观(Activation Function)
- 神经网络中激活函数比较
- 神经网络学习笔记 - 激活函数的作用、定义和微分证明
- 深度学习中的数学与技巧(13):神经网络之激活函数
- 神经网络之激活函数(Activation Function)
- 神经网络-激活函数-面面观(Activation Function)
- 神经网络之激活函数(Activation Function)
- 神经网络激活函数及导数