激活函数,目标函数,dropout弃权
2018-03-15 10:19
99 查看
激活函数:
为什么需要激活函数?
如果不用激活函数,每一层的输出都是上一层的线性组合,从而导致整个神经网络的输出为神经网络输入的线性组合,无法逼近任意函数。
目标函数:代价函数+正则化项
损失函数:计算一个样本的损失
代价函数: 整个训练集上所有样本误差的平均
dropout 弃权
dropout 不修改代价函数,而是修改网络本身。可以理解为训练多个神经网络,然后多个神经网络再对结果进行投票,从而排除overfitting。其目标是:在丢失部分证据的条件下,此方法同样健壮。Dropout用于训练大的深度网络很有用,因为在此类网络中,overfitting问题非常严重。
为什么需要激活函数?
如果不用激活函数,每一层的输出都是上一层的线性组合,从而导致整个神经网络的输出为神经网络输入的线性组合,无法逼近任意函数。
目标函数:代价函数+正则化项
损失函数:计算一个样本的损失
代价函数: 整个训练集上所有样本误差的平均
dropout 弃权
dropout 不修改代价函数,而是修改网络本身。可以理解为训练多个神经网络,然后多个神经网络再对结果进行投票,从而排除overfitting。其目标是:在丢失部分证据的条件下,此方法同样健壮。Dropout用于训练大的深度网络很有用,因为在此类网络中,overfitting问题非常严重。
相关文章推荐
- 深度学习笔记之神经网络、激活函数、目标函数和深度的初步认识
- CS231n课程学习笔记(六)——常用的激活函数总结
- ReLu(Rectified Linear Units)激活函数
- ReLu(Rectified Linear Units)激活函数
- 关于深度学习中激活函数的思考总结(转载+原创)
- 斯坦福cs231n学习笔记(7)------神经网络训练细节(激活函数)
- 人工神经网络框架AForge学习(二):Sigmoid激活函数
- 完美解决一个事件激活多个函数
- 激活函数实现--2 Sigmoid函数实现
- 斯坦福大学深度学习公开课cs231n学习笔记(5)神经网络结构与激活函数
- 深度学习---之几种激活函数的区别
- caffe study(3) 关于激活函数以及loss function
- 什么是激活函数以及其作用
- 神经网络激活函数及导数
- caffe中的激活函数代码解析
- CNN中激活函数,优化器,损失函数的选择
- 代价函数(目标函数) cost function
- 神经网络激活函数总结
- 深度学习笔记(三):激活函数和损失函数
- 神经网络之激活函数(Activation Function)