多层神经网络和深度学习网络(DBN、SDA)的区别
2017-08-26 14:59
435 查看
区别在于训练的过程。多层神经网络每次训练都从第一层计算到最后一层,然后反向传播误差来更新连接权重,这样的问题是如果层数太多,最后一层的误差在反向传播过程中会逐渐消失,靠前的层得不到更新。而深度学习网络(DBN、SDA)的训练方式是“逐层”训练,每一层都以前面一层作为输入和输出,自己作为中间层,组成一个编码解码器式的3层神经网络进行单独训练。从第一层开始,训练得到第二层,依此类推训练到倒数二层,前面这些层都是无监督的,最后一层的训练则是常规有监督式的训练。总之,DBN和SDA的训练不是从第一层到最后一层的拉通式训练,而是依次训练每一层去表示前一层。后来的深度学习网络用dropout、pooling、cnn等方法也是为了达到类似的目的。
DBN:deep belief network
SDA: stacked denoising autoencoders
DBN:deep belief network
SDA: stacked denoising autoencoders
相关文章推荐
- 深度学习与多层神经网络的区别
- 深度学习和神经网络的区别是什么
- 深度学习DeepLearning.ai系列课程学习总结:8. 多层神经网络代码实战
- 深度学习之自编码器和多层神经网络
- 单层神经网络、多层感知机、深度学习的总结
- 深度学习笔记二:多层感知机(MLP)与神经网络结构
- UFLDL深度学习编程练习1: 多层神经网络
- 【神经网络入坑记】深度学习和神经网络的区别
- 深度学习-基于spark的多层神经网络
- 数据分析、数据挖掘、机器学习、神经网络、深度学习和人工智能概念区别(入门级别)
- [深度学习]神经网络的理解(MLP RBF RBM DBN DBM CNN 整理学习)
- 深度学习系列(2)——神经网络与深度学习
- 深度学习之神经网络(CNN/RNN/GAN) 算法原理+实战
- 【神经网络与深度学习】如何将别人训练好的model用到自己的数据上
- 神经网络与深度学习第四天读书笔记-----迈向深度学习:反向传播算法
- 深度学习:自编码器、神经网络基础
- 【计算机视觉】【神经网络与深度学习】论文阅读笔记:You Only Look Once: Unified, Real-Time Object Detection
- Halcon学习 多层神经网络
- DAY5:神经网络及深度学习基础
- 深度学习笔记(二):简单神经网络,后向传播算法及实现