SAE模型
2015-05-21 19:43
120 查看
Stacked Autoencoder(SAE)模型是一个由多层稀疏自编码器组成的深度神经网络模型,其前一层自编码器的输出作为其后一层自编码器的输入,最后一层是个分类器(logistic分类器或者softmax分类器)
(一)sparse autoencoder算法
1.概念:sparse autoencoder是一种非监督学习算法,需要满足以下两种约束:
(1)autoencoder:输入等于输出
(2)sparse:隐层的每个神经元的响应是稀疏的,也就是大部分时间响应为0,也就是平均响应
尽可能小(其中m为训练样本个数)
2.代价函数
其中:
(1)第一项为autoencoder的约束项;
(2)第二项为惩罚项目,防止过拟合;
(3)第三项为稀疏的约束,是一个KL散度的衡量标准:
3.最优化方案:该约束函数是一个非凸函数,采用批量梯度下降算法
其中:
至于梯度可以用backpropagation(BP)算法来求解;
(二)logistic回归模型与softmax回归模型
1.logistic回归模型
(1)适用于二分类;
(2)模型函数:
(3)代价函数(最大似然):
(4)最优化方案:梯度下降算法;
2.softmax回归模型
(1)适用于多分类;
(2)模型函数:
(3)代价函数:
(4)最优化方案:梯度下降算法;
3.softmax回归分类器适用于k个互斥的类别的分类;k个logistic回归分类器适用k个并不完全互斥的类别的分类;
(三)SAE模型
(1)预训练:利用无标签数据对每一层的参数用sparse autoencoder训练初始化;
(2)微调:利用有标签数据对整个深度神经网络进行微调;
(一)sparse autoencoder算法
1.概念:sparse autoencoder是一种非监督学习算法,需要满足以下两种约束:
(1)autoencoder:输入等于输出
(2)sparse:隐层的每个神经元的响应是稀疏的,也就是大部分时间响应为0,也就是平均响应
尽可能小(其中m为训练样本个数)
2.代价函数
其中:
(1)第一项为autoencoder的约束项;
(2)第二项为惩罚项目,防止过拟合;
(3)第三项为稀疏的约束,是一个KL散度的衡量标准:
3.最优化方案:该约束函数是一个非凸函数,采用批量梯度下降算法
其中:
至于梯度可以用backpropagation(BP)算法来求解;
(二)logistic回归模型与softmax回归模型
1.logistic回归模型
(1)适用于二分类;
(2)模型函数:
(3)代价函数(最大似然):
(4)最优化方案:梯度下降算法;
2.softmax回归模型
(1)适用于多分类;
(2)模型函数:
(3)代价函数:
(4)最优化方案:梯度下降算法;
3.softmax回归分类器适用于k个互斥的类别的分类;k个logistic回归分类器适用k个并不完全互斥的类别的分类;
(三)SAE模型
(1)预训练:利用无标签数据对每一层的参数用sparse autoencoder训练初始化;
(2)微调:利用有标签数据对整个深度神经网络进行微调;
相关文章推荐
- PCA方法,自编码模型(AE,SAE,DSAE等)
- DeepLearnToolbox代码详解——SAE,DAE模型
- DeepLearnToolbox代码详解——SAE,DAE模型
- <模型汇总-6>堆叠自动编码器Stacked_AutoEncoder-SAE
- ASP.NET2.0 Provider模型(二)
- 完成端口模型
- 传输转发模型
- 统计语言模型
- 摄像机成像、畸变模型(一)
- SharePoint服务器端对象模型 之 对象模型概述(Part 2)
- 【SharePoint】SharePoint2013中使用客户端对象模型给用户控件赋初值
- 软件设计的不同模型:瀑布式、快速原型法以及迭代式
- OpenGL编程(七)3D模型的深度(z轴)检测
- 【机器学习基础】VC维与模型复杂度、样本复杂度
- 深入探索C++对象模型之七 --- 站在对象模型的尖端
- 关系模型到 Key-Value 模型的映射
- Tensorflow1.5 模型训练结果的保存与恢复
- 互联网模型、数据包封包拆包、路由器、TCPIP
- Visual Studio 2010 Ultimate中MSF过程模型设计
- 模型间的一对多关系