稀疏
2015-08-13 20:38
176 查看
每一个neural network 学出的hidden layer就是feature
看到“稀疏编码”这几个字,很头疼,这究竟是什么意思呢?
后来慢慢知道了,“稀疏”二字类似于大学线性代数中的“稀疏矩阵”,就是零很多,真正有用的数字很稀疏。
稀疏编码器:自动决定隐藏层的结点个数,使得提取出的特征很好。输入结点是16个,隐藏层结点也是16个,输出结点16个,那么显然隐藏层结点个数过多了,我们可以设置其中的部分隐藏层结点计算之后的值为0,就是稀疏了。
①目标函数(loss误差)求极小值
②Sparsity(稀疏惩罚项)是隐藏层的,输出值,求绝对值之和or绝对值平方之和。如果0居多,Sparsity的值小。如果0少,Sparsity的值大。
③误差(loss)=error+sparsity,此公式体现出误差不仅仅是error了,还把隐藏层也考虑进去了。
④Loss小的话,要求error和sparsity都要小。Sparsity小,那么只有少数非零项。
看到“稀疏编码”这几个字,很头疼,这究竟是什么意思呢?
后来慢慢知道了,“稀疏”二字类似于大学线性代数中的“稀疏矩阵”,就是零很多,真正有用的数字很稀疏。
稀疏编码器:自动决定隐藏层的结点个数,使得提取出的特征很好。输入结点是16个,隐藏层结点也是16个,输出结点16个,那么显然隐藏层结点个数过多了,我们可以设置其中的部分隐藏层结点计算之后的值为0,就是稀疏了。
①目标函数(loss误差)求极小值
②Sparsity(稀疏惩罚项)是隐藏层的,输出值,求绝对值之和or绝对值平方之和。如果0居多,Sparsity的值小。如果0少,Sparsity的值大。
③误差(loss)=error+sparsity,此公式体现出误差不仅仅是error了,还把隐藏层也考虑进去了。
④Loss小的话,要求error和sparsity都要小。Sparsity小,那么只有少数非零项。
相关文章推荐
- C++基础之表达式笔记
- ccf 集合竞价(只有80十分,而且还是参考大神的代码才做出来的)
- 复选框全选、批量删除
- Mac OS 链接Android USB
- Java-封装生成JSON数据和XML数据类
- 算法题: 部分A+B (15)
- Android Opengl 初学(画一个逐渐扩大的圆圈)
- hdu-1312-Red and Black
- WinCE 开发问题:不支持 Open Generic 方法的 GetParameters。
- NYOJ-1006喷水设置(一)-贪心
- 使用common-fileUpload实现文件上传
- how to show provisionning profile information
- Block数组练习
- Android相关属性的介绍:android:exported
- NYOJ_62 笨小熊
- HDU 5387 Clock(计算时针与分针 时针与秒针 分针与秒针的夹角)
- java几种图片加载方法的理解
- 磨刀不费砍柴功——Android编程中的实用快捷键
- js 异步请求封装
- Java FTP简单工具类