UFLDL Exercise:Softmax Regression
2015-06-25 19:41
375 查看
1. result
Gradient checking: 7.4115e-010Accuracy: 92.640%
2. code
softmaxCost%hypothesis M = theta * data; M = exp(bsxfun(@minus, M, max(M))); M = bsxfun(@rdivide, M, sum(M)); %cost cost = -sum(sum(groundTruth .* log(M))) / size(data, 2); cost = cost + 0.5 * lambda * sum(sum(theta .* theta)); %grad thetagrad = -(groundTruth - M) * data' / size(data, 2)'; thetagrad = thetagrad + lambda * theta;
softmaxPredict
M = theta * data; [M, pred] = max(M);
相关文章推荐
- UFLDL Exercise: Convolutional Neural Network
- UFLDL稀疏编码器练习实现
- UFLDL矢量化编程练习:翻译
- UFLDL矢量化编程练习:遇到问题
- UFLDL矢量化编程练习:用MNIST数据集的稀疏自编码器训练实现
- UFLDL Exercise:Sparse Autoencoder
- UFLDL Exercise:PCA in 2D
- UFLDL Exercise:PCA and Whitening
- 线性回归与逻辑回归
- 稀疏自编码器及其实现——如何搞基
- 矢量化编程——以MNIST为例
- 主成分分析(PCA)——以2维图像为例
- 主成分分析与白化预处理
- Softmax回归——识别MINST数据库
- 自我学习(Self-Taught Learning)
- 从自我学习到深层网络——建立你的第1个深度网络分类器
- 线性解码器——解决数据缩放问题
- 卷积特征提取与池化(Pooling)——处理大型图像
- Multi-Layer Neural Network
- UFLDL 教程学习笔记(一)神经网络