Softmax代价函数求导过程
2016-09-29 15:42
183 查看
Cost Function
参考UFLDL的Softmax回归,SoftMax回归的的损失函数形为:J(θ)=−1N∑i=1m∑j=1k⎛⎝I(y(i)=k)logeθTjx(i)∑kl=1eθTjx(i)⎞⎠(1.1)
有:
J(θ)==−1N∑i=1m∑j=1k(I(y(i)=k)(logeθTjx(i)−log∑l=1keθTjx(i)))−1N∑i=1m⎛⎝∑j=1kI(y(i)=k)logeθTj−∑j=1kI(y(i)=k)log∑l=1keθTjx(i)⎞⎠(1.2)(1.3)
其中,(1.3)中,大括号第二项,有:
f===∑j=1kI(y(i)=k)log∑l=1keθTjx(i)(其中,log∑l=1keθx独立于j)log∑l=1keθTjx(i)∑j=1kI(y(i)=k)(求和号重新分组)log∑l=1keθTjx(i)(k互斥成立,∑j=1kI(y(i)=k)=1)(1.4)
由式(1.3),(1.4):
J(θ)=−1N∑i=1m⎛⎝∑j=1kI(y(i)=k)logeθTjx(i)−log∑l=1keθTjx(i)⎞⎠(1.5)
Cost Function求导
SoftMax,有输入 x, 分类为类别 j 的概率定义为(参考UFLDL):P(y(i)=j|x(i);θ)=eθTjx(i)∑kl=1eθTjx(i)x(i)(1.6)
由式(1.5),对第参数 θj求偏导:
∂J(θ)∂θj==−1N∑i=1m⎛⎝I(y(i)=j)xi−eθTjx(i)∑kl=1eθTjx(i)x(i)⎞⎠−1N∑im(x(I(y(i)=j)−P(y(i)=j|xi;θ))(1.7)
相关文章推荐
- 逻辑回归中代价函数求导的推导过程
- Logistic回归-代价函数求导过程 | 内含数学相关基础
- softmax函数求导、配合log似然代价函数训练ANN
- 交叉熵代价函数(损失函数)及其求导推导
- 关于softmax 函数求导
- 逻辑回归中代价函数求导推导
- 交叉熵代价函数定义及其求导推导(读书笔记)
- 交叉熵代价函数——当我们用sigmoid函数作为神经元的激活函数时,最好使用交叉熵代价函数来替代方差代价函数,以避免训练过程太慢
- softmax代价函数的导数计算
- 深度学习笔记(五) 代价函数的梯度求解过程和方法
- 机器学习笔记-6.5逻辑回归的代价函数及其求导
- 逻辑回归中代价函数求导推导
- 逻辑回归模型的代价函数对参数的偏导数--推导过程
- logistic和softmax代价函数
- 交叉熵代价函数(损失函数)及其求导推导
- 逻辑回归 logistic regression 代价函数导数求解过程
- 在VS2005中采用c#书写存储过程和函数等以及使用
- 在PL/SQL 开发中调试存储过程和函数的一般性方法
- 模拟字符串处理函数 stuff 的存储过程,对 ntext 字段进行stuff .
- 存储过程、存储函数的加密:WITH ENCRYPTION