逻辑回归 logistic regression 代价函数导数求解过程
2017-12-06 23:37
465 查看
在学习机器学习的课程中,逻辑回归的对数似然函数为
J(θ)=−1m∑mi=1yilog(hθ(xi))+(1−yi)log(1−hθ(xi))
对于多元线性模型,其中θTx可以表示为:
θxi:=θ0+θ1xi1+⋯+θpxip.
θ0可以看作阈值的大小。大于阈值的分为一类,小于阈值的分为一类。
对h(x)进行归一化,
g(x)为sigmoid函数:g(z)=11+e−z
hθ(x)=g(θTx)
取h(x)的对数:
loghθ(xi)=log11+e−θxi=−log(1+e−θxi),
log(1−hθ(xi))=log(1−11+e−θxi)=log(e−θxi)−log(1+e−θxi)=−θxi−log(1+e−θxi),
由于归一化的函数为非凸函数,因此无法使用梯度下降,我们使用极大似然方法估计模型参数。
假设若为二分类,可以设
P(y=1|hi)=hθ(xi)
P(y=1|hi)=1−hθ(xi)
似然函数可以表示为:
∏mI=0hθ(xi)yI[1−hθ(xi)1−yI]
取对数,有
J(θ)=−1m∑mi=1yilog(hθ(xi))+(1−yi)log(1−hθ(xi))
J(θ)=−1m∑mi=1[−yi(log(1+e−θxi))+(1−yi)(−θxi−log(1+e−θxi))]
J(θ)=−1m∑mi=1[yiθxi−θxi−log(1+e−θxi)]
J(θ)=−1m∑mi=1[yiθxi−log(1+eθxi)]
其中的部分可以进一步化简:
−θxi−log(1+e−θxi)=−[logeθxi+log(1+e−θxi)]=−log(1+eθxi).
求偏导数:
∂∂θjyiθxi=yixij,
∂∂θjlog(1+eθxi)=xijeθxi1+eθxi=xijhθ(xi),
最后可得,
∂∂θjJ(θ)==−1m∑mi=1xij[yi−hθ(xi)]
J(θ)=−1m∑mi=1yilog(hθ(xi))+(1−yi)log(1−hθ(xi))
对于多元线性模型,其中θTx可以表示为:
θxi:=θ0+θ1xi1+⋯+θpxip.
θ0可以看作阈值的大小。大于阈值的分为一类,小于阈值的分为一类。
对h(x)进行归一化,
g(x)为sigmoid函数:g(z)=11+e−z
hθ(x)=g(θTx)
取h(x)的对数:
loghθ(xi)=log11+e−θxi=−log(1+e−θxi),
log(1−hθ(xi))=log(1−11+e−θxi)=log(e−θxi)−log(1+e−θxi)=−θxi−log(1+e−θxi),
由于归一化的函数为非凸函数,因此无法使用梯度下降,我们使用极大似然方法估计模型参数。
假设若为二分类,可以设
P(y=1|hi)=hθ(xi)
P(y=1|hi)=1−hθ(xi)
似然函数可以表示为:
∏mI=0hθ(xi)yI[1−hθ(xi)1−yI]
取对数,有
J(θ)=−1m∑mi=1yilog(hθ(xi))+(1−yi)log(1−hθ(xi))
J(θ)=−1m∑mi=1[−yi(log(1+e−θxi))+(1−yi)(−θxi−log(1+e−θxi))]
J(θ)=−1m∑mi=1[yiθxi−θxi−log(1+e−θxi)]
J(θ)=−1m∑mi=1[yiθxi−log(1+eθxi)]
其中的部分可以进一步化简:
−θxi−log(1+e−θxi)=−[logeθxi+log(1+e−θxi)]=−log(1+eθxi).
求偏导数:
∂∂θjyiθxi=yixij,
∂∂θjlog(1+eθxi)=xijeθxi1+eθxi=xijhθ(xi),
最后可得,
∂∂θjJ(θ)==−1m∑mi=1xij[yi−hθ(xi)]
相关文章推荐
- 逻辑回归模型的代价函数对参数的偏导数--推导过程
- 逻辑回归中代价函数求导的推导过程
- 逻辑回归中的代价函数的详细由来及其梯度下降法
- MLiA 逻辑回归 求解回归函数的系数中梯度下降法及其向量化
- derivative of cost function for Logistic Regression 逻辑回归代价函数偏导证明
- 使用fminunc找逻辑回归(logistic)代价函数的最小值
- 逻辑回归中代价函数的选择.凸优化问题
- 跟着Andrew Ng挑战Machine Learning(第三周)Part 2:逻辑回归的代价函数
- 极大似然法推导线性回归和逻辑回归代价(cost)函数
- 机器学习-逻辑回归-代价函数
- 逻辑回归中代价函数求导推导
- 使用fminunc找逻辑回归(logistic)代价函数的最小值
- 01-逻辑回归的代价函数(交叉熵代价函数)以及梯度下降法
- 机器学习07-逻辑回归-代价函数与梯度下降的优化
- 深度学习笔记(五) 代价函数的梯度求解过程和方法
- 逻辑回归 代价函数 Java实现
- 逻辑回归——关于似然代价函数(补充)
- 机器学习笔记-6.5逻辑回归的代价函数及其求导
- 逻辑斯谛回归(代价函数,梯度下降) logistic regression--cost function and gradient descent
- 逻辑回归代价函数及其梯度下降公式