逻辑回归(Logistic+Regression)
2018-03-07 14:20
357 查看
机器学习算法完整版见fenghaootong-github
寻找h函数(即hypothesis);
构造J函数(损失函数);
想办法使得J函数最小并求得回归参数(θ)
hθ(x)=g(θTx)=11+e−θTxhθ(x)=g(θTx)=11+e−θTx
函数hθ(x)hθ(x)的值有特殊的含义,它表示结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为:
P(y=1|x;θ)=hθ(x)P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1−hθ(x)P(y=0|x;θ)=1−hθ(x)
P(y|x;θ)=(hθ(x))y(1−hθ(x))1−yP(y|x;θ)=(hθ(x))y(1−hθ(x))1−y
取似然函数为:
L(θ)=Πmi=1P(yi|xi;θ)=Πmi=1(hθ(xi))yi(1−hθ(xi))1−yiL(θ)=Πi=1mP(yi|xi;θ)=Πi=1m(hθ(xi))yi(1−hθ(xi))1−yi
对数似然函数为:
l(θ)=logL(θ)=∑mi=1(yihθ(xi)+(1−yi)(1−hθ(xi)))l(θ)=logL(θ)=∑i=1m(yihθ(xi)+(1−yi)(1−hθ(xi)))
最大似然估计就是求使l(θ)l(θ)取最大值时的θ,其实这里可以使用梯度上升法求解,求得的θ就是要求的最佳参数。
J(θ)=−1ml(θ)J(θ)=−1ml(θ)
因为乘了一个负的系数-1/m,所以取J(θ)J(θ)最小值时的θ为要求的最佳参数。
θj:=θj−α1m∑mi=1(hθ(xi)−yi)xjiθj:=θj−α1m∑i=1m(hθ(xi)−yi)xij
逻辑回归(Logistic Regression)经典实例
逻辑回归(Logistic Regression)经典实例
逻辑回归(Logistic Regression)
Regression问题的常规步骤为:寻找h函数(即hypothesis);
构造J函数(损失函数);
想办法使得J函数最小并求得回归参数(θ)
构造预测函数h
函数形式为:hθ(x)=g(θTx)=11+e−θTxhθ(x)=g(θTx)=11+e−θTx
函数hθ(x)hθ(x)的值有特殊的含义,它表示结果取1的概率,因此对于输入x分类结果为类别1和类别0的概率分别为:
P(y=1|x;θ)=hθ(x)P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1−hθ(x)P(y=0|x;θ)=1−hθ(x)
构造损失函数J
将上面二式综合起来P(y|x;θ)=(hθ(x))y(1−hθ(x))1−yP(y|x;θ)=(hθ(x))y(1−hθ(x))1−y
取似然函数为:
L(θ)=Πmi=1P(yi|xi;θ)=Πmi=1(hθ(xi))yi(1−hθ(xi))1−yiL(θ)=Πi=1mP(yi|xi;θ)=Πi=1m(hθ(xi))yi(1−hθ(xi))1−yi
对数似然函数为:
l(θ)=logL(θ)=∑mi=1(yihθ(xi)+(1−yi)(1−hθ(xi)))l(θ)=logL(θ)=∑i=1m(yihθ(xi)+(1−yi)(1−hθ(xi)))
最大似然估计就是求使l(θ)l(θ)取最大值时的θ,其实这里可以使用梯度上升法求解,求得的θ就是要求的最佳参数。
J(θ)=−1ml(θ)J(θ)=−1ml(θ)
因为乘了一个负的系数-1/m,所以取J(θ)J(θ)最小值时的θ为要求的最佳参数。
梯度下降法求的最小值
θθ更新过程:θj:=θj−α1m∑mi=1(hθ(xi)−yi)xjiθj:=θj−α1m∑i=1m(hθ(xi)−yi)xij
逻辑回归(Logistic Regression)经典实例
逻辑回归(Logistic Regression)经典实例
相关文章推荐
- 多类别逻辑回归(Multinomial Logistic Regression)
- Coursera DeepLearning.ai Logistic Regression逻辑回归总结
- 逻辑回归和牛顿法 Logistic Regression and Newton's Method
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习---第3讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习网络课程---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- 第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习网络课程---第三讲(续)Matlab实现线性回归和逻辑回归: Linear Regression & Logistic Regression
- Logistic and Softmax Regression (逻辑回归和Softmax回归)
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Stanford机器学习-- 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- Matlab实现线性回归和逻辑回归: Linear Regression & Logistic Regression
- 【转载】Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- 线性回归与逻辑斯谛回归(from Linear regression to logistic regression)
- 逻辑斯谛回归正则化 regularized logistic regression
- 逻辑回归分类器(Logistic Regression Classifier)
- derivative of cost function for Logistic Regression 逻辑回归代价函数偏导证明
- Stanford机器学习---第三讲. 逻辑回归和过拟合问题的解决 logistic Regression & Regularization