逻辑回归及其数学推导
2016-08-27 14:28
369 查看
本文只讨论二分类的情况
l(w)=∏i=1nh(xi)yi(1−h(xi))1−yi
对数似然函数:
L(w)=∑i=1n(yilogh(xi)+(1−yi)log(1−h(xi)))=∑i=1n(yiwTxi−yilog(1+ewTxi)+(yi−1)log(1+ewTxi))=∑i=1n(yiwTxi−log(1+ewTxi))
可以证明L(w)是关于w的凸函数,有最大值,证明如下:
令f(w)=ywTx−log(1+ewTx)
∂f(w)∂w=yx−ewTx1+ewTx
∂2f(w)∂w∂wT=−xewTxxT(1+ewTx)2=−ewTx(1+ewTx)2xxT
∀非零向量z,zT(xxT)z=zTx(zTx)T≥0,又因为ewTx(1+ewTx)2>0,所以∂2f(w)∂w∂wT是半负定矩阵,即f(w)是关于w的凸函数,有最大值。
对数似然函数对向量w求导,可得:
∂L(w)∂w=∑i=1n(yixi−ewTxi1+ewTxixi)=∑i=1n(yi−ewTxi1+ewTxi)xi=∑i=1n(yi−h(xi))xi
BGD求解:
注意此处w是向量
w=w+λ∑i=1n(yi−h(xi))xi
SGD求解:
w=w+λ(yi−h(xi))xi
MBGD求解:
假设每次使用b个样本
fori=1,1+b,1+2b,...
w=w+λ∑k=ii+b(yi−h(xi))xi
一、逻辑回归
P(Y=1|X=x)=ewTx1+ewTx=h(x)P(Y=0|X=x)=11+ewTx=1−h(x)logP(Y=1|X=x)P(Y=0|X=x)=wTx二、参数估计(极大似然估计)
似然函数:l(w)=∏i=1nh(xi)yi(1−h(xi))1−yi
对数似然函数:
L(w)=∑i=1n(yilogh(xi)+(1−yi)log(1−h(xi)))=∑i=1n(yiwTxi−yilog(1+ewTxi)+(yi−1)log(1+ewTxi))=∑i=1n(yiwTxi−log(1+ewTxi))
可以证明L(w)是关于w的凸函数,有最大值,证明如下:
令f(w)=ywTx−log(1+ewTx)
∂f(w)∂w=yx−ewTx1+ewTx
∂2f(w)∂w∂wT=−xewTxxT(1+ewTx)2=−ewTx(1+ewTx)2xxT
∀非零向量z,zT(xxT)z=zTx(zTx)T≥0,又因为ewTx(1+ewTx)2>0,所以∂2f(w)∂w∂wT是半负定矩阵,即f(w)是关于w的凸函数,有最大值。
对数似然函数对向量w求导,可得:
∂L(w)∂w=∑i=1n(yixi−ewTxi1+ewTxixi)=∑i=1n(yi−ewTxi1+ewTxi)xi=∑i=1n(yi−h(xi))xi
BGD求解:
注意此处w是向量
w=w+λ∑i=1n(yi−h(xi))xi
SGD求解:
w=w+λ(yi−h(xi))xi
MBGD求解:
假设每次使用b个样本
fori=1,1+b,1+2b,...
w=w+λ∑k=ii+b(yi−h(xi))xi
相关文章推荐
- [置顶] 相机标定的数学原理及其推导过程
- 距离变换及其数学推导
- 朴素贝叶斯及其数学推导
- BP神经网络的数学原理及其算法实现
- [hdu5307] He is Flying [FFT+数学推导]
- BestCoder 1st Anniversary ——HDU5312(数学推导)
- word2vec 模型的详细数学推导和直观理解
- HDU-5528-Count a * b-2015长春B题(数学推导)
- HDU 2608 0 or 1(数学推导)
- 深度学习中的数学与技巧(7):特征值和特征向量的几何意义、计算及其性质
- 【数学】奇异值分解(SVD)原理详解及推导
- BNU27945——整数边直角三角形——————【简单数学推导】
- 【codeforces】Non-square Equation(数学推导)
- Uva - 11538 - Chess Queen(数学推导)
- 机器学习中的数学(5)-强大的矩阵奇异值分解(SVD)及其应用
- zstu.4014.水手分椰子(数学推导)
- 数学之美 系列十三 信息指纹及其应用
- BP神经网络的数学原理及其算法实现
- hdoj 2298 Toxophily(数学推导或三分+二分)
- 453. Minimum Moves to Equal Array Elements 数学公式推导