您的位置:首页 > 其它

逻辑回归公式推导

2018-03-23 16:19 1181 查看
文章参考周志华《机器学习》

机器学习离不开模型算法激活函数

逻辑回归使用线性回归的的预测结果去逼近对数几率,所以使用的模型和线性回归一样。逻辑回归使用的激活函数为S型函数中的对数几率函数,公式以及曲线如下:

y=11+e−zy=11+e−z



而逻辑回归从输入的特征值计算出输出值的更新公式为:

h(θ)=11+e−(θTx+b)h(θ)=11+e−(θTx+b)

其中,h(θ)h(θ)为模型输出的值,yy为实际值。逻辑回归是线性回归引入对数几率,可有上式得出:

lnh(θ)1−h(θ)=θTx+blnh(θ)1−h(θ)=θTx+b

由上式可以看出对数以及几率的概念。同时,逻辑回归就是在线性回归的基础上引入了这两个概念产生的。此时,假定输出的预测值h(θ)h(θ)为0,在二分类任务中,上式可写成概率的形式:

lnp(h(θ)=0)p(h(θ)=1)=θTx+blnp(h(θ)=0)p(h(θ)=1)=θTx+b

由概率公式可得,也可以有更新公式易知:

p(h(θ)=0)=eθTx+b1+eθTx+bp(h(θ)=0)=eθTx+b1+eθTx+b p(h(θ)=1)=11+eθTx+bp(h(θ)=1)=11+eθTx+b

此时,要使在这个数据集中(可以看做部分的采样)使得如此采样出现的概率最大,则可以通过极大似然估计来估计权重ωω以及bb,先写出概率分布的函数:

P(h|θ;ω,b)=(11+eθTx+b)1−y(eθTx+b1+eθTx+b)yP(h|θ;ω,b)=(11+eθTx+b)1−y(eθTx+b1+eθTx+b)y

由于样本相对独立,可写出上式的似然函数:

L(y|θ;ω,b)=∏i=1m(11+eθTx+b)1−y(eθTx+b1+eθTx+b)yL(y|θ;ω,b)=∏i=1m(11+eθTx+b)1−y(eθTx+b1+eθTx+b)y

对似然函数求对数:

LogL(y|θ;ω,b)=∑i=1mln(11+eθTx+b)1−y(eθTx+b1+eθTx+b)yLogL(y|θ;ω,b)=∑i=1mln(11+eθTx+b)1−y(eθTx+b1+eθTx+b)y =∑i=1m(1−y)ln(11+eθTx+b)+yln(eθTx+b1+eθTx+b)=∑i=1m(1−y)ln(11+eθTx+b)+yln(eθTx+b1+eθTx+b)=∑i=1mln(11+eθTx+b)+y(ln(eθTx+b1+eθTx+b)−ln(11+eθTx+b))=∑i=1mln(11+eθTx+b)+y(ln(eθTx+b1+eθTx+b)−ln(11+eθTx+b))=∑i=1m(−ln(1+eθTx+b)+y(θTx+b))=∑i=1m(−ln(1+eθTx+b)+y(θTx+b))

需求上式的最大值,即求下式的最小值,即逻辑回归的代价函数如下:

∑i=1mln(1+eθTx+b)−y(θTx+b)∑i=1mln(1+eθTx+b)−y(θTx+b)

之后使用梯度下降法求最小值,上式求导后梯度为:

(11+eθTx+b)x−yx=(h(θ)−y)x(11+eθTx+b)x−yx=(h(θ)−y)x

再根据梯度下降更新权重即可。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: