(斯坦福机器学习课程笔记)用广义线性模型推导softmax
2017-01-07 17:18
351 查看
定义示性函数1{bool式子},当bool式子为真,示性函数为1,反之为0.
多项式分布:P(y;ϕ1,ϕ2,ϕ3......ϕk)
上式等于:∏i=1kϕ1{y=i}i=∏i=1k−1ϕ1{y=i}iϕ1{y=k}k
上式等于:exp(∑i=1k−11{y=i}lnϕi+(1−∑l=1k−11{y=l})ln(1−∑l=1k−1ϕl))
上式等于:
exp(∑i=1k−11{y=i}lnϕi1−∑k−1l=1ϕl+ln(1−∑l=1k−1ϕl))上式也等于:
exp(∑i=1k−11{y=i}lnϕiϕk+lnϕk)
得到softmax的广义线性模型参数为
b(y)=1
a(η)=−lnϕk
T(y)=∑k−1i=11{y=i}
ηi=lnϕiϕk 这是个矩阵形式的式子。
根据ηi=lnϕiϕk 和 ∑kj=1ϕj=1 得
ϕj=eηj∑kj=1eηj
对于有m个样本,k个类别的分类问题,似然函数为
L(θ)=∏i=1mP(y(i)|xi;θ)=∏i=1m∏j=1kϕ1{yi=j}j
写成对数形式
l(θ)=∑i=1m∑j=1k1{yi=j}logϕj
迭代公式为
θj:=θj+a(1m∑i=1mxi(1{yi=j}−ϕi))
多项式分布:P(y;ϕ1,ϕ2,ϕ3......ϕk)
上式等于:∏i=1kϕ1{y=i}i=∏i=1k−1ϕ1{y=i}iϕ1{y=k}k
上式等于:exp(∑i=1k−11{y=i}lnϕi+(1−∑l=1k−11{y=l})ln(1−∑l=1k−1ϕl))
上式等于:
exp(∑i=1k−11{y=i}lnϕi1−∑k−1l=1ϕl+ln(1−∑l=1k−1ϕl))上式也等于:
exp(∑i=1k−11{y=i}lnϕiϕk+lnϕk)
得到softmax的广义线性模型参数为
b(y)=1
a(η)=−lnϕk
T(y)=∑k−1i=11{y=i}
ηi=lnϕiϕk 这是个矩阵形式的式子。
根据ηi=lnϕiϕk 和 ∑kj=1ϕj=1 得
ϕj=eηj∑kj=1eηj
对于有m个样本,k个类别的分类问题,似然函数为
L(θ)=∏i=1mP(y(i)|xi;θ)=∏i=1m∏j=1kϕ1{yi=j}j
写成对数形式
l(θ)=∑i=1m∑j=1k1{yi=j}logϕj
迭代公式为
θj:=θj+a(1m∑i=1mxi(1{yi=j}−ϕi))
相关文章推荐
- (斯坦福机器学习课程笔记)用广义线性模型推导逻辑回归模型
- Stanford机器学习课程笔记——LR的公式推导和过拟合问题解决方案
- 机器学习笔记(十)——Logistic Function AND Softmax Function
- (斯坦福机器学习课程笔记)马尔可夫决策
- 机器学习(斯坦福 Mechine Learning课程)笔记
- 斯坦福机器学习在线课程笔记
- (斯坦福机器学习课程笔记)VC维,交叉检验和特征选择
- 斯坦福机器学习课程笔记1
- 斯坦福机器学习: 网易公开课系列笔记(四)——牛顿法、广义线性模型
- 斯坦福机器学习课程笔记week2&3 线性/逻辑斯蒂回归
- (斯坦福机器学习课程笔记)支持向量机之拉格朗日函数
- (斯坦福机器学习课程笔记)局部加权线性回归练习
- UFLDL深度学习笔记 (二)SoftMax 回归(矩阵化推导)
- 斯坦福机器学习课程笔记(第五讲)
- 斯坦福机器学习课程笔记week4&5-神经网络
- (斯坦福机器学习课程笔记)支持向量机之对偶问题
- Hinton Neural Networks课程笔记4c:softmax输出神经元
- 台湾大学林轩田机器学习技法课程学习笔记4 -- Soft-Margin Support Vector Machine
- (斯坦福机器学习课程笔记)混合高斯模型,朴素贝叶斯,混合朴素贝叶斯模型,因子分析
- (斯坦福机器学习课程笔记)正则化和机器学习应用的建议