您的位置:首页 > 其它

统计学习方法——朴素贝叶斯

2017-04-13 20:13 183 查看

0.写在前面

朴素贝叶斯实际上是非常简单的一种机器学习方法,我们在之前的很多地方都讲过了,所以这里我们不再阐述具体的原理,可以移步:朴素贝叶斯

但是,对于讨论班里,争论最多的就是课后的2个习题,因此,我们重点放在这两个习题上。他们分别是:

4.1 用极大似然估计法推出朴素贝叶斯法中的概率估计公式(4.8)及公式(4.9)。

4.2 用贝叶斯估计法推出朴素贝叶斯法中的概率估计公式(4.10)及公式(4.11)。

1. 极大似然估计法

极大似然估计方法是非常常见的估计方法(MLE)。而这里的公式4.8和公式4.9分别是:

P(Y=ck)=∑i=1NI(yi=ck)N(4.8)

P(X=al|Y=ck)=∑i=1NI(xi=al,yi=ck)N(4.9)

这里的4.9我简化了一下,其实道理都是一样的,那个j只不过是表示第几个特征。

那么我们怎么推呢,首先我们来推公式4.8。

目的式:P(Y=ck)=∑i=1NI(yi=ck)N

为了方便计算,我们令P(Y=ck)=θk,Nk=∑i=1NI(yi=ck),N为样本总数。

我们想求的是极大似然函数值,那么这就是求极值的问题,而这个又有一个约束条件:∑i=1Nθi=1

于是,我们就可以使用拉格朗日乘子法来解决带有约束条件的极值问题。

不知道大家还记得拉格朗日乘子法怎么做么。首先就是把约束条件作为其中一项,然后乘以λ后与原函数相加,求导等于0,解方程即可。

对于这题,我们的似然函数是:

L(θk,y1,y2,...,yn)=∏i=1np(yi)=∏i=1nθNkk

取对数,称为对数似然函数,结果为:l(θk)=Ln(L(θk))=∑k=1NNkInθk

最终的拉格朗日乘子法得到的函数为l(θk,λ)=∑k=1NNkInθk+λ(∑i=1Nθi−1)

那么求导:

⎧⎩⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪∂l∂θ1=N1θ1+λ=0∂l∂θ2=N2θ2+λ=0∂l∂θ3=N3θ3+λ=0⋅⋅⋅∂l∂θn=Nnθn+λ=0∑k=1nθk=1

我们先对每一个θi求值,然后全部加起来后,得到λ=−N,带入约束条件就求得我们需要的值了:

θk=NkN

P(Y=ck)=∑i=1NI(yi=ck)N

同样的,具有条件概率的写法也是如此。

我们假设:μlk=p(x=al|y=ck),其他的假设如上述所说。

则似然函数:

L(μ;(x1,y1),(x2,y2),...,(xn,yn))=∏i=1Np(xi,yi)=∏l=1L∏k=1K(μlk⋅θk)Nlk

同样的,取似然估计以后,得出的结论和之前的一样,因此我们也会得出相同的结论:μlk=NlkNk。

2. 贝叶斯估计法

对于第二题,我想,大家应该知道贝叶斯公式:

p(X=al|Y=ck)=p(X=al,Y=ck)p(Y=ck)

其实如果上下都约掉N就可得:

p(X=al|Y=ck)=∑i=1NI(xi=al,yi=ck)∑i=1NI(yi=ck)

看过这篇语言模型的同学都会知道,这里是为了防止0概率的出现而设置的数据平滑处理:

p(X=al|Y=ck)=∑i=1NI(xi=al,yi=ck)+λ∑i=1NI(yi=ck)+Sjλ

同样的4.11也是一样可以得到,这里就不赘述了。

3. 极大似然估计与贝叶斯估计的不同。

贝叶斯估计与极大似然估计的一个主要不同就在于,贝叶斯估计有一个先验概率,而极大似然估计没有,准确说是每种可能的先验估计都相等,也就忽略了。

但是贝叶斯的先验估计也并非是一直准确的,如果对于先验估计有一个很透彻的了解,那么贝叶斯估计应当是比较好用的。但是实际上,很多情况下,我们并不知道先验概率分布,这就导致很多时候,先验概率分布也是一种猜测,猜得对了,效果好,猜的不对,效果就不好。

有的说,极大似然估计是对点估计,而贝叶斯估计是对分布估计。我觉得其实是差不多的。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息