您的位置:首页 > 其它

最大似然估计的学习

2017-03-31 12:06 225 查看
强行置顶:https://www.zhihu.com/question/20447622

以下转自(http://blog.chinaunix.net/uid-20761674-id-75037.html),对理解最大似然估计还是很有用的,但是有一点还不明白的是最大似然估计使用什么样的方法?后续还需要添加相关内容

最大似然估计法的基本思想
  最大似然估计法的思想很简单:在已经得到试验结果的情况下,我们应该寻找使这个结果出现 的可能性最大的那个 

 作为真 

 的估计。

  我们分两种情进行分析:

  1.离散型总体 

  设 

 为离散型随机变量,其概率分布的形式为 

 ,则样本 

 的概率分布为 

 ,在 

 固定时,上式表示 

 取值 

 的概率;当 

 固定时,它是 

 的函数,我们把它记为 

 并称

为似然函数。似然函数 

 的值的大小意味着该样本值出现的可能性的大小。既然已经得到了样本值 

 ,那它出现的可能性应该是大的,即似然函数的值应该是大的。因而我们选择使 

 达到最大值的那个 

 作为真 

 的估计。

  2.连续型总体 

  设 

 为连续型随机变量,其概率密度函数为 

 则 

 为从该总体抽出的样本。因为 

 相互独立且同分布,于是,样本的联合概率密度函数为
  

 ,在 

 是固定时,它是 

 在 

 处的
密度,它的大小与 

 落在 

 附近的概率的大小成正比,而当样本值 

 固定时,它是

 的函数。我们仍把它记为 

 并称

为似然函数。类似于刚才的讨论,我们选择使 

 最大的那个 

 作为真 

 的估计。 
             

  总之,在有了试验结果即样本值 

 时,似然函数 

 反映了 

 的各个不同值导出这个结果的可能性的大小。
我们选择使 

 达到最大值的那个 

 作为真 

 的估计。这种求点估计的方法就叫作最大似然法。
  

  7.2.2 最大似然估计的求法

  假定现在我们已经观测到一组样本 

 要去估计未知参数 

 。一种直观的想法是,哪一组能数值使现在的样本 

 出现的可能性最大,哪一组参数可能就是真正的参数,我们就要用它作为参数的估计值。这
里,假定我们有一组样本 

 .如果对参数的两组不同的值 

 和

 ,似然函数有如下关系

   

 ,

  那么,从 

 又是概率密度函数的角度来看,上式的意义就是参数 

 使

 出现的可能性比参数 

 使 

 出现的可能性大,当然参数 

 比

 更像是真正的参数.这样的分析就导致了参数估计的一种方法,即用使似然函数
达到最大值的点

 ,作为未知参数的估计,这就是所谓的最大似然估计。 现在我们讨论求最大似然估计的具体方法.为简单起见,以下记 

 ,求θ的极大似然估计就归结为求 

 的最大值点.由于对数函数是单调增函数,所以

           

         (7.2.1)

 与 

 有相同的最大值点。而在许多情况下,求 

 的最大值点比较简单,于是,我们就将求 

 的最大值点改为求 

 的最大值点.对 

 关于 

 求导数,并命其等于零,得到方程组 

          

 ,     

                      
(7.2.2)

  称为似然方程组。解这个方程组,又能验证它是一个极大值点,则它必是 

 ,也就是 

 的最大值点,即为所求的最大似然估计。大多常用的重要例子多属于这种情况。然而在一些情
况下,问题比较复杂,似然方程组的解可能不唯一,这时就需要进一步判定哪一个是最大值点。

  还需要指出,若函数 

 关于 

 的导数不存在时,我们就无法得到似然方程组
(7.2.2),这时就必须根据最大似然估计的定义直接去 

 的最大值点。

  在一些情况下,我们需要估计 

 。如果 

 分别是 

 的最大似然估计,则称 

 为 

 的最大似然估计。 

  下面我们举一些例子来说明求最大似然估计的方法。

   例 7.2.1 设 从正态总体 

 抽出样本 

 ,这里未知参数为mm 

 和 

 (注意我们把 

 看作一个参数)。似然函数为

         

           
                    = 


  它的对数为

  

 ,

  似然方程组为 
           

 

  由第一式解得
           

 ,               (7.2.3)

    代入第二式得
           

 .             (7.2.4) 

  似然方程组有唯一解( 

 , 

 ),而且它一定是最大值点,这是因为当 

 或 

 或∞时,非负函数 

 。于是 

 和 

的最大似然估计为

         

 , 

 .        
(7.2.5) 

  这里,我们用大写字母表示所有涉及的样本,因为最大似然估计 

 和 

 都是统计量,离开了具体的一次试验或观测,它们都是随机的。

  例7.2.2 设总体 

 服从参数为的泊松分布,它的分布律为

         

 ,

 

  有了样本 

 之后,参数λ的似然函数为 
           

 ,

  似然方程为 
           

 ,

  解得

             

 . 

  因为 

 的二阶导数总是负值,可见,似然函数在 

 处达到最大值。所以, 

 是λ的最大似然估计。

  例7.2.3 设总体 

 为 

 上的均匀分布,求 

 的最大似然估计。

  

 的概率密度函数为

         

 

  对样本 

 ,

         


  很显然,L(a,b)作为a和b的
二元函数是不连续的。这时我们不能用似然方程组(7.2.2)来求最大似然估计,而必须从最大似然估计的定义出发,求L(a,b)的
最大值。为使L(a,b)达到最大,b-a应
该尽量地小,但b又不能小于 

 ,否则,L(a,b)=0。

  类似地,a不能大过 

 。因此,a和b的最
大似然估计为

          

 , 
            

 . 

  现在为止,我们以正态分布,泊松分布,均匀分布的参数以及事件发生的概率的估计为例子讨论了矩估计和最大似然估计。在我们所举的例子中,除了均匀分布 外,两种估计都是一致的。矩估计的优点是简单,只需知道总体的矩,总体的分布形式不必知道。而最大似然估计则必须知道总体分布形式,并且在一般情况下,似 然方程组的求解较复杂,往往需要在计算机上通过迭代运算才能计算出其近似解。

以下转自:http://blog.sina.com.cn/s/blog_5ecfd9d90100lh1c.html

最大似然法,英文名称是Maximum Likelihood Method,在统计中应用很广。这个方法的思想最早由高斯提出来,后来由菲舍加以推广并命名。

       最大似然法是要解决这样一个问题:给定一组数据和一个参数待定的模型,如何确定模型的参数,使得这个确定参数后的模型在所有模型中产生已知数据的概率最大。通俗一点讲,就是在什么情况下最有可能发生已知的事件。举个例子,假如有一个罐子,里面有黑白两种颜色的球,数目多少不知,两种颜色的比例也不知。我们想知道罐中白球和黑球的比例,但我们不能把罐中的球全部拿出来数。现在我们可以每次任意从已经摇匀的罐中拿一个球出来,记录球的颜色,然后把拿出来的球再放回罐中。这个过程可以重复,我们可以用记录的球的颜色来估计罐中黑白球的比例。假如在前面的一百次重复记录中,有七十次是白球,请问罐中白球所占的比例最有可能是多少?

我想很多人立马有答案:70%。这个答案是正确的。可是为什么呢?(常识嘛!这还要问?!)其实,在很多常识的背后,都有相应的理论支持。在上面的问题中,就有最大似然法的支持。

在很久以前的一个下午,自己在图书馆看书,书中讲到了同一独立分布(i.i.d., identical and independent distribution),与概率相关。当时已经听说最大似然法很长时间了,最大似然法在不同场合应用的结论看过不少,但自己还没有真正地学习和应用过。突然想到了上面的例子(类似的例子在自己以后的阅读很常见,当时没有意识到自己到底以前看过类似的例子没有),决定自己动手算一算。

下面会有一些数学,我知道西河比较深,大牛比较多,看了不要见笑。有意见和建议尽管提。

我们假设罐中白球的比例是p,那么黑球的比例就是1-p。因为每抽一个球出来,在记录颜色之后,我们把抽出的球放回了罐中并摇匀,所以每次抽出来的球的颜色服从同一独立分布。这里我们把一次抽出来球的颜色称为一次抽样。题目中在一百次抽样中,七十次是白球的概率是P(Data | M),这里Data是所有的数据,M是所给出的模型,表示每次抽出来的球是白色的概率为p。如果第一抽样的结果记为x1,第二抽样的结果记为x2,。。。那么Data
= (x1,x2,...,x100)。这样,
P(Data | M)
= P(x1,x2,...,x100|M)
= P(x1|M)P(x2|M)...P(x100|M)
= p^70(1-p)^30.
那么p在取什么值的时候,P(Data |M)的值最大呢?将p^70(1-p)^30对p求导,并其等于零。
70p^69(1-p)^30-p^70*30(1-p)^29=0。
解方程可以得到p=0.7。
在边界点p=0,1,P(Data|M)=0。所以当p=0.7时,P(Data|M)的值最大。这和我们常识中按抽样中的比例来计算的结果是一样的。

当时,自己推到完这些,心情很高兴,感觉自己理解了最大似然法。接着想到了连续变量。

假如我们有一组连续变量的采样值(x1,x2,...,xn),我们知道这组数据服从正态分布,标准差已知。请问这个正态分布的期望值为多少时,产生这个已有数据的概率最大?
P(Data | M) = ??

求导,u=(x1+x2+...+xn)/n.这个正态分布的期望值,就是这组数据的均值。在我们的日常生活和工作中,我们经常会用到平均值,这是有道理的,可以用最大似然法来解释。如果数据服从正态分布,这是最可能的数据。

当我第一次自己推导出这些的时候,心中有一种豁然开朗、恍然大悟的感觉:最大似然法就这样!

最大似然法原理简单,应用很广。举个例子,这样的情况在生活会经常遇到。假如人们会感染一种病毒,有一种测试方法,在被测试者已感染这个病毒时,测试结果为阳性的概率为95%。在被测试者没有感染这个病毒时,测试结果为阳性的概率为2%。现在,有一个人的测试结果为阳性,问这个人感染了病毒吗?根据最大似然法,如果一个人感染病毒,95%的测试结果会为阳性;而如果这个人没有感染病毒,只有2%的测试结果会为阳性,所以这个人应该是已经感染病毒了。

最大似然法应用广泛,但是经常会受到一种批评,而且对于这种批评,尤其在数据量比较小的时候,最大似然法的支持者没有很多充分的反驳理由:在最大似然法中,只考虑了由一个模型产生一个已知数据的概率,而没有考虑模型本身的概率。相对应的考虑了模型本身概率的方法,是贝叶斯方法(Bayesian method)。

在上面测试病毒的例子中,如果我们知道在整体人群中,只有1%人会感染这种病毒,那么,根据贝叶斯方法,这个被测试者只有1/3左右的可能性感染了病毒{1%*95%/(1%*95%+99%*2%)=32.4%}
在这里,我们看到先验概率对结果的影响很大。

不过,当数据量比较大的时候,先验概率的影响就会减小。比如,人们在被检测出感染了一个严重的病毒后,一般会去其他医院复查。假如同一个人在三家医院进行了独立的检查,结果都是阳性。那么,这个人真正感染了病毒的概率有多大?在这个人感染病毒时,出现这种检测结果的可能性为95%*95%*95% = 85.7%;而在这个人没有感染病毒时,出现这种检测结果的可能性为2%*2%*2%
= 0.000008。根据最大似然法,我们应选择这个人感染了病毒。

根据贝叶斯方法,这个人感染病毒的概率为1%*95%*95%*95%/(1%*95%*95%*95%+99%*2%*2%*2%) = 99.9%。

当然,当时自己主要体会了同一独立分布在最大似然法中的要求。在以后的一个应用中,才对“模型已知,参数未定”这一要求有了进一步的认识。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: