通俗理解最大似然估计,最大后验概率估计,贝叶斯估计
2017-05-04 15:41
405 查看
以下所有例子都是抛硬币问题,在两次试验中出现正,反两次结果,求该硬币出现正面的概率p,
最大似然估计:
假设分布为伯努利分布,也就是二项分布,出现正面的概率是p,则下次出现上述实验结果现象的概率是:L=P(1-p),如何才能让下次出现相同结过的概率最大?自然是L越大越好,则p=0.5,所以极大似然估计的核心思想是求参数为何值时才能使样本出现的概率最大。
最大后验概率估计:
我们知道,一般硬币不是假的话基本都是0.5的概率,所以出现正面p=0.5的概率非常高,这就是所谓的先验知识。下面继续分析,为了好理解,都用离散的来表示,假如p只能等于0.5,或者0.4,等于0.5的概率为0.9,等于0.4的概率为0.1(也就是说假钱的概率为0.1),那么再抛出一正一反的概率是多少?肯定是L=p(1-p)*g(p),其中g(p)代表p出现的概率,经过计算可以知道是p=0.5时L最大。
贝叶斯估计:(前两种都是假设参数是个确定值,但是贝叶斯假设参数是个随机数)
贝叶斯是对最大后验概率的补充,已知上一步的L(0.5)=0.225,L(0.4)=0.024,则L等于0.5的概率为0.225/(0.225+0.024=0.90361,出现0.4的概率为0.009638,可以发现根据样本得到的后验概率与之前先验概率是有区别的,也就是说,我们利用实验结果和经验来推不确定的事,所以贝叶斯估计的参数是个随机变量,如果非要给出一个值得话就是这个值得期望,在这里就是0.90361*0.5+0.009638*0.4。
以上是非常粗线条的思想,没有公式推导和理论,很多地方不严谨,但是核心思想就是这样。
最大似然估计:
假设分布为伯努利分布,也就是二项分布,出现正面的概率是p,则下次出现上述实验结果现象的概率是:L=P(1-p),如何才能让下次出现相同结过的概率最大?自然是L越大越好,则p=0.5,所以极大似然估计的核心思想是求参数为何值时才能使样本出现的概率最大。
最大后验概率估计:
我们知道,一般硬币不是假的话基本都是0.5的概率,所以出现正面p=0.5的概率非常高,这就是所谓的先验知识。下面继续分析,为了好理解,都用离散的来表示,假如p只能等于0.5,或者0.4,等于0.5的概率为0.9,等于0.4的概率为0.1(也就是说假钱的概率为0.1),那么再抛出一正一反的概率是多少?肯定是L=p(1-p)*g(p),其中g(p)代表p出现的概率,经过计算可以知道是p=0.5时L最大。
贝叶斯估计:(前两种都是假设参数是个确定值,但是贝叶斯假设参数是个随机数)
贝叶斯是对最大后验概率的补充,已知上一步的L(0.5)=0.225,L(0.4)=0.024,则L等于0.5的概率为0.225/(0.225+0.024=0.90361,出现0.4的概率为0.009638,可以发现根据样本得到的后验概率与之前先验概率是有区别的,也就是说,我们利用实验结果和经验来推不确定的事,所以贝叶斯估计的参数是个随机变量,如果非要给出一个值得话就是这个值得期望,在这里就是0.90361*0.5+0.009638*0.4。
以上是非常粗线条的思想,没有公式推导和理论,很多地方不严谨,但是核心思想就是这样。
相关文章推荐
- 最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
- 先验概率、最大似然估计、贝叶斯估计、最大后验概率
- 详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解
- 先验概率、最大似然估计、贝叶斯估计、最大后验概率
- 转 通俗理解 最小二乘 和 最大似然估计
- 模式分类对于最大似然参数估计与贝叶斯参数估计的一些理解
- 最大似然估计的通俗理解(2013.9.29)
- 文本语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
- 文本语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
- 模式识别:最大似然估计与贝叶斯估计方法
- 误差理论、贝叶斯、最大似然与最小二乘估计
- 文本语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
- 最大似然估计、最大后验估计和贝叶斯估计的关系
- 极大似然估计,最大后验概率估计(MAP),贝叶斯估计
- 文本语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
- 语言模型的参数估计-最大似然估计、MAP及贝叶斯估计
- 参数估计-最大似然估计和贝叶斯参数估计
- 参数估计法——最大似然估计和贝叶斯参数估计
- 最大似然估计、MAP及贝叶斯估计
- 详解最大似然估计(MLE)、最大后验概率估计(MAP),以及贝叶斯公式的理解