最小二乘法与极大似然估计的区别
2017-10-02 09:24
225 查看
最小二乘法
基本思想
简单地说,最小二乘的思想就是要使得观测点和估计点的距离的平方和达到最小.这里的“二乘”指的是用平方来度量观测点与估计点的远近(在古汉语中“平方”称为“二乘”),“最小”指的是参数的估计值要保证各个观测点与估计点的距离的平方和达到最小
最小二乘的作用
用于得到回归方程的参数的一个最优估值。在统计学上,该估值可以很好的拟合训练样本。并且对于新的输入样本,当有了参数估值后,带入公式可以得到输入样本的输出。
如何求解最小二乘
多元函数求极值的方法,对θ求偏导,让偏导等于0,求出θ值。当θ为向量时,需要对各个θi求偏导计算。
极大似然估计
基本思想
当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大,而不是像最小二乘估计法旨在得到使得模型能最好地拟合样本数据的参数估计量。
对数似然函数
当样本为独立同分布时,似然函数可简写为L(α)=Πp(xi;α),牵涉到乘法不好往下处理,于是对其取对数研究,得到对数似然函数l(α)=ln L(α)=Σln p(xi;α) 区别
对于最小二乘法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小。
而对于最大似然法,当从模型总体随机抽取n组样本观测值后,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大。
显然,这是从不同原理出发的两种参数估计方法。
在最大似然法中,通过选择参数,使已知数据在某种意义下最有可能出现,而某种意义通常指似然函数最大,而似然函数又往往指数据的概率分布函数。与最小二乘法不同的是,最大似然法需要已知这个概率分布函数,这在时间中是很困难的。一般假设其满足正态分布函数的特性,在这种情况下,最大似然估计和最小二乘估计相同。
最小二乘法以估计值与观测值的差的平方和作为损失函数,极大似然法则是以最大化目标值的似然概率函数为目标函数,从概率统计的角度处理线性回归并在似然概率函数为高斯函数的假设下同最小二乘建立了的联系。
一个是有参数估计,一个是没有参数估计。
相关文章推荐
- 极大似然估计和最小二乘法区别
- 最小二乘法和梯度下降法有哪些区别? 以及梯度下降法Python实现
- 最小二乘法和极大似然法的区别与联系
- 最小二乘法和最大似然估计的联系和区别(转)
- 最小二乘法与梯度下降法有哪些区别?
- 最小二乘法和梯度下降法有哪些区别?
- 贝叶斯估计和极大似然估计到底有何区别
- 最小二乘法与梯度下降法的区别?
- 最小二乘法、梯度下降法和两者区别
- 最小二乘法 与 均方误差的区别 哈哈哈 相信很多人都没注意到
- 最小二乘法与极大似然估计
- 最小二乘法与极大似然估计的区别与联系
- 最小二乘法以及最小二乘法和梯度下降法的区别
- [置顶] 最小二乘法和梯度下降法有哪些区别?
- 极大似然估计与最小二乘法(转自知乎)
- 最小二乘法和梯度下降法的区别?
- 最小二乘法与极大似然估计
- 男的朋友~~男朋友~~~老公的区别
- minSdkVersion、targetSdkVersion、targetApiLevel的区别
- SAX和DOM的区别