Linear Regression(线性回归)(三)—代价函数J(θ)选择的概率解释
2014-03-08 00:32
218 查看
(整理自AndrewNG的课件,转载请注明。整理者:华科小涛@http://www.cnblogs.com/hust-ghtao/)
在遇到线性回归问题时,我们总是令
。可是我们为什么这样选择代价函数呢?我们提到过是为了使目标变量(指
)的真实值和预测值的距离最小,想想也算合理。但是本篇博文将从概率的角度解释为什么这么选择代价函数,相信大家看完之后就会明白这个选择之后蕴含的更加深层次的原因。
首先,让我们假设:输入变量和目标变量满足等式
,其中误差
表示在建模过程中没有考虑到的,但是对预测结果有影响的因素或者是指随机的噪声。根据实际观测和中心极限定理知,这些因素都服从正态分布,进一步假设这些误差之间是独立同分布的,则它们的和也服从正态分布,且均值为0,方差为
。上述结论可以写成:
,这表明
:
,其中符号
表示以
为参数,给定
时
的分布。如果给定
(设计矩阵,包括所有的
)和
,则目标变量的分布可以写成:
,对于给定的
,我们可以将它看成关于
的函数。从另一个角度,我们也可以把它看成是关于
的函数,称为似然函数:
,由于已经假设
之间独立同分布,这个公式可以写成:
,现在已经得出表示
和
之间关系的概率模型,现在回到最初的问题,如何学习参数
?最大似然函数原理:我们应该选择使似然函数最大时对应的
值,因为这么选择,训练集中的对应的样本发生的概率是最大的。就是说,事件发生了,我们就认为此事件发生的概率是最大的。
所以我们要求出使
取得最大值时的
:为方便计算,一般对似然函数取对数:
,显然,使
最大化,等价于是
最小化,这不就是我们最初选择的代价函数么?任务完成。
总结一下:通过对数据作出合理的概率假设,得出最小二乘回归可以使得似然函数取得最大值的结论。另外,在前面的回归方法中,我们没有考虑到方差
的影响,此文章证明
的选择确实与
无关。在没有提出概率解释之前,我们用距离的概念解释了选择代价函数为最小二乘的合理性,本文又通过概率进行了解释,两方面互相呼应,使理解更加深刻。一点点小体会:要多读书,只有博采众长,才可以相互印证。
在遇到线性回归问题时,我们总是令
。可是我们为什么这样选择代价函数呢?我们提到过是为了使目标变量(指
)的真实值和预测值的距离最小,想想也算合理。但是本篇博文将从概率的角度解释为什么这么选择代价函数,相信大家看完之后就会明白这个选择之后蕴含的更加深层次的原因。
首先,让我们假设:输入变量和目标变量满足等式
,其中误差
表示在建模过程中没有考虑到的,但是对预测结果有影响的因素或者是指随机的噪声。根据实际观测和中心极限定理知,这些因素都服从正态分布,进一步假设这些误差之间是独立同分布的,则它们的和也服从正态分布,且均值为0,方差为
。上述结论可以写成:
,这表明
:
,其中符号
表示以
为参数,给定
时
的分布。如果给定
(设计矩阵,包括所有的
)和
,则目标变量的分布可以写成:
,对于给定的
,我们可以将它看成关于
的函数。从另一个角度,我们也可以把它看成是关于
的函数,称为似然函数:
,由于已经假设
之间独立同分布,这个公式可以写成:
,现在已经得出表示
和
之间关系的概率模型,现在回到最初的问题,如何学习参数
?最大似然函数原理:我们应该选择使似然函数最大时对应的
值,因为这么选择,训练集中的对应的样本发生的概率是最大的。就是说,事件发生了,我们就认为此事件发生的概率是最大的。
所以我们要求出使
取得最大值时的
:为方便计算,一般对似然函数取对数:
,显然,使
最大化,等价于是
最小化,这不就是我们最初选择的代价函数么?任务完成。
总结一下:通过对数据作出合理的概率假设,得出最小二乘回归可以使得似然函数取得最大值的结论。另外,在前面的回归方法中,我们没有考虑到方差
的影响,此文章证明
的选择确实与
无关。在没有提出概率解释之前,我们用距离的概念解释了选择代价函数为最小二乘的合理性,本文又通过概率进行了解释,两方面互相呼应,使理解更加深刻。一点点小体会:要多读书,只有博采众长,才可以相互印证。
相关文章推荐
- 极大似然法推导线性回归和逻辑回归代价(cost)函数
- CS229学习笔记之概率解释与局部加权线性回归
- 用最小二乘做为线性回归的代价函数的一些解释
- 机器学习基础(四)LMS,代价函数的求解和概率意义 分类: 机器学习 2015-01-26 14:52 114人阅读 评论(0) 收藏
- 单变量线性回归中的梯度下降法求解代价函数的最小值
- 机器学习基础(四)LMS,代价函数的求解和概率意义
- 机器学习中代价函数选择的数学推导
- Machine Learning第一讲[单变量线性回归] --(一)模型和代价函数
- 根据概率选择函数
- Coursera机器学习机器学习笔记 为什么线性回归中代价函数除以2m?
- 逻辑回归中代价函数的选择.凸优化问题
- 线性回归及其概率解释、正则化(转)
- 【机器学习入门】Andrew NG《Machine Learning》课程笔记之二 :基本概念、代价函数、梯度下降和线性回归
- 线性回归中最小二乘的概率解释
- 线性回归 Linear regression(3) 线性回归的概率解释
- 条款35: 考虑virtual函数以外的选择
- libSVM简介及核函数模型选择
- 选择偏好(Selectional Preference)概念解释及其相关研究
- [收藏]ORACLE函数大全 选择自 AustinLei 的 Blog
- C语言版的线性回归分析函数