机器学习—局部加权线性回归
2016-11-01 10:02
375 查看
介绍之前先提稍微一下线性回归,用最小二乘法等方法,拟合出最适合训练集的一条直线。
我们得到了最小二乘的损失函数为
,
通过求得损失函数的极小值来求得参数。
局部加权线性回归的进行前提必须要有预测值x才可以进行,它的原理是损失函数变为
的表达式如下:
这里的x就是预测值,所以必须要有预测值才可以求出损失函数,通过求损失函数的极小值来得到参数。
与X的分布于正态分布类似,但和正态分布没有一毛钱关系。
图就不画了,说一下 当预测值和训练集很接近时,权值为1;当相隔很远时,权值为0
Γ的值提前也要设置好,这个代表着W(i)上升和下降的速率。
最后通过求得J(Θ)的极小值就可以得到Θ向量。
缺点很明显了,你想要预测一个值就要求一组Θ向量,当你要预测很多值(数据集很大)时,或者甚至你要预测几乎所有连续的X想得到一条拟合曲线时(微积分一段段线性回归的组合),这TM成本太高,计算太慢了,所以在看清数据集大小的情况下慎重选择算法模型。
PS.通俗一点讲就是利用接近预测值x的训练集点来拟合一条直线,某种意义讲你可以把它想象原来庞大的训练集分割成只有接近x的数据集来进行线性回归,但是这个和真正的局部加权线性回归不一样!记住了。
以下红色为局部线性回归模型,蓝色就是线线性回归,可以看到预测值在红色时比较精确。
当然可以想想看,如果拟合一条二次的曲线(即非线性),在图中的黄色曲线预测效果也是不错的。当然你可以选择1次,2次.....这样的模型去试,看看效果。如果你不想这么做,就可以选择局部线性回归。
额,有时间在上一python代码吧。
我们得到了最小二乘的损失函数为
,
通过求得损失函数的极小值来求得参数。
局部加权线性回归的进行前提必须要有预测值x才可以进行,它的原理是损失函数变为
的表达式如下:
这里的x就是预测值,所以必须要有预测值才可以求出损失函数,通过求损失函数的极小值来得到参数。
与X的分布于正态分布类似,但和正态分布没有一毛钱关系。
图就不画了,说一下 当预测值和训练集很接近时,权值为1;当相隔很远时,权值为0
Γ的值提前也要设置好,这个代表着W(i)上升和下降的速率。
最后通过求得J(Θ)的极小值就可以得到Θ向量。
缺点很明显了,你想要预测一个值就要求一组Θ向量,当你要预测很多值(数据集很大)时,或者甚至你要预测几乎所有连续的X想得到一条拟合曲线时(微积分一段段线性回归的组合),这TM成本太高,计算太慢了,所以在看清数据集大小的情况下慎重选择算法模型。
PS.通俗一点讲就是利用接近预测值x的训练集点来拟合一条直线,某种意义讲你可以把它想象原来庞大的训练集分割成只有接近x的数据集来进行线性回归,但是这个和真正的局部加权线性回归不一样!记住了。
以下红色为局部线性回归模型,蓝色就是线线性回归,可以看到预测值在红色时比较精确。
当然可以想想看,如果拟合一条二次的曲线(即非线性),在图中的黄色曲线预测效果也是不错的。当然你可以选择1次,2次.....这样的模型去试,看看效果。如果你不想这么做,就可以选择局部线性回归。
额,有时间在上一python代码吧。
相关文章推荐
- 【机器学习】局部加权线性回归
- 机器学习实战之线性回归+局部加权线性回归
- 机器学习:线性回归、局部加权线性回归、岭回归、前向逐步回归
- 【机器学习】局部加权线性回归
- 机器学习(三):局部加权线性回归算法、Logistic回归算法
- (斯坦福机器学习课程笔记)局部加权线性回归练习
- # 机器学习笔记2——参数学习、非参数学习、局部加权线性回归、线性回归的概率解释、logistics回归
- 机器学习python局部加权线性回归
- 机器学习基础(三十) —— 线性回归、正则化(regularized)线性回归、局部加权线性回归(LWLR)
- 机器学习笔记----最小二乘法,局部加权,岭回归讲解
- 机器学习---局部加权回归
- 机器学习(1)------ 线性回归、加权线性回归及岭回归的原理和公式推导
- 局部加权线性回归
- 线性回归-4-欠拟合、过拟合与局部加权线性回归
- 线性回归、局部加权线性回归、岭回归、lasso及逐步线性回归
- Locally weighted linear regression局部加权线性回归
- 加权最小二乘法与局部加权线性回归
- 线性回归和局部加权线性回归
- 局部加权线性回归
- Stanford大学机器学习公开课(三):局部加权回归、最小二乘的概率解释、逻辑回归、感知器算法