您的位置:首页 > 其它

机器学习—局部加权线性回归

2016-11-01 10:02 375 查看
介绍之前先提稍微一下线性回归,用最小二乘法等方法,拟合出最适合训练集的一条直线。

我们得到了最小二乘的损失函数为   


通过求得损失函数的极小值来求得参数。

局部加权线性回归的进行前提必须要有预测值x才可以进行,它的原理是损失函数变为 



的表达式如下:



这里的x就是预测值,所以必须要有预测值才可以求出损失函数,通过求损失函数的极小值来得到参数。

与X的分布于正态分布类似,但和正态分布没有一毛钱关系。

图就不画了,说一下   当预测值和训练集很接近时,权值为1;当相隔很远时,权值为0

Γ的值提前也要设置好,这个代表着W(i)上升和下降的速率。

最后通过求得J(Θ)的极小值就可以得到Θ向量。

      缺点很明显了,你想要预测一个值就要求一组Θ向量,当你要预测很多值(数据集很大)时,或者甚至你要预测几乎所有连续的X想得到一条拟合曲线时(微积分一段段线性回归的组合),这TM成本太高,计算太慢了,所以在看清数据集大小的情况下慎重选择算法模型。

PS.通俗一点讲就是利用接近预测值x的训练集点来拟合一条直线,某种意义讲你可以把它想象原来庞大的训练集分割成只有接近x的数据集来进行线性回归,但是这个和真正的局部加权线性回归不一样!记住了。

以下红色为局部线性回归模型,蓝色就是线线性回归,可以看到预测值在红色时比较精确。

当然可以想想看,如果拟合一条二次的曲线(即非线性),在图中的黄色曲线预测效果也是不错的。当然你可以选择1次,2次.....这样的模型去试,看看效果。如果你不想这么做,就可以选择局部线性回归。

额,有时间在上一python代码吧。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  函数 机器学习