[机器学习2]模型与代价函数
2017-07-30 21:05
363 查看
原文地址:
1.https://www.coursera.org/learn/machine-learning/supplement/cRa2m/model-representation
2.https://www.coursera.org/learn/machine-learning/supplement/nhzyF/cost-function
3.https://www.coursera.org/learn/machine-learning/supplement/u3qF5/cost-function-intuition-i
4.https://www.coursera.org/learn/machine-learning/supplement/9SEeJ/cost-function-intuition-ii
为了更准确地描述监督学习问题,我们的目标是给出一个训练集,以学习一个函数h:X→Y,以便h(x)是相应的y值的“好”预测因子。 由于历史原因,这个函数h被称为假设。 从形象上看,过程如下:
![](http://img.blog.csdn.net/20170730210010703)
当我们试图预测的目标变量是连续的,例如在我们的住房例子中,我们将学习问题称为回归问题。当y可以只接受少量的离散值(例如,如果给定生活区域,我们想预测一个住宅是住宅还是公寓,说),我们称之为分类问题。
这取决于x的输入和实际输出y所有结果的平方差。
![](http://img.blog.csdn.net/20170730210048402)
此函数也称为“平方误差函数”或“均方误差函数”。 平均值减半(1/2)为方便计算梯度下降,平方函数的微分项将抵消1/2项。 以下图片总结了成本函数的作用:
![](http://img.blog.csdn.net/20170730210123080)
我们的目标是获得最好的线。
最好的线将是这样的,使得来自线路的散点的平均垂直距离将是最小的。 理想情况下,线路应通过我们训练数据集中的所有点。在这种情况下,J(θ0,θ1)的值将为0.以下示例显示了我们的成本函数为0的理想情况。
![](http://img.blog.csdn.net/20170730210145848)
当θ1= 1时,我们得到一个斜率为1,经过我们模型中的每一个数据点。 相反,当θ1=
0.5时,我们看到从拟合到数据点的垂直距离增加。
![](http://img.blog.csdn.net/20170730210213703)
这将我们的代价函数提高到0.58。 绘制其他几点可以得到以下图表:
![](http://img.blog.csdn.net/20170730210232119)
因此,我们的目标应该尽量减少代价函数。
在这种情况下,θ1= 1是我们的全局最小值。
同一个轮廓线上的两个变量的所有值对应的代价函数值是相同的。 这样的图表的例子是下面的图。
![](http://img.blog.csdn.net/20170730210249377)
取任何颜色的轮廓线会得到相同的成本函数值。
例如,上面绿线上发现的三个绿点与J(θ0,θ1)具有相同的值,因此它们沿一轮廓线找到。 当θ0=
800和θ1= -0.15时,圆圈x显示左侧图形的成本函数值。
再取另一个h(x)并绘制其轮廓图,得到以下图形:
![](http://img.blog.csdn.net/20170730210309386)
当θ0= 360和θ1= 0时,轮廓图中J(θ0,θ1)的值越接近中心,从而降低成本函数误差。
现在给假设函数选择一个小的正斜率来使数据更好的拟合。
![](http://img.blog.csdn.net/20170730210326421)
上面的图表尽可能地最小化了代价函数,因此θ1和θ0的结果分别为0.12和250左右。
将图表上的这些值绘制到右边,可以看到目标值几乎在内部最“圆”的中心。
1.https://www.coursera.org/learn/machine-learning/supplement/cRa2m/model-representation
2.https://www.coursera.org/learn/machine-learning/supplement/nhzyF/cost-function
3.https://www.coursera.org/learn/machine-learning/supplement/u3qF5/cost-function-intuition-i
4.https://www.coursera.org/learn/machine-learning/supplement/9SEeJ/cost-function-intuition-ii
1.模型表示
为了建立未来使用的符号,将使用x(i)来表示“输入”变量,也称为输入特征,y(i)表示“输出”或目标变量。 一对(x(i),y(i))被称为训练样本,我们将要用于学习的数据集 - 训练样本(x(i),y(i))的列表; i = 1,...,m-称为训练集。 请注意,上标“(i)”中的符号只是训练集中的一个指标。 我们还将使用X来表示输入值的空间,Y表示输出值的空间。 在这个例子中,X = Y =ℝ。为了更准确地描述监督学习问题,我们的目标是给出一个训练集,以学习一个函数h:X→Y,以便h(x)是相应的y值的“好”预测因子。 由于历史原因,这个函数h被称为假设。 从形象上看,过程如下:
当我们试图预测的目标变量是连续的,例如在我们的住房例子中,我们将学习问题称为回归问题。当y可以只接受少量的离散值(例如,如果给定生活区域,我们想预测一个住宅是住宅还是公寓,说),我们称之为分类问题。
2.代价函数
我们可以使用代价函数来衡量我们的假设函数的准确性。这取决于x的输入和实际输出y所有结果的平方差。
此函数也称为“平方误差函数”或“均方误差函数”。 平均值减半(1/2)为方便计算梯度下降,平方函数的微分项将抵消1/2项。 以下图片总结了成本函数的作用:
示例1:
如果我们尝试在视觉上考虑它,我们的训练数据集分散在x-y平面上。 我们试图做一条直线(由hθ(x)定义),它通过这些分散的数据点。我们的目标是获得最好的线。
最好的线将是这样的,使得来自线路的散点的平均垂直距离将是最小的。 理想情况下,线路应通过我们训练数据集中的所有点。在这种情况下,J(θ0,θ1)的值将为0.以下示例显示了我们的成本函数为0的理想情况。
当θ1= 1时,我们得到一个斜率为1,经过我们模型中的每一个数据点。 相反,当θ1=
0.5时,我们看到从拟合到数据点的垂直距离增加。
这将我们的代价函数提高到0.58。 绘制其他几点可以得到以下图表:
因此,我们的目标应该尽量减少代价函数。
在这种情况下,θ1= 1是我们的全局最小值。
示例2:
轮廓图是包含许多轮廓线的图形。同一个轮廓线上的两个变量的所有值对应的代价函数值是相同的。 这样的图表的例子是下面的图。
取任何颜色的轮廓线会得到相同的成本函数值。
例如,上面绿线上发现的三个绿点与J(θ0,θ1)具有相同的值,因此它们沿一轮廓线找到。 当θ0=
800和θ1= -0.15时,圆圈x显示左侧图形的成本函数值。
再取另一个h(x)并绘制其轮廓图,得到以下图形:
当θ0= 360和θ1= 0时,轮廓图中J(θ0,θ1)的值越接近中心,从而降低成本函数误差。
现在给假设函数选择一个小的正斜率来使数据更好的拟合。
上面的图表尽可能地最小化了代价函数,因此θ1和θ0的结果分别为0.12和250左右。
将图表上的这些值绘制到右边,可以看到目标值几乎在内部最“圆”的中心。
相关文章推荐
- 《机器学习》第一周 一元回归法 | 模型和代价函数,梯度下降
- 机器学习1.1--模型和代价函数
- 机器学习中的代价函数
- Machine Learning(Stanford)| 斯坦福大学机器学习笔记--第一周(3.代价函数直观理解)
- 【机器学习】代价函数,损失函数,目标函数区别
- [ML笔记]模型表示与代价函数
- Machine Learning(Stanford)| 斯坦福大学机器学习笔记--第一周(2.线性回归,代价函数)
- 第一周-机器学习-代价函数_intuition
- 机器学习笔记-6.5逻辑回归的代价函数及其求导
- 机器学习之代价函数
- Machine Learning(Stanford)| 斯坦福大学机器学习笔记--第一周(3.代价函数直观理解)
- 机器学习-3 cost function 代价函数
- 机器学习中代价函数选择的数学推导
- 机器学习教程 之 支持向量机:模型篇4–核函数与非线性优化
- 逻辑回归模型的代价函数对参数的偏导数--推导过程
- 机器学习之svm(3)回归模型与神秘的核函数之间有什么联系吗?
- 机器学习-斯坦福课程系列2【代价函数】
- [机器学习]代价函数
- 逻辑回归模型及其代价函数推导
- 机器学习之——判定边界和逻辑回归模型的代价函数