神经网络中常用的误差平方和损失函数是什么
2016-11-16 21:06
155 查看
最小二乘法是线性回归的一种,OLS将问题转化成了一个凸优化问题。在线性回归中,它假设样本和噪声都服从高斯分布(为什么假设成高斯分布呢?其实这里隐藏了一个小知识点,就是中心极限定理,可以参考【central limit theorem】),最后通过极大似然估计(MLE)可以推导出最小二乘式子。最小二乘的基本原则是:最优拟合直线应该是使各点到回归直线的距离和最小的直线,即平方和最小。换言之,OLS是基于距离的,而这个距离就是我们用的最多的欧几里得距离。为什么它会选择使用欧式距离作为误差度量呢(即Mean squared error, MSE),主要有以下几个原因:
简单,计算方便;
欧氏距离是一种很好的相似性度量标准;
在不同的表示域变换后特征性质不变。
平方损失(Square loss)的标准形式如下:
L(Y,f(X))=(Y−f(X))2L(Y,f(X))=(Y−f(X))2
当样本个数为n时,此时的损失函数变为:
L(Y,f(X))=∑i=1n(Y−f(X))2
Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。
而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:
MSE=(∑i=1n(Y−f(X))2)/N
上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数αα的线性函数。在机器学习中,通常指的都是后一种情况。
简单,计算方便;
欧氏距离是一种很好的相似性度量标准;
在不同的表示域变换后特征性质不变。
平方损失(Square loss)的标准形式如下:
L(Y,f(X))=(Y−f(X))2L(Y,f(X))=(Y−f(X))2
当样本个数为n时,此时的损失函数变为:
L(Y,f(X))=∑i=1n(Y−f(X))2
Y-f(X)表示的是残差,整个式子表示的是残差的平方和,而我们的目的就是最小化这个目标函数值(注:该式子未加入正则项),也就是最小化残差的平方和(residual sum of squares,RSS)。
而在实际应用中,通常会使用均方差(MSE)作为一项衡量指标,公式如下:
MSE=(∑i=1n(Y−f(X))2)/N
上面提到了线性回归,这里额外补充一句,我们通常说的线性有两种情况,一种是因变量y是自变量x的线性函数,一种是因变量y是参数αα的线性函数。在机器学习中,通常指的都是后一种情况。
相关文章推荐
- 神经网络的应用领域及常用神经网络软件
- 神经网络常用函数
- 机器学习/CNN系列小问题(1):逻辑回归和神经网络之间有什么关系?
- 深度学习算法实践3---神经网络常用操作实现
- CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
- 常用神经网络模型及其应用评述
- 深度学习算法实践3---神经网络常用操作实现
- 常用神经网络
- 如何简单形象又有趣地讲解神经网络是什么?
- 深度学习和神经网络的区别是什么
- 什么是神经网络
- 什么是神经网络或者微粒群算法所说的陷入 局部极小值?局部极小值是什么?
- 深度学习之一---什么是神经网络
- 如何简单形象又有趣地讲解神经网络是什么?
- CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
- 【Introduction】什么是神经网络?
- 机器学习、统计分析、数据挖掘、神经网络、人工智能、模式识别之间的关系是什么?
- CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?
- 如何简单形象又有趣地讲解神经网络是什么?
- CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别?