您的位置:首页 > 其它

应用机器学习建议

2016-09-13 01:39 225 查看
本文是Andrew Ng在Coursera的机器学习课程的笔记。


动机

当一个算法在训练集表现优秀,但在测试集表现不佳时,我们需要考虑如何改良算法。方法包括:
修改拟合函数的最高阶数
增加或者减少特征数
修改regularization参数λ
增加样本数,扩大数据集
...

该从何处下手?乱试是不行的,我们可以按照以下步骤来评估各种方法的效能。

在评估之前,我们先将数据集划分为{训练集,交叉验证集,测试集}三个子集,这三个子集可以分别占总集的60%,20%,20%,我们用训练集来训练模型,用交叉验证集来挑选模型参数,用测试集来测试模型的泛化能力。


挑选拟合函数

拟合函数的阶数太小的时候,拟合函数表现能力弱,太大时,表现能力加强。因此,拟合函数的阶数:
过小时,容易发生欠拟合
过大时,容易发生过拟合

对于神经网络,增加hidden layer相当于增加拟合函数的阶。增加hidden layer、多项式组合等,都是增加feature的个数的方法。


正则化参数

正则化参数用于限制学习得到的参数,使参数不会太大,以此来防止过拟合。
过小时,限制有限,容易发生过拟合
过大时,限制过度,容易发生欠拟合


数据集合大小

给定一个数据集合,如果我们学到一个欠拟合模型,那么:
数据集很小时,训练集的误差代价比较小,但是交叉验证集的误差代价会很大
数据集很大时,训练集和交叉验证集的代价都会很大

反之,如果我们学到一个过拟合模型,那么:
数据集很小时,训练集的误差代价比较小,但是交叉验证集的误差代价会很大(同上),二者之间存在较大的的gap
数据集很大时,模型的泛化能力变强,不再容易出现过拟合现象,训练集和交叉验证集的误差代价都会降下来


小结

一个判断欠拟合(high bias)还是过拟合(high variance)的方法:
欠拟合:J_train 和 J_cv 的值相近,且都很大
过拟合:J_train 值很小,且 J_cv 的值远大于J_train的值



(2014年7月25日补充)

在作业中,利用梯度下降法计算θ的值时,需要考虑正则项,但是计算代价函数J_train与J_cv时,不考虑正则项。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐