公开课机器学习笔记(16)学习理论一 经验风险最小化ERM
2015-03-29 15:19
232 查看
本篇与前面不同,主要内容不是算法,而是机器学习的另一部分内容——学习理论。主要包括偏差/方差(Bias/variance)、经验风险最小化(Empirical Risk Minization,ERM)、联合界(Union bound)、一致收敛(Uniform Convergence)。
Ng对学习理论的重要性很是强调,他说理解了学习理论是对机器学习只懂皮毛的人和真正理解机器学习的人的区别。学习理论的重要性在于通过它能够针对实际问题更好的选择模型,修改模型。
Ng对学习理论的重要性很是强调,他说理解了学习理论是对机器学习只懂皮毛的人和真正理解机器学习的人的区别。学习理论的重要性在于通过它能够针对实际问题更好的选择模型,修改模型。
相关文章推荐
- 学习理论之经验风险最小化——Andrew Ng机器学习笔记(七)
- 经验风险最小化(ERM, Empirical risk minimization)
- 经验风险最小化(ERM, Empirical risk minimization)
- 经验风险最小化(Empirical Risk Minization,ERM)
- 第九集 经验风险最小化(ERM)
- 第九集 经验风险最小化(ERM)
- 吴恩达机器学习之经验风险最小化
- 统计学习方法学习笔记(二)--经验风险最小化,结构风险最小化
- 经验风险最小化
- 特定条件下经验风险最小化等价于极大似然估计的证明(转载)
- 斯坦福ML公开课笔记9—偏差/方差、经验风险最小化、联合界、一致收敛
- 【斯坦福---机器学习】复习笔记之经验风险最小化
- 经验风险最小化与结构风险最小化笔记
- 斯坦福ML公开课笔记9—偏差/方差、经验风险最小化、联合界、一致收敛
- 逻辑回归关于经验风险最小化的凸近似体现
- 机器学习 之 SVM VC维度、样本数目与经验风险最小化的关系
- svm、经验风险最小化、vc维
- svm、经验风险最小化、vc维
- 经验风险最小化 与 结构风险最小化