10-4-Gradient Descent
2015-10-30 23:50
204 查看
10-4-Gradient Descent
我们现在来看看 Iterative Optimization, 我们要找到一个 v ,决定它要跨多大一步出去,然后一直更新 w ,求到一个希望是越来越好的 w 。那么在 PLA 里是怎么做的,PLA 更新的方向是修正错误的方向。如果今天我们面对的是像 Logistic Regression 这样的 E(in) ,它是平滑的,这样的 E(in) 它可能会做一些不一样的事情,有一个可能是这样。Logistic Regression 的 error 长的就像是一个山坡的样子,现在想象我们把球放在山坡的某一个地方,也就是对于某一个 w , 我们要怎样更新 w ? 我们想象把球从山坡上滚下去,球慢慢滚,滚到谷底的时候呢,我们就知道我们找到了那个 Gradient 是 0 的点。我们现在的概念就是把球滚下去。
相关文章推荐
- 用Python从零实现贝叶斯分类器的机器学习的教程
- My Machine Learning
- 机器学习---学习首页 3ff0
- 也谈 机器学习到底有没有用 ?
- 量子计算机编程原理简介 和 机器学习
- 初识机器学习算法有哪些?
- 10个关于人工智能和机器学习的有趣开源项目
- 机器学习实践中应避免的7种常见错误
- 机器学习书单
- 北美常用的机器学习/自然语言处理/语音处理经典书籍
- 如何提升COBOL系统代码分析效率
- 自动编程体系设想(一)
- 自动编程体系设想(一)
- 支持向量机(SVM)算法概述
- 神经网络初步学习手记
- 常用的分类评估--基于R语言
- 开始spark之旅
- spark的几点备忘
- 关于机器学习的学习笔记(一):机器学习概念
- 关于机器学习的学习笔记(二):决策树算法