Linear Regression with Multiple Variables
2015-12-18 09:59
295 查看
Linear Regression with Multiple Variables
=====================================multiple-features====================================
1、特征:
![](https://img-blog.csdn.net/20151218090955638?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注: Hypothesis 假设
Patameters 参数
Costfunction 代价函数
=============================gradient-descent-for-multiple-variables==========================
2、梯度下降算法
![](https://img-blog.csdn.net/20151218091106273?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
3、单变量和多变量梯度下降算法的不同
![](https://img-blog.csdn.net/20151218091255745?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
===================================-feature-scaling=======================================
4、特征缩放
![](https://img-blog.csdn.net/20151218092052077?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:如果x1的范围是0-2000,x2的范围是1-5,那么costfunction如左图所示,其导致的结果就是梯度下降算法需 要运行很多次数才可以找到局部最优解。
如果x1的范围是0-1,x2的范围是0-1,那么costfunction的范围如右图所示,costfunction只需要很少的运 行次数就可以找到局部最优解
![](https://img-blog.csdn.net/20151218092452375?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:最好使每个特征的值在[0,1]的范围内,不要太大,也不要太小,当然在[-3,3],[-1/3,1/3]的范围是可以接受的。
如果特征值的范围相似也是没有问题的。
![](https://img-blog.csdn.net/20151218092648237?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:(x-u)/s来统一规划特征值的范围,u是特征值的平均数,s是特征值的(max-min)
======================================learning-rate=======================================
5、梯度下降算法的正确运行
![](https://img-blog.csdn.net/20151218093104108?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:学习率α要取比较小的值,但是不要太小
![](https://img-blog.csdn.net/20151218092923171?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:如果每次减少的步长少于10的-3次方,则发出警告
![](https://img-blog.csdn.net/20151218093219575?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
6、正规方程
![](https://img-blog.csdn.net/20151218095344016?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:另一种求theta的方法,一种是梯度下降
![](https://img-blog.csdn.net/20151218095445823?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
注:遇到不可逆情况的原因,1、多余的特征,2、特征太多
=====================================multiple-features====================================
1、特征:
注: Hypothesis 假设
Patameters 参数
Costfunction 代价函数
=============================gradient-descent-for-multiple-variables==========================
2、梯度下降算法
3、单变量和多变量梯度下降算法的不同
===================================-feature-scaling=======================================
4、特征缩放
注:如果x1的范围是0-2000,x2的范围是1-5,那么costfunction如左图所示,其导致的结果就是梯度下降算法需 要运行很多次数才可以找到局部最优解。
如果x1的范围是0-1,x2的范围是0-1,那么costfunction的范围如右图所示,costfunction只需要很少的运 行次数就可以找到局部最优解
注:最好使每个特征的值在[0,1]的范围内,不要太大,也不要太小,当然在[-3,3],[-1/3,1/3]的范围是可以接受的。
如果特征值的范围相似也是没有问题的。
注:(x-u)/s来统一规划特征值的范围,u是特征值的平均数,s是特征值的(max-min)
======================================learning-rate=======================================
5、梯度下降算法的正确运行
注:学习率α要取比较小的值,但是不要太小
注:如果每次减少的步长少于10的-3次方,则发出警告
6、正规方程
注:另一种求theta的方法,一种是梯度下降
注:遇到不可逆情况的原因,1、多余的特征,2、特征太多
相关文章推荐
- Todd.log - a place to keep my thoughts on programming
- 10句名言
- Symmetric Tree leetcode java
- GATT协议介绍
- jquery控制导航定位,浮动窗跟随网页变化
- leetcode刷题日记——Lowest Common Ancestor of a Binary Search Tree
- Java之—— SSH整合常见错误
- Android之ListView实现图文信息混排(客户端)(二)
- iOS 跳转到AppStore 详情页 评论页
- 在vs2013中引用boost库
- HDFS分布式文件系统资源管理器开发总结
- log4j在框架中的使用
- problem parm crash 照相机的问题
- 实习过程学习(4):java跨项目访问
- spring aop 错误解决无法查询到internalAutoProxyCreator
- java-System.getEnv()与System.getProperties()
- 基本排序_选择排序_Java实现
- php生成随机字符串
- Binary Tree Zigzag Level Order Traversal
- 树莓派——root用户和sudo