(模型选取)Fitting a Model to Data
2015-09-01 14:40
267 查看
我们常常需要将数值变量正规化(normalize)
线性分类器直观的理解是属性值的加权和(weightedsum)
模型比较
Support Vector Machine
Linearregression
logisticsregression
共同点:都是拟合一个线性模型
不同点:使用不同的目标函数(CostFunction
/LossFunction)并最优化该目标函数(optimization)
直观地理解SVM(支撑向量机)
两个类别之间最宽的条带
![](http://img.blog.csdn.net/20150905100706641?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
线性分界就是中间的线
目标是最大化边界(Margin)
边界大了可以给样本点更多的空间(leeway)
SVM是在最大边界和较低的错误惩罚之间权衡
SVM分类器不一定要将每一个点都分对(有容错性)
比较分类树(classificationtree)和线性分类器(linearclassifier)
分界面的区别
属性使用方式的区别
分类树每次使用一个属性
线性分类器是所有属性的加权组合
、
逻辑斯蒂回归函数的推导(sigmoid function)
基于上述表格我们可以进行逆过程
线性分类器直观的理解是属性值的加权和(weightedsum)
模型比较
Support Vector Machine
Linearregression
logisticsregression
共同点:都是拟合一个线性模型
不同点:使用不同的目标函数(CostFunction
/LossFunction)并最优化该目标函数(optimization)
直观地理解SVM(支撑向量机)
两个类别之间最宽的条带
线性分界就是中间的线
目标是最大化边界(Margin)
边界大了可以给样本点更多的空间(leeway)
SVM是在最大边界和较低的错误惩罚之间权衡
SVM分类器不一定要将每一个点都分对(有容错性)
比较分类树(classificationtree)和线性分类器(linearclassifier)
分界面的区别
Classificationtree | Linearclassifier |
分类树每次使用一个属性
线性分类器是所有属性的加权组合
、
逻辑斯蒂回归函数的推导(sigmoid function)
Probability | Odds | Log-odds |
0.5 | 50:50 or 1 | 0 |
0.9 | 90:10 or 9 | 2.19 |
0.999 | 999:1 or 999 | 6.9 |
0.01 | 1:99 or 0.0101 | –4.6 |
0.001 | 1:999 or 0.001001 | –6.9 |
相关文章推荐
- Android数据序列化之对Parcelable和Serializable的理解
- 无线基本概述(一)
- PAT (Advanced Level) Practise:1001. A+B Format
- pscp 实现windows linux间互传文件
- 0901Android基础仿QQ聊天界面(下)
- 1045. Favorite Color Stripe (30)
- 关于使用tpl模板如何从模板中取数据放入js中
- flex datagrid水平或者竖直的问题
- 串口编程--java层开发demo
- android 学习之获取application和activity下meta-data中的值
- MFC 调试方法
- 配置免SSH
- Linux命令(用到再更新)
- bzoj1578Stock Market(dp)
- UIImageView响应点击事件
- Eclipse设置编译文件.class输出路径
- c primer plus第十一章课后习题
- leetCode #286 Missing Number
- IOS获取文件路径的方法
- datagrid锁定列的位置