【台大李宏毅ML课程】Lecture 4 Classification笔记
2018-02-09 21:06
197 查看
Lecture 4 Classification
本讲主要讲述了基于概率模型的分类器分类的应用场景就很多了,如信用卡评分、疾病诊断、模式识别等等等等。
1.为什么不用回归而用分类
因为那些离回归函数比较远但却是正确的点会带了很大的error
2.初步的想法
对于一个二分类问题,采用如下方式:
哪个类别的P(C|x)大就判为哪一类;
其中P(C1)和P(C2)可以根据训练集中类别的个数来估算(只是估算,并不是准确的值),算一下训练数据里两类各占多少即可;
P(x|C1)和P(x|C2)需要做一些假设,比如假设是高斯分布什么的……
3.高斯分布的假设
假设P(x|C1)和P(x|C2)分别服从不同均值不同方差的高斯分布,利用样本,可根据极大似然估计的原理来估计均值和方差:
每个样本有n特征,均值就是n维的,方差是n*n维的
下图以宝可梦为例,选取了两个类别:water、Normal。每个样本有两个特征:SP、Defense。
于是估计完均值和方差之后,就可以把高斯分布代入原来的贝叶斯公式了:
但效果似乎不太好,把特征数增加到7个效果不佳。
这里有个问题,随着特征数的增加,方差矩阵维数越来越高,对于每一个类别都要算一个方差矩阵,计算量也会很大。
4.共用方差矩阵
分类面也由曲面变成了超平面(这个之后会解释),精确率也得到了提升,说明共用方差矩阵这种改进还是有效的!
7.使用其它的分布、贝叶斯分布
上述假设P(x|C1)和P(x|C2)服从高斯分布,但实际上还可以假设服从别的分布,比如每个样本x只有两个特征(binary features),则可以假设P(x|C1)和P(x|C2)服从伯努利分布(Bernouli distribution)
如果假设每个特征的是相互独立的,即
则上述分类器被称为
贝叶斯分类器(bayes classifier)
8.超平面课程了最后从数学的角度解释了当共用方差时,分类曲面变成了平面。
相关文章推荐
- 【台大李宏毅ML课程】Lecture 1-2 Linear Regression、Error笔记
- 【台大李宏毅ML课程】Lecture 3 Gradient Descent笔记
- 台大陈蕴侬、李宏毅“应用深度学习”课程(国语)
- 台大李宏毅2017深度学习国语课程(更新)
- Coursera台大机器学习技法课程笔记07-Blending and Bagging
- Andrew Ng ML课程总结(一)
- cs61a课程总结--lecture7 递归(和一种数据结构)
- 【学习李宏毅ML笔记】回归分析+误差分析
- 【李宏毅ML笔记】 11 BP反向传播
- 机器学习速成课程MLCC(2)--深入了解机器学习 (Descending into ML)
- 李宏毅《机器学习》卷积神经网络课程笔记
- Anomaly Detection-异常检测算法(Coursera-Ng-ML课程)
- Coursera台大机器学习技法课程笔记05-Kernel Logistic Regression
- Kaggle课程 | lecture 1 机器学习算法、工具与流程概述
- Andrew Ng ML课程总结(二)
- 斯坦福CS20SI:基于Tensorflow的深度学习研究课程笔记,Lecture note2:TensorFlow Ops
- Coursera台大机器学习课程笔记3 – 机器学习的可能性
- 李宏毅机器学习课程笔记10:Ensemble、Deep Reinforcement Learning
- 斯坦福课程ML
- Coursera台大机器学习课程笔记6 -- The VC Dimension