Machine Learning Foundation Lecture 02 Learning to Answer YesNo 学习笔记
2014-01-19 18:42
776 查看
今天将第2讲的课程看完了,继续学习笔记。
知识点1:在第1讲中,最后台大的林老师用了一张流程图画出了一个信用卡申请流程的机器学习方式,就是从D(training data)和H(hypothesis set)中学习出一个'best' hypothesis,输入x(信用卡申请人信息),得到y(approve,deny)。那H(hypothesis set)到底长什么样呢?
还是从信用卡申请的例子出发:
x是信用卡申请人的信息,x=(
![](http://latex.codecogs.com/gif.latex?x_%7B1%7D)
,
![](http://latex.codecogs.com/gif.latex?x_%7B2%7D)
,...,
![](http://latex.codecogs.com/gif.latex?x_%7Bd%7D)
)可以将x看成一个向量,里面是申请人的特征属性,例如:年龄,工资等等信息,这些是分量(
![](http://latex.codecogs.com/gif.latex?%7Bx%7D_%7Bi%7D)
)。每个分量有着不同的权重(
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bi%7D)
),例如:工资高则申请信用卡通过的概率大,则权重就高。通过分量和权重来计算出一个score,如果score>threhold申请通过,score<threhold则申请不通过,score=threhold则ignore。用公式显示如下:
如果
![](http://latex.codecogs.com/gif.latex?%5Csum_%7Bi=1%7D%5E%7Bd%7D%7Bw%7D_%7Bi%7D%7Bx%7D_%7Bi%7D)
批准信用卡申请;
如果
![](http://latex.codecogs.com/gif.latex?%5Csum_%7Bi=1%7D%5E%7Bd%7D%7Bw%7D_%7Bi%7D%7Bx%7D_%7Bi%7D)
拒绝信用卡申请。
y:{+1(approve), -1(deny)}, 0 ignore,这样linear formula h
![](http://latex.codecogs.com/gif.latex?%5Cin)
H
![](http://latex.codecogs.com/gif.latex?h(x)=sign((%5Csum_%7Bi=1%7D%5E%7Bd%7D%7Bw%7D_%7Bi%7D%7Bx%7D_%7Bi%7D)-threshold))
这个公式被称为perceptron hypothesis,就是感知器。hypothesis中的未知数是
![](http://latex.codecogs.com/gif.latex?%5Ccolor%7Bred%7D%7B%7Bw%7D_%7Bi%7D%7D)
和threshold。
这个公式可以写成如下形式:
![](http://latex.codecogs.com/gif.latex?%5Ccolor%7Bred%7D%7Bh%5Ccolor%7Bblack%7D%7B(x)=sign((%5Csum_%7Bi=1%7D%5E%7Bd%7D%5Ccolor%7Bred%7D%7B%7Bw%7D_%7Bi%7D%5Ccolor%7Bblack%7D%7B%7Bx%7D_%7Bi%7D)+%5Ccolor%7Bblue%7D%7B%5Cunderbrace%7B(-threshold)%7D_%7B%7Bw%7D_%7B0%7D%7D*%5Cunderbrace%7B(1)%7D_%7B%7Bx%7D_%7B0%7D%7D%5Ccolor%7Bblack%7D%7B)%7D%7D%7D%7D%7D%7D)
![](http://latex.codecogs.com/gif.latex?=sign(%5Csum_%7Bi=0%7D%5E%7Bd%7D%5Ccolor%7Bred%7D%7B%7Bw%7D_%7Bi%7D%5Ccolor%7Bblack%7D%7B%7Bx%7D_%7Bi%7D)%7D%7D)
![](http://latex.codecogs.com/gif.latex?=sign(%5Ccolor%7Bred%7D%7B%7BW%7D%5E%7BT%7D%5Ccolor%7Bblack%7D%7BX)%7D%7D)
注意:这里的W和X进行的是向量的内积。这是在d纬的欧几里得空间中进行的计算(
![](http://latex.codecogs.com/gif.latex?%7BR%7D%5E%7Bd%7D)
),H就是一个d纬的面。如果是在2纬空间(一个平面中),H就是一条直线
![](http://latex.codecogs.com/gif.latex?h(x)=sign(%7Bw%7D_%7B0%7D+%7Bw%7D_%7B1%7D%7Bx%7D_%7B1%7D+%7Bw%7D_%7B2%7D%7Bx%7D_%7B2%7D))
;在3纬空间(一个3微空间中),H就是一个平面。
![](https://img-blog.csdn.net/20140119182301828?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaHVtb3poaTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
上图是一个2纬平面的perceptron hypothesis,图片上的每个点是x;直线是perceptron hypothesis;圆圈(+1)和大叉(-1)是y。并且perceptron hypothesis只能进行线性的分类也就是二分类。
知识点2:PLA(Perceptron Learning Algorithm)感知器算法
PLA说白了就是对W向量(是未知数)不断地进行调整,因为H(hypothesis set)的数量是无限多个(在2纬空间可以画无数条的线),所以最理想的方式是得到一个g对现有的数据进行计算的结果都是正确的。
算法步骤:
在初始的时候将g的所有
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bi%7D)
设置为0;
对每个x进行遍历,一旦
![](http://latex.codecogs.com/gif.latex?sign(%5Ccolor%7Bred%7D%7B%7B%7Bw%7D_%7Bt%7D%7D%5E%7BT%7D%5Ccolor%7Bblue%7D%7B%7Bx%7D_%7Bn(t)%7D%5Ccolor%7Bblack%7D%7B)%5Cneq%7By%7D_%7Bn(t)%7D%7D%7D%7D)
,则
![](http://latex.codecogs.com/gif.latex?%5Ccolor%7Bcyan%7D%7B%7Bw%7D_%7Bt+1%7D%5Ccolor%7Bblack%7D%7B%5Cleftarrow%20%5Ccolor%7Bred%7D%7B%7Bw%7D_%7Bt%7D+%5Ccolor%7Bblue%7D%7B%7By%7D_%7Bn(t)%7D%7Bx%7D_%7Bn(t)%7D%7D%7D%7D%7D)
;(这里t代表第t轮的遍历)
直到所有的x在g中都计算正确,才停止遍历。
![](https://img-blog.csdn.net/20140119195410484?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaHVtb3poaTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
从上面的2纬图我们可以看出这样做的原理,如果
![](http://latex.codecogs.com/gif.latex?sign(%5Ccolor%7Bred%7D%7B%7BW%7D%5E%7BT%7D%5Ccolor%7Bblack%7D%7BX)=+1%7D%7D)
,而g(x)计算的结果是-1,这说明w和x之间的角度过大(
![](http://latex.codecogs.com/gif.latex?%7Bw%7D%5E%7BT%7Dx=%7C%7Cw%7C%7C*%7C%7Cx%7C%7C*%5Ccos%20%5Ctheta)
,cos超过90度为负数),需要调小一些,用w+x;如果
![](http://latex.codecogs.com/gif.latex?sign(%5Ccolor%7Bred%7D%7B%7BW%7D%5E%7BT%7D%5Ccolor%7Bblack%7D%7BX)=-1%7D%7D)
,而g(x)计算的结果是+1,说明w和x之间的角度过小,需要调大一些,用w-x。怎么样程序写的很简单吧。
知识点3:通过数学的方法证明了PLA在D线性可分得情况下是循环是可以结束的。(这里我就不证明了,很长的一段证明,在网页上写太费劲了。)
知识点4:Pocket算法
PLA循环没有得到结果的原因有2个可能,一是循环次数不够;二是D不是线性可分的(linear separable)。
![](https://img-blog.csdn.net/20140119202048218?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaHVtb3poaTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center)
上图的D就是线性不可分的,这个时候Pocket算法就登场了。其实Pocket算法是PLA的改进。思路是找一条错误尽可能少的直线。手上先抓一个
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt%7D%7D)
保留
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7B1%7D%7D)
,然后在优化一个
![](http://latex.codecogs.com/gif<br/>4000<br/>.latex?%7B%7Bw%7D_%7Bt%7D%7D)
保留
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7B2%7D%7D)
,看哪个w犯的错误最少。
算法步骤:
在初始的时候将g的每个
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bi%7D)
(是向量w的分量)设置为0,这个为g的
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bt%7D)
;
将g的
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bt%7D)
和D中所有的x进行内积(
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt%7D%7D%5E%7BT%7D%7Bx%7D_%7Bn%7D)
),看错了多少个(肯定全错);
随机找一个错误的点,
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bt+1%7D%5Cleftarrow=%7Bw%7D_%7Bt%7D+%7By%7D_%7Bn(t)%7D%7Bx%7D_%7Bn(t)%7D)
;
将g的
![](http://latex.codecogs.com/gif.latex?%7Bw%7D_%7Bt+1%7D)
和D中所有的x进行内积(
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt+1%7D%7D%5E%7BT%7D%7Bx%7D_%7Bn%7D)
),看错了多少个;如果
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt+1%7D%7D)
的错误个数少于
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt%7D%7D)
的错误个数,则舍弃
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt%7D%7D)
保留
![](http://latex.codecogs.com/gif.latex?%7B%7Bw%7D_%7Bt+1%7D%7D)
;
重复进行足够多次的循环后,停止。
当然Pocket算法的效率是低于PLA算法的。
Machine Learning Foundation Lecture 03 Type Of Learning 学习笔记
知识点1:在第1讲中,最后台大的林老师用了一张流程图画出了一个信用卡申请流程的机器学习方式,就是从D(training data)和H(hypothesis set)中学习出一个'best' hypothesis,输入x(信用卡申请人信息),得到y(approve,deny)。那H(hypothesis set)到底长什么样呢?
还是从信用卡申请的例子出发:
x是信用卡申请人的信息,x=(
,
,...,
)可以将x看成一个向量,里面是申请人的特征属性,例如:年龄,工资等等信息,这些是分量(
)。每个分量有着不同的权重(
),例如:工资高则申请信用卡通过的概率大,则权重就高。通过分量和权重来计算出一个score,如果score>threhold申请通过,score<threhold则申请不通过,score=threhold则ignore。用公式显示如下:
如果
批准信用卡申请;
如果
拒绝信用卡申请。
y:{+1(approve), -1(deny)}, 0 ignore,这样linear formula h
H
这个公式被称为perceptron hypothesis,就是感知器。hypothesis中的未知数是
和threshold。
这个公式可以写成如下形式:
注意:这里的W和X进行的是向量的内积。这是在d纬的欧几里得空间中进行的计算(
),H就是一个d纬的面。如果是在2纬空间(一个平面中),H就是一条直线
;在3纬空间(一个3微空间中),H就是一个平面。
上图是一个2纬平面的perceptron hypothesis,图片上的每个点是x;直线是perceptron hypothesis;圆圈(+1)和大叉(-1)是y。并且perceptron hypothesis只能进行线性的分类也就是二分类。
知识点2:PLA(Perceptron Learning Algorithm)感知器算法
PLA说白了就是对W向量(是未知数)不断地进行调整,因为H(hypothesis set)的数量是无限多个(在2纬空间可以画无数条的线),所以最理想的方式是得到一个g对现有的数据进行计算的结果都是正确的。
算法步骤:
在初始的时候将g的所有
设置为0;
对每个x进行遍历,一旦
,则
;(这里t代表第t轮的遍历)
直到所有的x在g中都计算正确,才停止遍历。
从上面的2纬图我们可以看出这样做的原理,如果
,而g(x)计算的结果是-1,这说明w和x之间的角度过大(
,cos超过90度为负数),需要调小一些,用w+x;如果
,而g(x)计算的结果是+1,说明w和x之间的角度过小,需要调大一些,用w-x。怎么样程序写的很简单吧。
知识点3:通过数学的方法证明了PLA在D线性可分得情况下是循环是可以结束的。(这里我就不证明了,很长的一段证明,在网页上写太费劲了。)
知识点4:Pocket算法
PLA循环没有得到结果的原因有2个可能,一是循环次数不够;二是D不是线性可分的(linear separable)。
上图的D就是线性不可分的,这个时候Pocket算法就登场了。其实Pocket算法是PLA的改进。思路是找一条错误尽可能少的直线。手上先抓一个
保留
,然后在优化一个
保留
,看哪个w犯的错误最少。
算法步骤:
在初始的时候将g的每个
(是向量w的分量)设置为0,这个为g的
;
将g的
和D中所有的x进行内积(
),看错了多少个(肯定全错);
随机找一个错误的点,
;
将g的
和D中所有的x进行内积(
),看错了多少个;如果
的错误个数少于
的错误个数,则舍弃
保留
;
重复进行足够多次的循环后,停止。
当然Pocket算法的效率是低于PLA算法的。
Machine Learning Foundation Lecture 03 Type Of Learning 学习笔记
相关文章推荐
- Machine Learning Foundation Lecture 04 Feasuibility of learning 学习笔记
- 《机器学习基石》台大林轩田_学习笔记02_Learning to Answer Yes/No
- Machine Learning Foundation Lecture 03 Type Of Learning 学习笔记
- Andrew NG机器学习课程笔记系列之——Introduction to Machine Learning
- Foundation of Machine Learning 笔记第四部分 —— Generalities 以及对不一致假设集的PAC学习证明
- Reinforce learning: Lecture 1 Introduction to Reinforcement Learning 学习笔记
- 台湾大学林轩田机器学习基石课程学习笔记2 -- Learning to Answer Yes/No
- [MOOC学习笔记]机器学习基石 Lecture02 Learning to Answer Yes/No
- 机器学习基石笔记 Lecture 2: Learning to Answer Yes/No
- 神经网络学习笔记 - lecture3:The backpropagation learning proccedure
- Coursera Machine Learning 学习笔记(一)
- [note] deep learning tensorflow lecture 2 notes 深度学习笔记 (2) 解决过拟合
- 【学习笔记】WEEK 1_Introduction to Deep Learning_Supervised Learning with Neural Networks
- silver课程笔记----Lecture 1: Introduction to Reinforcement Learning
- Coursera Machine Learning 学习笔记(九)
- Machine learning for OpenCV 学习笔记 day6
- [深度学习论文笔记][Weight Initialization] Exact solutions to the nonlinear dynamics of learning in deep lin
- A guide to convolution arithmetic for deep learning学习笔记
- DeepLearning.ai学习回顾笔记之三( Structuring Machine Learning Projects)