机器学习基石2-1 Perceptron Hypothesis Set
2017-04-20 16:11
113 查看
本节内容主要讲了ML的最基础的工作流程,HT Lin引用了一个非常简单易懂的银行发信用卡的例子讲述了ML是如何作用于Data Set以及获取结果的。
A:机器学习算法
D:Data Set,即数据集
H:Hypothesis Set,即假设集(注意,不是单个的假设!)
g:最佳假设,即最接近规则f的假设
这张图就很好地概括了ML的工作流程,f是一个X集合向Y集合的映射规则,但是原则上来说f是不可达的,即f是没有完全清楚的定义的,我们进行ML的目的也不是为了求出f( 实际上也求不出f),我们只能尽可能地求一个最接近f的假设g,这个g包含在H中。
现在的问题就是如何求出这个g呢?HT Lin引用了一个银行的例子。银行拥有很多applicant的个人信息,这些信息从一定程度上反映了该applicant的信用程度。现在我们的工作就是给出一个假设集H,然后使用这些applicant的信息配合learning algorithm进行训练,最后的输出为一个g,该g视为最接近f的一个假设。这个时候,我们就得到了一个是否为一个新进入Data Set的applicant发放credit的规则g。该g的输入为该applicant的信息,输出为一个boolean结果,即是否为其发放credit。
OK,现在我们需要构造一个能够从中选出一个正确的g的H。在HT Lin的例子中,将每位applicant的信息向量化为一个n维的向量X(x1,x2,...,xn),然后为每个xi设置一个权重wi。根据这个设定,每位applicant的信用评级分数就可以用下面的公式表示:
如果这个分数大于一个threshold,那么认为该用户的信用评分足够,可以为其颁发credit,否则拒绝颁发credit。
进一步,我们得到一个假设h(x)如上图,注意,此处的x为向量X而不是变量x。可以根据h(x)是否大于0来判断该用户的信用评级。这里的h(x)成为perceptron(感知器),这个名字是由神经网络引进来的,这里不做深究。
进一步,我们将-threshold值视为w0,并且令x0为1,那么得到了一个如下的归一形式的h(x)如下图:
至此,我们的h(x)就可以表示为一个具有n+1维(0~n)的向量W和向量X的内积。这是一种最简单的情况。直观地来看,当维度为2时,该感知器的表现如下图:
h(x)在一个二维空间中表现为一条直线,该直线将平面分为两个部分。位于直线两侧的点分属不同的class。对应于银行发卡的例子就是直线两侧的点分别对应了发credit/不发credit两种情况。
这样的perceptron成为linear(binary) classifier,即用一条直线区分两种不同类型的applicant。
(1)基本缩写字母表达的涵义:
A:机器学习算法
D:Data Set,即数据集
H:Hypothesis Set,即假设集(注意,不是单个的假设!)
g:最佳假设,即最接近规则f的假设
2.银行信用卡发卡例子
现在的问题就是如何求出这个g呢?HT Lin引用了一个银行的例子。银行拥有很多applicant的个人信息,这些信息从一定程度上反映了该applicant的信用程度。现在我们的工作就是给出一个假设集H,然后使用这些applicant的信息配合learning algorithm进行训练,最后的输出为一个g,该g视为最接近f的一个假设。这个时候,我们就得到了一个是否为一个新进入Data Set的applicant发放credit的规则g。该g的输入为该applicant的信息,输出为一个boolean结果,即是否为其发放credit。
OK,现在我们需要构造一个能够从中选出一个正确的g的H。在HT Lin的例子中,将每位applicant的信息向量化为一个n维的向量X(x1,x2,...,xn),然后为每个xi设置一个权重wi。根据这个设定,每位applicant的信用评级分数就可以用下面的公式表示:
如果这个分数大于一个threshold,那么认为该用户的信用评分足够,可以为其颁发credit,否则拒绝颁发credit。
进一步,我们得到一个假设h(x)如上图,注意,此处的x为向量X而不是变量x。可以根据h(x)是否大于0来判断该用户的信用评级。这里的h(x)成为perceptron(感知器),这个名字是由神经网络引进来的,这里不做深究。
进一步,我们将-threshold值视为w0,并且令x0为1,那么得到了一个如下的归一形式的h(x)如下图:
至此,我们的h(x)就可以表示为一个具有n+1维(0~n)的向量W和向量X的内积。这是一种最简单的情况。直观地来看,当维度为2时,该感知器的表现如下图:
h(x)在一个二维空间中表现为一条直线,该直线将平面分为两个部分。位于直线两侧的点分属不同的class。对应于银行发卡的例子就是直线两侧的点分别对应了发credit/不发credit两种情况。
这样的perceptron成为linear(binary) classifier,即用一条直线区分两种不同类型的applicant。
相关文章推荐
- 机器学习基石 2.1 Perceptron Hypothesis Set
- PLA(Perceptron Learning Algorithm)--机器学习基石笔记
- 机器学习基石2-2 PLA(Perceptron Learning Algorithm)
- 机器学习基石笔记2——感知机(Perceptron)
- 【Perceptron Learning Algorithm】林轩田机器学习基石
- 听课笔记(第二讲): Perceptron-感知机 (台湾国立大学机器学习基石)
- 听课笔记(第二讲): Perceptron-感知机 (台湾国立大学机器学习基石)
- 机器学习基石 2.2 Perceptron Learning Algorithm (PLA)
- 机器学习基石(2) - Perceptron Learning Algorithm
- Lecture2-1Perceptron Hypothesis Set
- 机器学习之正则化(机器学习基石)
- 【Noise and Probabilistic Target】林轩田机器学习基石
- 林轩田-机器学习基石 课堂笔记(四)Feasibility of Learning
- Infinite size of Hypothesis set and growth function
- 机器学习中的神经网络Neural Networks for Machine Learning:Programming Assignment 1: The perceptron learning alg
- 台湾大学林轩田老师机器学习基石:内容简介
- 机器学习笔记1—感知器(Perceptron)
- 机器学习基石4-在何时才能使用机器学习(4)
- 机器学习之hypothesis具体是什么样的??
- 机器学习基石笔记2——在何时可以使用机器学习(2)