机器学习_线性分类器
2017-12-12 21:47
183 查看
【1】线性分类器不同与贝叶斯分类器:不考虑训练样本的基本分布
【2】判别式函数:
理解g(x)在决策面的一边为正、一边为负:是由于点x1,x2....构成的某种组合正好为0。当一个变量发生变化(体现为线上点的移动),组合值就会不为0
【3】感知机算法
感知器算法设的分割平面如上g(x),目标函数的含义是使分错的点最小。
假设为线性可分的情况:目标是找一条分类错误为0点线。
但分类错误的线可以是无数条,所以没有唯一解。
感知器算法的实质就是一个神经元。
【3】kesler算法:为了将感知器推广到高维,提出了kesler算法。基本思想:将样本点映射到高维
但是该算法不太常用,用到再看
【4】线性回归:最小二乘法分类器
思想线性回归一样。找一条直线去拟合这些点。
先理解一下均方误差可表示为的公式:1.均值=样本点*发生的概率 2.积分号求和 3.提出公共项p(w1)
【4.1】线性回归分类的多类问题
【2】判别式函数:
理解g(x)在决策面的一边为正、一边为负:是由于点x1,x2....构成的某种组合正好为0。当一个变量发生变化(体现为线上点的移动),组合值就会不为0
【3】感知机算法
感知器算法设的分割平面如上g(x),目标函数的含义是使分错的点最小。
假设为线性可分的情况:目标是找一条分类错误为0点线。
但分类错误的线可以是无数条,所以没有唯一解。
感知器算法的实质就是一个神经元。
【3】kesler算法:为了将感知器推广到高维,提出了kesler算法。基本思想:将样本点映射到高维
但是该算法不太常用,用到再看
【4】线性回归:最小二乘法分类器
思想线性回归一样。找一条直线去拟合这些点。
先理解一下均方误差可表示为的公式:1.均值=样本点*发生的概率 2.积分号求和 3.提出公共项p(w1)
【4.1】线性回归分类的多类问题
相关文章推荐
- 林轩田机器学习基石及技法课程中线性分类器的总结
- 【机器学习】SVM学习(二):线性分类器
- 【机器学习】SVM学习(三):线性分类器的求解
- 机器学习-第二天-线性分类器
- 机器学习笔记一------线性分类器
- 初识机器学习和线性分类器
- 机器学习之线性分类器(Linear Classifiers)——肿瘤预测实例
- 【机器学习】SVM学习(三):线性分类器的求解
- 机器学习及实践 2.1.1.1 线性分类器
- 线性与非线性SVM, 机器学习中的范数规则化之(一)L0、L1与L2范数
- SVM入门(六)线性分类器的求解——问题的转化,直观角度
- [置顶] 机器学习之线性回归
- 公开课机器学习笔记(12)支持向量机二 最优间隔分类器
- 机器学习之分类器性能指标之ROC曲线、AUC值
- SVM学习 --线性分类器
- 机器学习--线性回归 综述
- SVM入门(四)线性分类器的求解——问题的描述Part1
- 斯坦福《机器学习》Lesson1-3感想-------3、线性回归二
- python 机器学习 支持向量机 线性可分
- 线性代数,机器学习,笔记!!!