逻辑回归
2014-01-14 11:32
218 查看
y是连续的则是一个回归问题,y是离散的则是一个分类问题,这边就开始考虑y是离散的情况。
对于这样的问题很多,比如判断一个人是否生病,或者判断一个邮件是否是垃圾邮件。
回归时连续型的,一般不用在上述的分类问题中,因为其受噪音的影响比较大,如果要把一个回归方法用到分类上的话,那就是logistic回归。之所以叫其回归,因为其本质上还是线性回归,只是在特征到结果中加了一层函数映射。
对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。
下面就是将线性
带入到g(z)中。
则可以得到:
对于我们考虑的问题是将连续的问题离散化,下面就带来两个问题,到底怎么做,还有就是为什么使用这个g(z)呢。至于为什么使用这个函数的时候作者后面讲到一般线性模型的时候说明,那下面就先看一看下面怎么做。
我们看这个g(z),我们会发现当
,g(z)趋向于1,
,g(z)趋向于0
这样我们就有
在0到1之间,下面我们就假设
为y取1时候的概率。我们假设该事件服从0,1分布,这边也可以是其他分布,不过有点复杂,则
也就是再x的条件下,y只能取0跟1,θ是参数。写成一般形式为
下面我们假设m的训练数据相互独立,则我们下面求最大似然估计,也就是求最能服从0,1分布的时候θ的值。(不知道这样理解对不对)
好,那下面求最大似然估计,对于m个训练值
那么,我们也就是要求这个的最大值,使用了梯度下降法。
下面跟之前一样,假设只有一个训练数据。
最终得到
下面如果我们是矩阵处理
则θ := θ +α*X转置*(y-h)
对于这样的问题很多,比如判断一个人是否生病,或者判断一个邮件是否是垃圾邮件。
回归时连续型的,一般不用在上述的分类问题中,因为其受噪音的影响比较大,如果要把一个回归方法用到分类上的话,那就是logistic回归。之所以叫其回归,因为其本质上还是线性回归,只是在特征到结果中加了一层函数映射。
对于这边也就是使用一个g(z)将连续的值映射到0跟1上面。
下面就是将线性
带入到g(z)中。
则可以得到:
对于我们考虑的问题是将连续的问题离散化,下面就带来两个问题,到底怎么做,还有就是为什么使用这个g(z)呢。至于为什么使用这个函数的时候作者后面讲到一般线性模型的时候说明,那下面就先看一看下面怎么做。
我们看这个g(z),我们会发现当
,g(z)趋向于1,
,g(z)趋向于0
这样我们就有
在0到1之间,下面我们就假设
为y取1时候的概率。我们假设该事件服从0,1分布,这边也可以是其他分布,不过有点复杂,则
也就是再x的条件下,y只能取0跟1,θ是参数。写成一般形式为
下面我们假设m的训练数据相互独立,则我们下面求最大似然估计,也就是求最能服从0,1分布的时候θ的值。(不知道这样理解对不对)
好,那下面求最大似然估计,对于m个训练值
那么,我们也就是要求这个的最大值,使用了梯度下降法。
下面跟之前一样,假设只有一个训练数据。
最终得到
下面如果我们是矩阵处理
则θ := θ +α*X转置*(y-h)
相关文章推荐
- 机器学习实战-逻辑回归
- 机器学习基本算法(逻辑回归)
- logistic regression-逻辑斯谛回归
- 逻辑回归模型(一)——数学模型
- 机器学习:逻辑回归python实现
- Logistic 回归 逻辑回归算法。
- 深度学习 —— 逻辑回归
- [机器学习入门] 李宏毅机器学习笔记-6 (Classification: Logistic Regression;逻辑回归)
- Stanford机器学习-- 逻辑回归和过拟合问题的解决 logistic Regression & Regularization
- 机器学习-logistic Regression(逻辑回归)
- 回归问题总结(梯度下降、线性回归、逻辑回归、源码、正则化)
- 聚类(三)FUZZY C-MEANS 模糊c-均值聚类算法——本质和逻辑回归类似啊
- 机器学习入门系列三(关键词:逻辑回归,正则化)
- 机器学习算法解析—逻辑回归分类
- Google深度学习笔记 逻辑回归 实践篇
- 逻辑回归
- 线性回归, 逻辑回归和线性分类器
- 逻辑回归实现
- 逻辑回归(Logistic Regression)
- ML实践——逻辑回归logistic regression