广义线性模型
2017-02-26 12:42
323 查看
广义线性模型(Generalized Linear Model)
本文沿接接着上节的指数分布族,文章中注了引入指数分布族的概念是为了说明广义线性模型。概念
广义线性模型(generalized linear model, GLM)是简单最小二乘回归(OLS)的扩展,在广义线性模式中,假设每个变量的观测值 Y来自某个指数族分布。 该分布的平均数μ可由与该点独立的X解释:E(y)=μ=g(θTx)
其中E(y)为y的期望值,θTx是由未知待估计参数θ与已知变数X构成的线性估计式,g则为链接函数。
在此模式下,y的方差V可表示为:
Var(y)=V(y)=V(g(θTx))
一般假设V可视为一指数族随机变数的函数。
未知参数θ通常会以最大似然、贝叶斯方法估计。
例证
参考此例:η与伯努利分布中的参数φ的关系是Logistic函数,再通过推导可以得到Logistic回归。见下文推导示例。
通过此例,我们可以推想,η以不同的映射函数与其他概率分布函数中的参数发生联系,从而得到不同的模型,广义线性模型正是将指数族分布中的所有成员都作为线性模型的扩展,通过非线性的连接函数映射到其他空间从而大大扩大了线性模型可解决的问题。
假设条件
下面我们看看GLM的形式话定义,GLM的三个假设:1)y|x;θ~ExpFamily(η):给定样本x与参数θ,样本分类y服从指数分布族中的某个分布
2)给定一个x,我们需要的目标函数为hθ(x)=E[T(y)|x]
3)η=θTx
上例推导
依据三个假设,我们可以推导出logistic模型与最小二乘模型。Logistic模型的推导过程如下:hθ(x)=E[T(y)|x]=E[y|x]=μ=η=θTx
其中,将η与原始概率分布中的参数联系起来的函数成为正则相应函数,如φ=11+e(−η),μ=η即是正则响应函数。正则响应函数的逆称为正则关联函数。所以,对于广义线性模型,需要决策的是选用什么样的分布,当选取高斯分布时,我们可以得到最小二乘模型,当选取伯努利分布时,我们得到logistic模型,这里所说的模型是假设函数h的形式。
同样,可以将Logistic函数做拉伸变换,可以得到新的连接函数
φ=11+e−λη
总结
总计来说,广义线性模型通过假设一个概率分布函数,得到不同的模型,二支起拿讨论的梯度下降法、牛顿法都是为了求取线性模型中的线性部分(θTx)的参数θ的。参考链接:
[1].https://zh.wikipedia.org/wiki/%E5%BB%A3%E7%BE%A9%E7%B7%9A%E6%80%A7%E6%A8%A1%E5%9E%8B
[2].http://blog.csdn.net/stdcoutzyx/article/details/9207047
相关文章推荐
- 广义线性模型--Generalized Linear Models
- 【sklearn】——1. 广义线性模型 Generalized Linear Models
- 监督学习之广义线性模型——Andrew Ng机器学习笔记(三)
- 牛顿方法、指数分布族、广义线性模型、多项式分布——斯坦福ML公开课笔记4
- 牛顿方法、指数分布族、广义线性模型—斯坦福ML公开课笔记4
- Andrew Ng机器学习笔记(四)——GLM广义线性模型
- 【Scikit-Learn 中文文档】广义线性模型 - 监督学习 - 用户指南 |
- 多元统计分析及R语言建模-第5章 广义与一般线性模型
- L0,L1,L2正则化--广义线性模型
- 机器学习小组知识点39:广义线性模型(Generalized Linear Model)
- 广义线性模型 GLM
- 【转】牛顿方法、指数分布族、广义线性模型—斯坦福ML公开课笔记4
- scikit-learn广义线性模型之最小二乘法
- 对数线性模型之一(逻辑回归), 广义线性模型学习总结
- 从广义线性模型到逻辑回归
- 对数线性模型之一,逻辑回归、广义线性模型学习总结
- 指数族分布、广义线性模型、逻辑回归前传
- 【Scikit-Learn 中文文档】广义线性模型 - 监督学习 - 用户指南 | ApacheCN
- 机器学习 —— 基础整理(五)线性回归;二项Logistic回归;Softmax回归及其梯度推导;广义线性模型
- 指数分布族(The Exponential Family)与广义线性模型(GLM,Generalized Linear Models)