机器学习笔记——相对熵 交叉熵
2017-10-17 16:58
549 查看
相对熵relative entropy
又称为KL散度(Kullback-Leibler divergence) 交互熵 互熵设 p(x).q(x)是X中取值的两个概率分布,则 p对 q的相对熵是:
D(p,q)=∑xϵXp(x)logp(x)q(x)=Ep(x)logp(x)q(x)
相对熵可以度量两个随机变量的'距离'
一般情况下, D(p,q)≠D(q,p) <非对称的距离>
且 D(p,q)≥0
D(q,p)≥0
交叉熵cross entropy
交叉熵主要用于度量两个概率分布间的差异性信息.交叉熵:
CEH(p,q)=Ep[−logq]=−∑xϵXp(x)logq(x)=H(p)+DKL(p||q)
当p已知时,可以把H(p)看作一个常数,此时交叉熵与KL距离在行为上是等价的,都是反映了分布p q的相似程度.最小化交叉熵等于最小化KL距离.它们都在p=q时取得最小值.
p=q时 CEH(p,q)=H(p) DKL(p||q)=0
互信息
两个随机变量X. Y的互信息,定义为X. Y的联合分布和独立分布乘积的相对熵:I(X,Y)=D(P(X,Y)||P(X)P(Y))
I(X,Y)=∑x,yp(x,y)logp(x,y)p(x)p(y)
相关文章推荐
- 机器学习基础1-熵,相对熵,交叉熵、香农熵
- 【机器学习-斯坦福】学习笔记2 - 监督学习应用与梯度下降
- 台大机器学习基石笔记(三)——VC 维2
- 机器学习笔记——基础概念汇总
- 机器学习笔记1---监督学习和无监督学习
- 机器学习实战笔记(Python实现)-02-k近邻算法(kNN)
- [置顶] 斯坦福机器学习笔记(一)
- 机器学习笔记-opencv2与opencv3手写体字母或者数字识别
- 李宏毅机器学习笔记
- 机器学习技法 笔记五 Kernel Logistic Regression
- 机器学习笔记(IV)模型评估与选择(III)
- 机器学习笔记3---cost function
- <机器学习笔记-06 ><scikit-learn 06>K-Means 聚类
- Coursera 机器学习(by Andrew Ng)课程学习笔记 Week 6(二)——误差分析与数据集偏斜处理
- [机器学习]机器学习笔记整理04-术语概念解释
- 机器学习笔记 --- 数学符号以及读法
- Python scikit-learn机器学习工具包学习笔记:cross_validation模块
- Coursera台大机器学习基础课程学习笔记1 -- 机器学习定义及PLA算法
- 机器学习笔记三:梯度下降
- 机器学习基石笔记1——在何时可以使用机器学习(1)