您的位置:首页 > 其它

特征选择之最小冗余最大相关性(mRMR)

2017-05-12 17:37 507 查看
最小冗余最大相关性(mRMR)是一种滤波式的特征选择方法,由Peng et.al提出。

用途:图像识别,机器学习等

一种常用的特征选择方法是最大化特征与分类变量之间的相关度,就是选择与分类变量拥有最高相关度的前k个变量。但是,在特征选择中,单个好的特征的组合并不能增加分类器的性能,因为有可能特征之间是高度相关的,这就导致了特征变量的冗余。这就是Peng et.al说的“the m best features are not the best m features”。因此最终有了mRMR,

即最大化特征与分类变量之间的相关性,而最小化特征与特征之间的相关性。这就是mRMR的核心思想。

互信息

定义:给定两个随机变量x和y,他们的概率密度函数(对应于连续变量)为p(x),p(y),p(x,y),则互信息为

I(x;y)=∫∫p(x,y)logp(x,y)p(x)p(y)dxdy

mRMR算法

我们的目标就是找出含有m{xi}个特征的特征子集S

离散变量

最大相关性:

maxD(S,c),D=1|S|Σxi∈SI(xi;c)

xi为第i个特征,c为类别变量,S为特征子集

最小冗余度:

minR(S),R=1|S|2Σxi,xj∈SI(xi;xj)

连续变量

最大相关性:

maxDF,DF=1|S|Σxi∈SF(xi;c)

F(xi,c)为F统计量

最小冗余度:

minRc,R=1|S|2Σxi,xj∈Sc(xi;xj)

c(xi,xj)为相关函数

当然,对于这些目标函数,还可以换做其他的函数,像信息增益,基尼指数等。

然后整合最大相关性和最小冗余度:

加法整合:

maxΦ(D,R),Φ=D−R

乘法整合:

maxΦ(D,R),Φ=D/R

在实践中,用增量搜索方法寻找近似最优的特征。假设我们已有特征集Sm−1,我们的任务就是从剩下的特征X−Sm−1中找到第m个特征,通过选择特征使得Φ(.)最大。增量算法优化下面的条件:

maxxj∈X−Sm−1[I(xj;c)−1m−1Σxi∈Sm−1I(xj;xi)]

其算法的复杂度为O(|S|⋅M)

算法优点

速度快

估计结果更鲁棒

是I(.)的一阶最优估计

参考

【Hanchuan Peng et.al】Feature Selection Based on Mutual Information: Criteria of Max-Dependency, Max-Relevance, and Min-Redundancy

【Barry O’Sullivan, Cork】Feature Selection for High-Dimensional Data
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
相关文章推荐