您的位置:首页 > 其它

AdaBoost人脸检测训练算法 (下)

2014-01-09 11:09 441 查看
http://blog.csdn.net/hqw7286/article/details/5556812
就像我一开始说的,比起ViolaJones人脸检测方法,Lienhart的人脸检测方法只是在Harr-like特征的选取、计算以及AdaBoost训练算法上有区别。

一、Harr-like特征的选取


Lienhart提出了一些新的旋转Haar-like特征。




包含4个边缘特征、8个线性特征和2个中心特征。
而对角线特征(对应图中的4)没有用到,是因为对角线特征和线性特征里的特征相似。
在特征值的计算过程中,黑色区域的权值为负值,白色区域的权值为正值。

二、特征值的计算

对于竖直矩阵,我们定义SAT(x,y)为点(x,y)左上角区域的像素和。



用公式可以表示为:



为了节约时间,减少重复计算,可按如下递推公式计算:



而计算矩阵特征的特征值,是位于对角线矩形SAT(x,y)之差。可参考下图:




对于45°旋角的矩形,我们定义RSAT(x,y)为点(x,y)左上角45°区域和左下角45°区域的像素和。



用公式可以表示为:



为了节约时间,减少重复计算,可按如下递推公式计算:







而计算矩阵特征的特征值,是位于十字行矩形RSAT(x,y)之差。可参考下图:




三、AdaBoost的训练算法

Lienhart通过学习得到的系统能够用于旋转人脸的快速检测,同时也能使平均的误检率降低10%。
此外他还研究了一些其他的Boosting算法,如:离散的Adaboost算法(Discrete Adaboost),实值的Adaboost算法(Real Adaboost)和平缓的Adaboost算法(Gentle Adaboost)。
通过比较得出基于平缓的Adaboost算法(Gentle Adaboost)效果较好。

离散的Adaboost算法和平缓的Adaboost算法如下(算法图若看不清,请点击放大):





总的来说,基于Adaboost算法的系统在速度方***有很大的优越性。它是在提出的一系列Haar-like特征的基础上,通过Adaboost算法学习一些弱分类器,再组合成一个强分器。
但一般一个强分类器还不足以圆满完成任务,还要级联一系列这样的强分类器,但是要进一步提高检测精度,就需要级联更多的强分类器,但是这样又会降低检测速度。
我们认为一方面可以采用更好的、计算却更简单的图像特征表述方法;另一方面就是综合Adaboost和一些强分类器。
在Adaboost学习的过程中,可以提高正例学习的阈值,如可以将每级常采用的正检率阈值(一般设为98.5%)适当增加,当然误检的非人脸会相应增加,这样学习得到的一些弱分类器组合后形成的强分类器作为分级分类器的前面几级,最后再用一个强分类器进一步过滤。
由于在前几级消除了大多数的非人脸,因此通过最后一级强分类器的窗口将大大减少。这样可以获得一个既提高检测速度又提高检测精度的系统。

包含4个边缘特征、8个线性特征和2个中心特征。
而对角线特征(对应图中的4)没有用到,是因为对角线特征和线性特征里的特征相似。
在特征值的计算过程中,黑色区域的权值为负值,白色区域的权值为正值。

二、特征值的计算

对于竖直矩阵,我们定义SAT(x,y)为点(x,y)左上角区域的像素和。



用公式可以表示为:



为了节约时间,减少重复计算,可按如下递推公式计算:



而计算矩阵特征的特征值,是位于对角线矩形SAT(x,y)之差。可参考下图:




对于45°旋角的矩形,我们定义RSAT(x,y)为点(x,y)左上角45°区域和左下角45°区域的像素和。



用公式可以表示为:



为了节约时间,减少重复计算,可按如下递推公式计算:







而计算矩阵特征的特征值,是位于十字行矩形RSAT(x,y)之差。可参考下图:




三、AdaBoost的训练算法

Lienhart通过学习得到的系统能够用于旋转人脸的快速检测,同时也能使平均的误检率降低10%。
此外他还研究了一些其他的Boosting算法,如:离散的Adaboost算法(Discrete Adaboost),实值的Adaboost算法(Real Adaboost)和平缓的Adaboost算法(Gentle Adaboost)。
通过比较得出基于平缓的Adaboost算法(Gentle Adaboost)效果较好。

离散的Adaboost算法和平缓的Adaboost算法如下(算法图若看不清,请点击放大):





总的来说,基于Adaboost算法的系统在速度方***有很大的优越性。它是在提出的一系列Haar-like特征的基础上,通过Adaboost算法学习一些弱分类器,再组合成一个强分器。
但一般一个强分类器还不足以圆满完成任务,还要级联一系列这样的强分类器,但是要进一步提高检测精度,就需要级联更多的强分类器,但是这样又会降低检测速度。
我们认为一方面可以采用更好的、计算却更简单的图像特征表述方法;另一方面就是综合Adaboost和一些强分类器。
在Adaboost学习的过程中,可以提高正例学习的阈值,如可以将每级常采用的正检率阈值(一般设为98.5%)适当增加,当然误检的非人脸会相应增加,这样学习得到的一些弱分类器组合后形成的强分类器作为分级分类器的前面几级,最后再用一个强分类器进一步过滤。
由于在前几级消除了大多数的非人脸,因此通过最后一级强分类器的窗口将大大减少。这样可以获得一个既提高检测速度又提高检测精度的系统。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: