Android API教程:人脸检测(Face Detect)
2012-06-25 22:49
501 查看
通过两个主要的API,Android提供了一个直接在位图上进行脸部检测的方法,这两个API分别是 android.media.FaceDetector和android.media.FaceDetector.Face,已经包含在Android官方API中。本教程来自Developer网站,向大家介绍了这些API,同时提供教程中实例代码下载。
图片来源:Wikipedia
你可以构建一个通用的Android Activity,我们扩展了基类ImageView,成为MyImageView,而我们需要进行检测的包含人脸的位图文件必须是565格式,API才能正常工作。被检测出来的人脸需要一个置信测度(confidence measure),这个措施定义在android.media.FaceDetector.Face.CONFIDENCE_THRESHOLD。
最重要的方法实现在setFace(),它将FaceDetector对象实例化,同时调用findFaces,结果存放在faces里,人脸的中点转移到MyImageView。代码如下:
图1:单一人脸检测
多人脸检测
通过FaceDetector可以设定检测到人脸数目的上限。比如设置最多只检测10张脸:
图2:多人人脸检测
定位眼睛中心位置
Android人脸检测返回其他有用的信息,例同时会返回如eyesDistance,pose,以及confidence。我们可以通过eyesDistance来定位眼睛的中心位置。
下面的代码中,我们将setFace()放在doLengthyCalc()中。同时图3展示了定位眼睛中心位置的效果。
图3:定位眼睛中心位置
色彩 vs. 灰度
通常来讲,人脸检测成功取决于搜索人脸高对比度区域,实际效果来看色彩和灰度的差距不会太远。不过很多学者仍在致力于证明色彩比灰度更靠谱。经过在对示例图片的验证,发现Android APIs返回的结果非常接近,似乎APIs意图忽略掉不同颜色通道的因素。请看图4(BTW,独自一人在阴暗环境下请谨慎观看):
图4:灰度人脸检测看起来会稍微有点恐怖
总结
通过本次教程,我们介绍了简单的Android人脸检测APIs,并通过实例进行了演示。以上的软件包均可在官网上下载,方便大家将其import到Eclipse中。最后提供一些有益的忠告:
很多应用对人脸检测其实都有着潜在的重要需求,例如去红眼、计算人头数、自动对焦人脸、添加人脸特效等等。
这个世界上存在有非常多的人脸数据库,有意者请点击此处。
在实时的人脸检测过程中,Android的表现的会有一点点差强人意。
图片来源:Wikipedia
所谓人脸检测就是指从一副图片或者一帧视频中标定出所有人脸的位置和尺寸。人脸检测是人脸识别系统中的一个重要环节,也可以独立应用于视频监控。在数字媒体日益普及的今天,利用人脸检测技术还可以帮助我们从海量图片数据中快速筛选出包含人脸的图片。 在目前的数码相机中,人脸检测可以用来完成自动对焦,即“脸部对焦”。“脸部对焦”是在自动曝光和自动对焦发明后,二十年来最重要的一次摄影技术革新。家用数码相机,占绝大多数的照片是以人为拍摄主体的,这就要求相机的自动曝光和对焦以人物为基准。
via cdstm.cn
构建一个人脸检测的Android Activity你可以构建一个通用的Android Activity,我们扩展了基类ImageView,成为MyImageView,而我们需要进行检测的包含人脸的位图文件必须是565格式,API才能正常工作。被检测出来的人脸需要一个置信测度(confidence measure),这个措施定义在android.media.FaceDetector.Face.CONFIDENCE_THRESHOLD。
最重要的方法实现在setFace(),它将FaceDetector对象实例化,同时调用findFaces,结果存放在faces里,人脸的中点转移到MyImageView。代码如下:
public class TutorialOnFaceDetect1 extends Activity { private MyImageView mIV; private Bitmap mFaceBitmap; private int mFaceWidth = 200; private int mFaceHeight = 200; private static final int MAX_FACES = 1; private static String TAG = "TutorialOnFaceDetect"; @Override public void onCreate(Bundle savedInstanceState) { super.onCreate(savedInstanceState); mIV = new MyImageView(this); setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT)); // load the photo Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3); mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true); b.recycle(); mFaceWidth = mFaceBitmap.getWidth(); mFaceHeight = mFaceBitmap.getHeight(); mIV.setImageBitmap(mFaceBitmap); // perform face detection and set the feature points setFace(); mIV.invalidate(); } public void setFace() { FaceDetector fd; FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES]; PointF midpoint = new PointF(); int [] fpx = null; int [] fpy = null; int count = 0; try { fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES); count = fd.findFaces(mFaceBitmap, faces); } catch (Exception e) { Log.e(TAG, "setFace(): " + e.toString()); return; } // check if we detect any faces if (count > 0) { fpx = new int[count]; fpy = new int[count]; for (int i = 0; i < count; i++) { try { faces[i].getMidPoint(midpoint); fpx[i] = (int)midpoint.x; fpy[i] = (int)midpoint.y; } catch (Exception e) { Log.e(TAG, "setFace(): face " + i + ": " + e.toString()); } } } mIV.setDisplayPoints(fpx, fpy, count, 0); } }接下来的代码中,我们在MyImageView中添加setDisplayPoints() ,用来在被检测出的人脸上标记渲染。图1展示了一个标记在被检测处的人脸上处于中心位置。
// set up detected face features for display public void setDisplayPoints(int [] xx, int [] yy, int total, int style) { mDisplayStyle = style; mPX = null; mPY = null; if (xx != null && yy != null && total > 0) { mPX = new int[total]; mPY = new int[total]; for (int i = 0; i < total; i++) { mPX[i] = xx[i]; mPY[i] = yy[i]; } } }
图1:单一人脸检测
多人脸检测
通过FaceDetector可以设定检测到人脸数目的上限。比如设置最多只检测10张脸:
private static final int MAX_FACES = 10;图2展示检测到多张人脸的情况。
图2:多人人脸检测
定位眼睛中心位置
Android人脸检测返回其他有用的信息,例同时会返回如eyesDistance,pose,以及confidence。我们可以通过eyesDistance来定位眼睛的中心位置。
下面的代码中,我们将setFace()放在doLengthyCalc()中。同时图3展示了定位眼睛中心位置的效果。
public class TutorialOnFaceDetect extends Activity {
private MyImageView mIV;
private Bitmap mFaceBitmap;
private int mFaceWidth = 200;
private int mFaceHeight = 200;
private static final int MAX_FACES = 10;private static String TAG = "TutorialOnFaceDetect";
private static boolean DEBUG = false;
protected static final int GUIUPDATE_SETFACE = 999;
protected Handler mHandler = new Handler(){
// @Override
public void handleMessage(Message msg) {
mIV.invalidate();
super.handleMessage(msg);
}
};
@Override
public void onCreate(Bundle savedInstanceState) {
super.onCreate(savedInstanceState);
mIV = new MyImageView(this);
setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT));
// load the photo
Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3);
mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true);
b.recycle();
mFaceWidth = mFaceBitmap.getWidth();
mFaceHeight = mFaceBitmap.getHeight();
mIV.setImageBitmap(mFaceBitmap);
mIV.invalidate();
// perform face detection in setFace() in a background thread
doLengthyCalc();
}
public void setFace() {
FaceDetector fd;
FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES];
PointF eyescenter = new PointF();
float eyesdist = 0.0f;
int [] fpx = null;
int [] fpy = null;
int count = 0;
try {
fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES);
count = fd.findFaces(mFaceBitmap, faces);
} catch (Exception e) {
Log.e(TAG, "setFace(): " + e.toString());
return;
}
// check if we detect any faces
if (count > 0) {
fpx = new int[count * 2];
fpy = new int[count * 2];
for (int i = 0; i < count; i++) {
try {
faces[i].getMidPoint(eyescenter);
eyesdist = faces[i].eyesDistance();
// set up left eye location
fpx[2 * i] = (int)(eyescenter.x - eyesdist / 2);
fpy[2 * i] = (int)eyescenter.y;
// set up right eye location
fpx[2 * i + 1] = (int)(eyescenter.x + eyesdist / 2);
fpy[2 * i + 1] = (int)eyescenter.y;
if (DEBUG) {
Log.e(TAG, "setFace(): face " + i + ": confidence = " + faces[i].confidence()
+ ", eyes distance = " + faces[i].eyesDistance()
+ ", pose = ("+ faces[i].pose(FaceDetector.Face.EULER_X) + ","
+ faces[i].pose(FaceDetector.Face.EULER_Y) + ","
+ faces[i].pose(FaceDetector.Face.EULER_Z) + ")"
+ ", eyes midpoint = (" + eyescenter.x + "," + eyescenter.y +")");
}
} catch (Exception e) {
Log.e(TAG, "setFace(): face " + i + ": " + e.toString());
}
}
}
mIV.setDisplayPoints(fpx, fpy, count * 2, 1);
}
private void doLengthyCalc() {
Thread t = new Thread() {
Message m = new Message();
public void run() {
try {
setFace();
m.what = TutorialOnFaceDetect.GUIUPDATE_SETFACE;
TutorialOnFaceDetect.this.mHandler.sendMessage(m);
} catch (Exception e) {
Log.e(TAG, "doLengthyCalc(): " + e.toString());
}
}
};
t.start();
}
}
图3:定位眼睛中心位置
色彩 vs. 灰度
通常来讲,人脸检测成功取决于搜索人脸高对比度区域,实际效果来看色彩和灰度的差距不会太远。不过很多学者仍在致力于证明色彩比灰度更靠谱。经过在对示例图片的验证,发现Android APIs返回的结果非常接近,似乎APIs意图忽略掉不同颜色通道的因素。请看图4(BTW,独自一人在阴暗环境下请谨慎观看):
图4:灰度人脸检测看起来会稍微有点恐怖
总结
通过本次教程,我们介绍了简单的Android人脸检测APIs,并通过实例进行了演示。以上的软件包均可在官网上下载,方便大家将其import到Eclipse中。最后提供一些有益的忠告:
很多应用对人脸检测其实都有着潜在的重要需求,例如去红眼、计算人头数、自动对焦人脸、添加人脸特效等等。
这个世界上存在有非常多的人脸数据库,有意者请点击此处。
在实时的人脸检测过程中,Android的表现的会有一点点差强人意。
相关文章推荐
- Android API教程:人脸检测(Face Detect)
- Android API教程:人脸检测(Face Detect)
- Android API教程:人脸检测(Face Detect)
- Android API教程:人脸检测(Face Detect)
- Android API教程:人脸检测(Face Detect)
- Android API 人脸检测(Face Detect)
- Android API 人脸检测(Face Detect)
- Android API教程:人脸检测
- Android API教程:人脸检测(上)
- Android API教程:人脸检测(上)
- Android API教程:人脸检测
- Android API教程:人脸检测(上)
- Android API教程:人脸检测(上)
- 微信公众平台开发教程第19篇-应用实例之人脸检测
- Android FaceDetector实现人脸检测,人脸追踪(框出人脸)(MVP模式)
- 微信公众平台开发教程第19篇-应用实例之人脸检测
- WiderFace数据集用于训练人脸检测模型
- android之人脸检测FaceDetector||人体?
- 人脸检测“Face detections without bells and whistles”
- [043] 微信公众平台开发教程第19篇-应用实例之人脸检测