摘要:通過兩個主要的API,Android提供了一個直接在位元影像上進行臉部檢測的方法,這兩個API分別是 android.media.FaceDetector和android.media.FaceDetector.Face,已經包含在Android官方API中。
通過兩個主要的API,Android提供了一個直接在位元影像上進行臉部檢測的方法,這兩個API分別是 android.media.FaceDetector和android.media.FaceDetector.Face,已經包含在Android官方API中。向大家介紹了這些API。
所謂臉部偵測就是指從一副圖片或者一幀視頻中標定出所有人臉的位置和尺寸。臉部偵測是Face Service系統中的一個重要環節,也可以獨立應用於視頻監控。在數位媒體日益普及的今天,利用臉部偵測技術還可以協助我們從海量圖片資料中快速篩選出包含人臉的圖片。 在目前的數位相機中,臉部偵測可以用來完成自動對焦,即“臉部對焦”。“臉部對焦”是在自動曝光和自動對焦發明後,二十年來最重要的一次攝影技術革新。家用數位相機,占絕大多數的照片是以人為拍攝主體的,這就要求相機的自動曝光和對焦以人物為基準。
構建一個臉部偵測的Android Activity
你可以構建一個通用的Android Activity,我們擴充了基類ImageView,成為MyImageView,而我們需要進行檢測的包含人臉的位元影像檔案必須是565格式,API才能正常工作。被檢測出來的人臉需要一個置信測度(confidence measure),這個措施定義在android.media.FaceDetector.Face.CONFIDENCE_THRESHOLD。
最重要的方法實現在setFace(),它將FaceDetector對象執行個體化,同時調用findFaces,結果存放在faces裡,人臉的中點轉移到MyImageView。代碼如下:
- publicclass TutorialOnFaceDetect1 extends Activity {
- private MyImageView mIV;
- private Bitmap mFaceBitmap;
- privateint mFaceWidth = 200;
- privateint mFaceHeight = 200;
- privatestaticfinalint MAX_FACES = 1;
- privatestatic String TAG = "TutorialOnFaceDetect";
- @Override
- publicvoid onCreate(Bundle savedInstanceState) {
- super.onCreate(savedInstanceState);
- mIV = new MyImageView(this);
- setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT));
- // load the photo
- Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3);
- mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true);
- b.recycle();
- mFaceWidth = mFaceBitmap.getWidth();
- mFaceHeight = mFaceBitmap.getHeight();
- mIV.setImageBitmap(mFaceBitmap);
- // perform face detection and set the feature points setFace();
- mIV.invalidate();
- }
- publicvoid setFace() {
- FaceDetector fd;
- FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES];
- PointF midpoint = new PointF();
- int [] fpx = null;
- int [] fpy = null;
- int count = 0;
- try {
- fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES);
- count = fd.findFaces(mFaceBitmap, faces);
- } catch (Exception e) {
- Log.e(TAG, "setFace(): " + e.toString());
- return;
- }
- // check if we detect any faces
- if (count > 0) {
- fpx = newint[count];
- fpy = newint[count];
- for (int i = 0; i < count; i++) {
- try {
- faces[i].getMidPoint(midpoint);
- fpx[i] = (int)midpoint.x;
- fpy[i] = (int)midpoint.y;
- } catch (Exception e) {
- Log.e(TAG, "setFace(): face " + i + ": " + e.toString());
- }
- }
- }
- mIV.setDisplayPoints(fpx, fpy, count, 0);
- }
- }
接下來的代碼中,我們在MyImageView中添加setDisplayPoints() ,用來在被檢測出的人臉上標記渲染。圖1展示了一個標記在被檢測處的人臉上處於中心位置。
- // set up detected face features for display
- publicvoid setDisplayPoints(int [] xx, int [] yy, int total, int style) {
- mDisplayStyle = style;
- mPX = null;
- mPY = null;
- if (xx != null && yy != null && total > 0) {
- mPX = newint[total];
- mPY = newint[total];
- for (int i = 0; i < total; i++) {
- mPX[i] = xx[i];
- mPY[i] = yy[i];
- }
- }
- }
圖1:單一臉部偵測
多臉部偵測
通過FaceDetector可以設定檢測到人臉數目的上限。比如設定最多隻檢測10張臉:
- privatestaticfinalint MAX_FACES = 10;
圖2展示檢測到多張人臉的情況。
圖2:多人臉部偵測
定位眼睛中心位置
Android臉部偵測返回其他有用的資訊,例同時會返回如eyesDistance,pose,以及confidence。我們可以通過eyesDistance來定位眼睛的中心位置。
下面的代碼中,我們將setFace()放在doLengthyCalc()中。同時圖3展示了定位眼睛中心位置的效果。
- publicclass TutorialOnFaceDetect extends Activity {
- private MyImageView mIV;
- private Bitmap mFaceBitmap;
- privateint mFaceWidth = 200;
- privateint mFaceHeight = 200;
- privatestaticfinalint MAX_FACES = 10;
- privatestatic String TAG = "TutorialOnFaceDetect";
- privatestaticboolean DEBUG = false;
- protectedstaticfinalint GUIUPDATE_SETFACE = 999;
- protected Handler mHandler = new Handler(){
- // @Override
- publicvoid handleMessage(Message msg) {
- mIV.invalidate();
- super.handleMessage(msg);
- }
- };
- @Override
- publicvoid onCreate(Bundle savedInstanceState) {
- super.onCreate(savedInstanceState);
- mIV = new MyImageView(this);
- setContentView(mIV, new LayoutParams(LayoutParams.WRAP_CONTENT, LayoutParams.WRAP_CONTENT));
- // load the photo
- Bitmap b = BitmapFactory.decodeResource(getResources(), R.drawable.face3);
- mFaceBitmap = b.copy(Bitmap.Config.RGB_565, true);
- b.recycle();
- mFaceWidth = mFaceBitmap.getWidth();
- mFaceHeight = mFaceBitmap.getHeight();
- mIV.setImageBitmap(mFaceBitmap);
- mIV.invalidate();
- // perform face detection in setFace() in a background thread
- doLengthyCalc();
- }
- publicvoid setFace() {
- FaceDetector fd;
- FaceDetector.Face [] faces = new FaceDetector.Face[MAX_FACES];
- PointF eyescenter = new PointF();
- float eyesdist = 0.0f;
- int [] fpx = null;
- int [] fpy = null;
- int count = 0;
- try {
- fd = new FaceDetector(mFaceWidth, mFaceHeight, MAX_FACES);
- count = fd.findFaces(mFaceBitmap, faces);
- } catch (Exception e) {
- Log.e(TAG, "setFace(): " + e.toString());
- return;
- }
- // check if we detect any faces
- if (count > 0) {
- fpx = newint[count * 2];
- fpy = newint[count * 2];
- for (int i = 0; i < count; i++) {
- try {
- faces[i].getMidPoint(eyescenter);
- eyesdist = faces[i].eyesDistance();
- // set up left eye location
- fpx[2 * i] = (int)(eyescenter.x - eyesdist / 2);
- fpy[2 * i] = (int)eyescenter.y;
- // set up right eye location
- fpx[2 * i + 1] = (int)(eyescenter.x + eyesdist / 2);
- fpy[2 * i + 1] = (int)eyescenter.y;
- if (DEBUG) {
- Log.e(TAG, "setFace(): face " + i + ": confidence = " + faces[i].confidence()
- + ", eyes distance = " + faces[i].eyesDistance()
- + ", pose = ("+ faces[i].pose(FaceDetector.Face.EULER_X) + ","
- + faces[i].pose(FaceDetector.Face.EULER_Y) + ","
- + faces[i].pose(FaceDetector.Face.EULER_Z) + ")"
- + ", eyes midpoint = (" + eyescenter.x + "," + eyescenter.y +")");
- }
- } catch (Exception e) {
- Log.e(TAG, "setFace(): face " + i + ": " + e.toString());
- }
- }
- }
- mIV.setDisplayPoints(fpx, fpy, count * 2, 1);
- }
- privatevoid doLengthyCalc() {
- Thread t = new Thread() {
- Message m = new Message();
- publicvoid run() {
- try {
- setFace();
- m.what = TutorialOnFaceDetect.GUIUPDATE_SETFACE;
- TutorialOnFaceDetect.this.mHandler.sendMessage(m);
- } catch (Exception e) {
- Log.e(TAG, "doLengthyCalc(): " + e.toString());
- }
- }
- };
- t.start();
- }
- }
圖3:定位眼睛中心位置
色彩 vs. 灰階
通常來講,臉部偵測成功取決於搜尋人臉高對比地區,實際效果來看色彩和灰階的差距不會太遠。不過很多學者仍在致力於證明色彩比灰階更靠譜。經過在對樣本圖片的驗證,發現Android APIs返回的結果非常接近,似乎APIs意圖忽略掉不同色彩通道的因素。請看圖4(BTW,獨自一人在陰暗環境下請謹慎觀看):
圖4:灰階臉部偵測看起來會稍微有點恐怖
總結
介紹了簡單的Android臉部偵測APIs,並通過執行個體進行了示範。以上的軟體包均可在官網上下載,方便大家將其import到Eclipse中。最後提供一些有益的忠告:
- 很多應用對臉部偵測其實都有著潛在的重要需求,例如去紅眼、計算人頭數、自動對焦人臉、添加人臉特效等等。
- 這個世界上存在有非常多的人臉資料庫,有意者請點擊此處。
- 在即時的臉部偵測過程中,Android的表現的會有一點點差強人意。