午夜毛片免费看,老师老少妇黄色网站,久久本道综合久久伊人,伊人黄片子

一種活體人臉檢測方法與系統(tǒng)的制作方法

文檔序號:6509342閱讀:906來源:國知局
一種活體人臉檢測方法與系統(tǒng)的制作方法
【專利摘要】本發(fā)明涉及一種活體人臉檢測方法與系統(tǒng),所述方法包括:從拍攝的視頻序列中獲取圖像;在視頻圖像中檢測人臉;面部關鍵區(qū)域檢測定位;通過關鍵區(qū)域檢測分類器隨機選擇動作集中的一種或多種動作,隨機選擇動作完成的次數(shù),提示用戶;若用戶在指定的時間內完成隨機選定的若干動作若干次,則判定為活體;否則,判定為非活體。本發(fā)明在進行活體檢測時,系統(tǒng)每次隨機選定一些動作以及指定完成動作的次數(shù),因此,用戶不可能利用照片來欺騙從而通過活體檢測。另外,由于被檢測項是隨機選擇的,用戶不可能通過播放視頻剪輯的方式來通過活體檢測。所以本發(fā)明可以更好地防止活體檢測中的照片和視頻剪輯方式等欺詐行為,使得活體檢測的可靠性和安全性更高。
【專利說明】一種活體人臉檢測方法與系統(tǒng)
【技術領域】
[0001]本發(fā)明屬于生物特征識別領域,尤其涉及一種活體人臉檢測方法與系統(tǒng)。
【背景技術】
[0002]隨著生物特征識別技術的迅速發(fā)展和廣泛應用,其安全性也受到嚴峻的挑戰(zhàn),研究者們越來越關注其安全問題。如何保證生物特征識別系統(tǒng)所提取的生物信息是從具有生物活性的活體用戶獲取,并能夠抵抗復制或者重復攻擊是很多人關注的焦點。假冒者可以使用橡皮泥偽造的指紋,人臉照片,人臉素描,人臉視頻,三維模型合成等攻擊手段來欺騙現(xiàn)有的生物識別系統(tǒng),從而騙取得到合法的身份認證,從事非法活動。因此,如果生物特征識別系統(tǒng)缺少有效的假冒攻擊,欺騙檢測功能,將給生物特征識別技術的推廣應用帶來很大的障礙。通常來講,生物特征識別系統(tǒng)中的欺詐技術主要是通過復制或者偽造的方法來攻擊生物特征認證識別系統(tǒng)。
[0003]通常意義上的活體檢測是當生物特征信息從合法用戶那里取得時,判斷該生物信息是否從具有生物活性的合法用戶身上取得的。活體檢測的方法主要是通過識別活體上的生理信息來進行,它把生理信息作為生命特征來區(qū)別用照片、硅膠、塑泥等非生命物質偽造的生物特征。活體中的生理信息大致來自三個方面:
[0004]( I)從生物特征信息中獲??;
[0005](2)從生物特征信息的后處理中獲取;
[0006](3)從額外的設備中獲??;
[0007]從生物特征信息的后處理中獲取活體信息,是目前大多數(shù)活體檢測研究的內容。由于人臉采集性好,處理方便,因此,通常在生物特征識別系統(tǒng),尤其是人臉檢測與識別系統(tǒng)中經(jīng)常會利用人臉信息來進行活體檢測。
[0008]一般而言,活體人臉檢測面臨著三種欺詐手段:
[0009]( I)使用合法用戶的照片;
[0010](2)使用合法用戶的視頻;
[0011](3)使用合法用戶的三維模型;
[0012]其中,使用合法用戶的照片欺詐是最常見的一種方式。原因在于一個人的臉部圖像是非常容易獲取的,比如,通過互聯(lián)網(wǎng)下載,通過攝像頭在合法用戶不知情的情況下抓拍等。入侵者可以通過人臉圖像在圖像采集設備前旋轉、翻轉、彎曲、搖擺等手段造成一種類似于合法用戶真人的效果去欺騙生物識別認證系統(tǒng)。并且,目前來看,檢測一張輸入的圖像是來自真實人臉或者是照片人臉依舊是一件非常有挑戰(zhàn)性的工作。
[0013]視頻欺詐是另外一種對于人臉識別系統(tǒng)具有很大威脅的手段,這種手段呈現(xiàn)出的效果和真實人臉的效果非常相似,而合法用戶的臉部視頻可以通過其面前的針孔攝像頭獲取。并且這種方法具有很多特征,如頭部運動,臉部表情、眨眼運動等。這些特征是照片所不具備的,正因為如此,這種欺詐手段也是對活體檢測系統(tǒng)威脅最大的一種;
[0014]三維模型具備人臉的三維信息,然而這些信息是剛性的,并且是缺少生理信息,并且要仿造一個活人的三維模型是非常困難的。所以,照片欺騙和視頻欺騙是攻擊活體人臉檢測系統(tǒng)最常見,最普遍的手段和方法。
[0015]總體來講,人類在區(qū)分真實人臉或者假冒人臉時,并不需要太多的努力,因為人類能夠很容易的識別出很多活體的物理特征,比如,人臉表情變化,嘴部變化、頭部旋轉、眼睛變化。然而,捕獲這些細節(jié)特征對于計算機而言是非常困難的,而在不受控條件下,會更加的困難。
[0016]利用人臉信息進行活體檢測的技術方案,目前可以大致分為兩種:
[0017](I)采用盲檢測的方法;
[0018]該方法一般是利用用戶不經(jīng)意或無意識的動作信息或者人臉三維信息來進行活體判別。例如,通過判斷用戶在不經(jīng)意間是否有眨眼行為來判定是否是活體;或者,通過機器學習的方法,對大量的真實人臉和照片人臉進行紋理特征的頻譜分析,在頻率域構建一個兩類分類器,從而進行分類判別。此外,也有人通過結構光等方式利用二維圖像來重構人臉面部的三維信息,并根據(jù)三維信息中深度分量的分布情況來判定該畫面中出現(xiàn)的人臉是真實人臉還是照片人臉;對于應用最廣泛的眨眼動作而言,人的眨眼頻率相對較低,很難捕捉到可用的信息。此外,環(huán)境光照條件,高清晰的照片和高分辨率的攝像頭會對頻譜分析的方法產生較大影響,造成結果不準確;而人臉的三維信息則較難獲得,同時人臉面部的凹凸不平等信息不足以明顯使得系統(tǒng)較好的將真實人臉同照片區(qū)別開。更不用說跟事先錄制好的視頻區(qū)別開了。因此,盲檢測的方法并不能有效、可靠的判斷當前畫面中出現(xiàn)的人臉是否是活體;這也就意味著,如果采用盲檢測的方法進行活體檢測,很容易產生誤判或者判斷失效,這樣也就失去了活體檢測的意義。
[0019](2)基于用戶配合的方法;
[0020]這種方法一般是由系統(tǒng)發(fā)出指令,告訴用戶完成指定的動作,通常都是眨眼或者轉動頭部,來迎合系統(tǒng)的測試,從而達到活體檢測的目的;這種方法通常由系統(tǒng)發(fā)出固定的指令,并要求用戶來完成。這種方式存在一定的缺陷,即:系統(tǒng)的流程是固定的,活體檢測的流程和檢測項也是固定的,如此,用戶便可以通過播放視頻剪輯的方式來通過活體檢測的固定檢測項和固定流程。從而非法獲得一個合法用戶的身份認證,從事破壞活動。
[0021]目前,活體人臉檢測方法主要是利用機器學習的方法,通過收集若干真實人臉圖片和照片人臉圖片作為訓練樣本,分別提取其灰度、頻譜等特征,采用支持向量機或神經(jīng)網(wǎng)絡來進行分類判別,從而判定當前輸入的人臉來自真實人臉還是照片人臉。當用戶欺騙活體檢測系統(tǒng)時,采用的圖片是模糊不清的或者分辨率較低的圖片時,這種策略是可行的;但是,當用戶欺騙活體檢測時,采用的圖片是高清的圖片時,這種策略就會失效。因為真實人臉和高分辨率的照片人臉所表現(xiàn)出的灰度、頻譜、紋理等特征非常接近,甚至會混合在一起,導致分類器難以有效的將兩者區(qū)分開來。

【發(fā)明內容】

[0022]本發(fā)明的目的是為了驗證當前圖片或視頻序列中出現(xiàn)的人臉是否是具有生物活性特征的人體,而提出的一種活體人臉檢測方法與系統(tǒng),從而防止人為的惡意利用照片、素描、事先拍攝好的視頻等方式來攻擊生物特征識別系統(tǒng),騙取合法的身份認證,從事非法活動。[0023]為了實現(xiàn)上述目的,本發(fā)明所采用的技術方案是:
[0024]一種活體人臉檢測方法,該方法包含以下操作步驟:
[0025](I)活體人臉檢測系統(tǒng)預先保存一個含有很多動作的動作集合,包括但不限于:眨目艮、揚眉、閉眼、瞪眼、遮擋眼睛、遮擋鼻孔、微笑、笑臉、伸舌頭、觸摸下巴等。
[0026](2)從拍攝的視頻序列中獲取圖像;
[0027]本發(fā)明的活體人臉檢測基于現(xiàn)場攝像頭拍攝的視頻圖像,因此首先需要從攝像頭拍攝的視頻序列中獲取一定數(shù)量的圖像。支持的視頻圖像的格式包括但不限于RGB24、RGBA32、YUV420、YUV422、GRAY 等。
[0028]( 3 )在視頻圖像中檢測人臉;
[0029]首先要確定輸入的視頻圖像中是否含有人臉,如果沒有則需要返回上述步驟
(2)重新采集人臉圖像。人臉檢測即是在輸入的視頻圖像中搜索以確定其中是否含有人臉,如果是則返回人臉的位置和大小。人臉檢測方法可以是基于機器學習的方法,如基于Haar-1 ike或LBP特征和Adaboost的人臉檢測方法,也可以是基于膚色的人臉檢測方法,或者是融合上述兩種方法的人臉檢測方法。
[0030](4)通過關鍵區(qū)域檢測器對面部關鍵區(qū)域檢測定位;
[0031]關鍵區(qū)域是指人的眼睛、眉毛、鼻子、嘴巴,下巴等區(qū)域。與其他人臉面部分析技術類似,面部特征定位需要最大限度的適應人臉的各種變化,以提高算法的魯棒性。這些變化包括:各種膚色和種族差異,各個方向上的移動,尺寸,表情和光照條件上的變化,遮擋,胡須、眉毛、眼鏡等的出現(xiàn)或缺失等??紤]到面部關鍵區(qū)域檢測定位對后續(xù)的活體檢測環(huán)節(jié)有著至關重要的影響,因此,本發(fā)明中的面部關鍵區(qū)域檢測定位方法采用了幾種技術相互結合來解決問題。首先,在上一步人臉檢測的基礎上,根據(jù)先驗知識和人臉面部幾何分布得到大致的面部關鍵區(qū)域所在的位置,之后,利用機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器,然后通過這些檢測器在人臉區(qū)域內檢測出每個關鍵區(qū)域的位置,其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入;也可以是基于主動形狀模型或主動外觀模型的方法,定位出臉部的一些關鍵點,如眼角、鼻尖、嘴角等,然后基于這些關鍵點定位出關鍵區(qū)域。需要說明的是,這里的關鍵區(qū)域檢測分類器,應該有若干個,包括但不限于:左眼分類器,右眼分類器,左眉毛分類器,右眉毛分類器,鼻子分類器,嘴巴分類器,下巴分類器等;
[0032](5)判斷當前檢測到的人臉圖像是否為正面人臉;如果不是正面人臉,返回步驟
(2);否則,繼續(xù)后面的步驟;
[0033]正面人臉檢測就是判斷給定的人臉圖片,是否存在姿態(tài)傾斜(包括平面內傾斜和深度傾斜),是否存在怪異表情等。正面人臉的檢測判斷可以采用對稱性分析的方法:首先,在第一步人臉檢測的基礎上,分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此判斷出當前人臉圖片是否是正面姿態(tài)、是否存在擠眉弄眼等搞怪表情,并依此給出當前人臉圖片是否是標準正面人臉的判斷;也可以采用模式分類的方法,將人臉姿態(tài)分為左側、正面、右側,然后學習得到一個人臉姿態(tài)分類器,用此分類器判斷人臉是否為正面。
[0034](6)系統(tǒng)隨機選擇動作集中的若干種動作,隨機選擇動作完成的次數(shù),提示用戶,并判斷其是否在規(guī)定的時間內完成指定的動作;
[0035]在進行活體檢測時,系統(tǒng)隨機從動作集中選擇一種或幾種,同時,系統(tǒng)隨機指定完成動作的次數(shù),發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的動作以及規(guī)定的次數(shù)。
[0036](7)通過動作檢測器檢測用戶所做動作,若用戶在指定的時間內完成隨機選定的若干個動作若干次,則判定為活體,否則,判定為非活體。
[0037]動作檢測器首先根據(jù)所選動作,利用步驟(4)中的相應關鍵區(qū)域檢測器檢測出執(zhí)行選定動作的圖像區(qū)域,并給出這些區(qū)域的位置和大小。接著,對人臉面部區(qū)域進行規(guī)整化操作,消除噪聲、光照等的干擾,并計算面部區(qū)域的亮度均值,方差等統(tǒng)計參數(shù),利用這些參數(shù),構建一個閾值thr,根據(jù)該閾值對檢測到的執(zhí)行選定動作的圖像區(qū)域進行二值化,得到執(zhí)行選定動作的圖像區(qū)域的二值圖像(即黑白圖像)。然后,判斷執(zhí)行選定動作的圖像區(qū)域的二值圖像是否存在變化,如果存在變化,并且變化量大于給定的經(jīng)驗閾值,則認為用戶完成了一次選定動作,否則,認為沒有完成選定動作。
[0038]系統(tǒng)重復選定動作是否完成判斷,如果在規(guī)定的時間內完成系統(tǒng)隨機指定的動作次數(shù)達到要求,就認為當前畫面中出現(xiàn)的人臉為具有生物活性的人臉,否則,就認為當前畫面中的人臉是素描、照片等人為偽造的用來故意欺詐的非活體人臉。
[0039]本發(fā)明還提供一種活體人臉檢測系統(tǒng),該系統(tǒng)包括:
[0040]視頻圖像采集裝置:進行活體檢測時,需要連續(xù)地采集一定數(shù)量的人臉圖像。該裝置即是負責采集用于后續(xù)活體人臉檢測的視頻圖像。該裝置支持各種圖像采集設備,包括但不限于USB攝像頭、筆記本電腦自帶的攝像頭、移動終端(如手機、平板電腦)自帶的攝像頭等。支持的視頻圖像格式包括但不限于RGB24、RGBA32、YUV420、YUV422、GRAY等。
[0041]人臉檢測裝置:從采集的人臉視頻圖像中檢測出人臉所在位置及大小。采用的方法可以是基于統(tǒng)計學習的方法,如基于Haar-1ike特征和AdaBoost的人臉檢測方法,也可以是基于膚色特征的方法,或融合膚色特征與統(tǒng)計學習的方法。
[0042]面部關鍵區(qū)域檢測裝置:人臉檢測裝置只能得到人臉所在區(qū)域,為了更精確地分析人臉是否是活體,需要得到臉部關鍵區(qū)域的信息,因此首先需要定位出關鍵區(qū)域所在位置。該裝置的目的就是精確定位出臉部關鍵區(qū)域,如眼睛區(qū)域、鼻子區(qū)域、嘴巴區(qū)域等。采用的方法可以是基于機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器,然后通過這些檢測器在人臉區(qū)域內檢測出每個關鍵區(qū)域的位置,其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入;也可以是基于主動形狀模型或主動外觀模型的方法,定位出臉部的一些關鍵點,如眼角、鼻尖、嘴角等,然后基于這些關鍵點定位出關鍵區(qū)域。
[0043]人臉姿態(tài)估計裝置:為了后續(xù)更準確地判斷人臉是否為活體人臉,需要保證人臉是正面的。該裝置的目的就是判斷人臉是否為正面。采用的方法可以是分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此判斷出當前人臉圖片是否是正面姿態(tài);也可以是基于模式分類的方法,將人臉姿態(tài)分為左側、正面、右側,然后學習得到一個人臉姿態(tài)分類器,用此分類器判斷人臉是否為正面。
[0044]隨機動作生成裝置:本發(fā)明提供的活體人臉檢測系統(tǒng)預先保存一個含有很多動作的動作集合,包括但不限于:眨眼、揚眉、閉眼、瞪眼、遮擋眼睛、遮擋鼻孔、微笑、笑臉、伸舌頭、觸摸下巴等。隨機動作生成裝置的目的是在進行活體檢測時,隨機從動作集中選擇一種或幾種,同時隨機指定完成動作的次數(shù),發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的動作以及規(guī)定的次數(shù)。
[0045]活體人臉判斷裝置:此裝置利用動作檢測器,判斷用戶是否在指定的時間內完成了所述隨機動作生成裝置指定的動作及規(guī)定的次數(shù),如果完成了,則判斷為活體,否則判為非活體,并將判斷結果反饋給用戶。
[0046]本發(fā)明屬于用戶配合的活體人臉檢測領域,本發(fā)明與現(xiàn)有的技術方案不同之處在于,用戶事先并不知道系統(tǒng)發(fā)出何種指令,要求用戶做出何種動作,而且,用戶事先也并不知曉系統(tǒng)要求的動作完成次數(shù)。原因在于,本發(fā)明定義了一個動作集,包括但不限于眨眼、揚眉、閉眼、遮擋眼睛、遮擋鼻孔、皺眉、笑臉、吐舌頭等,用戶在進行活體檢測時,系統(tǒng)每次都從動作集中隨機選擇一種或若干種動作,隨機指定完成動作的次數(shù),要求用戶在規(guī)定的時間內來完成它們。由于可能隨機采用吐舌頭,眨眼,笑臉等動作,因此,用戶不可能利用照片來欺騙從而通過活體檢測。另一方面,由于被檢測項是隨機選擇的,被檢測項要求的重復次數(shù)也是隨機選擇的,因此,用戶不可能通過播放視頻剪輯的方式來通過活體檢測。這也就意味著,本發(fā)明可以更好的防止活體檢測中的照片和視頻剪輯方式等欺詐行為,使得活體檢測的可靠性和安全性更高,從而為后續(xù)的生物特征識別系統(tǒng)奠定了良好的基礎。
【專利附圖】

【附圖說明】
[0047]圖1是本發(fā)明的方法流程圖。
[0048]圖2是本發(fā)明的系統(tǒng)流程圖。
[0049]圖3是本發(fā)明基于揚眉動作的活體檢測流程圖。
[0050]圖4是本發(fā)明基于揚眉動作的檢測判斷流程圖。
[0051]圖5是本發(fā)明基于眨眼動作的活體檢測流程圖。
[0052]圖6是本發(fā)明基于眨眼動作的檢測判斷流程圖。
[0053]圖7是本發(fā)明基于笑臉動作的活體檢測流程圖。
[0054]圖8是本發(fā)明基于笑臉動作的檢測判斷流程圖。
[0055]圖9是本發(fā)明基于眼睛遮擋動作的活體檢測流程圖。
[0056]圖10是本發(fā)明基于眼睛遮擋動作的檢測判斷流程圖。
【具體實施方式】
[0057]下面將結合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例。基于本發(fā)明中的實施例,本領域普通技術人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。
[0058](I)基于揚眉動作的活體人臉檢測
[0059]如圖3所示,首先,從實際應用環(huán)境中拍攝大量人臉圖片、非人臉圖片作為人臉檢測的訓練樣本。對每個訓練樣本提取Haar-1ike特征,送入AdaBoost級聯(lián)分類器進行樣本學習和訓練。當訓練的精度達到規(guī)定的要求時,就得到了本發(fā)明需要的人臉檢測分類器。利用該分類器,就可以對任意一張圖片進行人臉檢測,從而返回圖片中是否含有人臉,以及人臉的位置和大小等信息。
[0060]在上一步人臉檢測的基礎上,根據(jù)先驗知識和人臉面部幾何分布得到大致的面部關鍵區(qū)域所在的位置,之后,利用機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器。其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入。
[0061]在第一步人臉檢測的基礎上,分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此得出判斷出當前人臉圖片是否是正面姿態(tài)、是否存在擠眉弄眼等搞怪表情,并依此給出當前人臉圖片是否是標準正面人臉的判斷。
[0062]系統(tǒng)從動作集中隨機選擇揚眉作為要求用戶配合完成的動作,隨機選擇動作完成的次數(shù)T,發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的揚眉動作以及規(guī)定的次數(shù)T ;
[0063]根據(jù)上一步隨機選擇的動作及次數(shù),系統(tǒng)不停的檢測用戶是否完成揚眉動作,如果在規(guī)定的時間內完成系統(tǒng)隨機指定的揚眉動作次數(shù)達到要求,就認為當前畫面中出現(xiàn)的人臉為具有生物活性的人臉,否則,就認為當前畫面中的人臉是素描、照片等人為偽造的用來故意欺詐的非活體人臉。
[0064]如圖4所示,輸入圖像就是人臉檢測模塊檢測到的人臉面部區(qū)域的圖像,而眉毛檢測,則利用了機器學習的方法,根據(jù)事先準備好的訓練樣本來訓練得到眉毛檢測定位用的AdaBoost分類器。對于一張輸入人臉面部圖像而言,這里的眉毛檢測模塊提取圖像區(qū)域的Haar-1ike特征,并利用AdaBoost級聯(lián)分類器進行分類判別,給出圖像中眉毛的位置和區(qū)域。接著,對人臉面部區(qū)域進行規(guī)整化操作,消除噪聲、光照等的干擾,并計算面部區(qū)域的亮度均值,方差等統(tǒng)計參數(shù),利用這些參數(shù),構建一個閾值thr,根據(jù)該閾值對檢測到的眉毛區(qū)域進行二值化,得到眉毛區(qū)域的二值圖像(即,黑白圖像)。然后,判斷眉毛區(qū)域的二值圖像是否存在變化,如果存在變化,并且變化量大于給定的經(jīng)驗閾值,則認為用戶完成了一次揚眉動作,否則,認為沒有完成揚眉動作。
[0065](2)基于眨眼動作的活體人臉檢測
[0066]如圖5所示,首先,從實際應用環(huán)境中拍攝大量人臉圖片、非人臉圖片作為人臉檢測的訓練樣本。對每個訓練樣本提取Haar-1ike特征,送入AdaBoost級聯(lián)分類器進行樣本學習和訓練。當訓練的精度達到規(guī)定的要求時,就得到了我們需要的人臉檢測分類器。利用該分類器,就可以對任意一張圖片進行人臉檢測,從而返回圖片中是否含有人臉,以及人臉的位置和大小等信息。
[0067]在上一步人臉檢測的基礎上,根據(jù)先驗知識和人臉面部幾何分布得到大致的面部關鍵區(qū)域所在的位置,之后,利用機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器。其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入。
[0068]在第一步人臉檢測的基礎上,分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此得出判斷出當前人臉圖片是否是正面姿態(tài)、是否存在擠眉弄眼等搞怪表情,并依此給出當前人臉圖片是否是標準正面人臉的判斷。
[0069]系統(tǒng)從動作集中隨機選擇眨眼作為要求用戶配合完成的動作,隨機選擇動作完成的次數(shù)T,發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的眨眼動作以及規(guī)定的次數(shù)T ;
[0070]根據(jù)上一步隨機選擇的動作及次數(shù),系統(tǒng)不停的檢測用戶是否完成眨眼動作,如果在規(guī)定的時間內完成系統(tǒng)隨機指定的眨眼動作次數(shù)達到要求,就認為當前畫面中出現(xiàn)的人臉為具有生物活性的人臉,否則,就認為當前畫面中的人臉是素描、照片等人為偽造的用來故意欺詐的非活體人臉。
[0071]如圖6所示,輸入圖像就是人臉檢測模塊得到的人臉面部區(qū)域圖像,眼睛檢測的目的是為了得到眼睛區(qū)域的位置,從而方便進行后續(xù)的眼睛區(qū)域二值化。面部區(qū)域規(guī)整化的目的是為了消除噪聲、光照等因素的干擾,并根據(jù)面部區(qū)域規(guī)整化后的結果進行亮度平均值、方差等參數(shù)的計算,并以此得到閾值thr,根據(jù)該閾值,對眼睛區(qū)域進行二值化。接著,判斷二值化之后的眼睛區(qū)域內的變化量是否大于經(jīng)驗閾值,如果大于經(jīng)驗閾值,則利用閉眼檢測分類器對人臉圖像進行閉眼檢測,如果檢測到閉眼,再利用睜眼檢測分類器判斷接下來的幾張人臉圖片是否能檢測到睜眼,如果檢測到睜眼,就認為用戶配合完成了一次睜眼一閉眼一睜眼的動作,即,完成眨眼動作,否則,認為用戶沒有配合完成眨眼動作。
[0072](3)基于笑臉動作的活體人臉檢測
[0073]如圖7所示,首先,從實際應用環(huán)境中拍攝大量人臉圖片、非人臉圖片作為人臉檢測的訓練樣本。對每個訓練樣本提取Haar-1ike特征,送入AdaBoost級聯(lián)分類器進行樣本學習和訓練。當訓練的精度達到規(guī)定的要求時,就得到了我們需要的人臉檢測分類器。利用該分類器,就可以對任意一張圖片進行人臉檢測,從而返回圖片中是否含有人臉,以及人臉的位置和大小等信息。
[0074]在上一步人臉檢測的基礎上,根據(jù)先驗知識和人臉面部幾何分布得到大致的面部關鍵區(qū)域所在的位置,之后,利用機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器。其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入。
[0075]在第一步人臉檢測的基礎上,分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此得出判斷出當前人臉圖片是否是正面姿態(tài)、是否存在擠眉弄眼等搞怪表情,并依此給出當前人臉圖片是否是標準正面人臉的判斷。
[0076]系統(tǒng)從動作集中隨機選擇微笑作為要求用戶配合完成的動作,隨機選擇動作完成的次數(shù)T,發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的微笑動作以及規(guī)定的次數(shù)T ;
[0077]根據(jù)上一步隨機選擇的動作及次數(shù),系統(tǒng)不停的檢測用戶是否完成微笑動作,如果在規(guī)定的時間內完成系統(tǒng)隨機指定的微笑動作次數(shù)達到要求,就認為當前畫面中出現(xiàn)的人臉為具有生物活性的人臉,否則,就認為當前畫面中的人臉是素描、照片等人為偽造的用來故意欺詐的非活體人臉。
[0078]如圖8所示,輸入圖像就是人臉檢測的結果,S卩:人臉面部區(qū)域的圖像。面部關鍵特征點定位的目的是為了得到人臉面部很多個關鍵特征點,例如:兩只眼睛的左右眼角,上下眼皮中點,兩只眉毛的左右端點,眉毛的上下中點,兩個嘴角,上下嘴唇的中點,下巴、臉頰的輪廓點等。面部關鍵特征點的檢測定位可以通過AAM,ASM等技術來實現(xiàn),也可以通過角點檢測或者先驗知識來完成。面部關鍵特征點定位的目的是為了計算人臉面部的平面內傾斜旋轉角度,并依此來對人臉面部圖像進行旋轉、配準和對齊操作,使得所有輸入人臉都歸一化到雙眼水平,面部區(qū)域裁剪到固定大小,雙眼位于固定位置等。面部區(qū)域旋轉、配準、對齊之后,就可以對面部區(qū)域進行特征提取,常用的特征有紋理特征和頻譜特征,例如,灰度共生陣,LBP (Local Binary Pattern),Gabor,LTP(Local Ternary Pattern)等;分類器可采用SVM,ANN,或者AdaBoost等。需要說明的是,不管采用哪種分類器,都需要事先采集大量的笑臉、非笑臉樣本進行樣本學習和訓練。[0079](4)基于眼睛遮擋動作的活體人臉檢測
[0080]如圖9所示,首先,從實際應用環(huán)境中拍攝大量人臉圖片、非人臉圖片作為人臉檢測的訓練樣本。對每個訓練樣本提取Haar-1ike特征,送入AdaBoost級聯(lián)分類器進行樣本學習和訓練。當訓練的精度達到規(guī)定的要求時,就得到了我們需要的人臉檢測分類器。利用該分類器,就可以對任意一張圖片進行人臉檢測,從而返回圖片中是否含有人臉,以及人臉的位置和大小等信息。
[0081]在上一步人臉檢測的基礎上,根據(jù)先驗知識和人臉面部幾何分布得到大致的面部關鍵區(qū)域所在的位置,之后,利用機器學習的方法,進行樣本訓練,得到關鍵區(qū)域檢測分類器。其中分類器采用AdaBoost級聯(lián)分類器,提取Haar-1ike特征作為分類器輸入。
[0082]在第一步人臉檢測的基礎上,分析左眼、右眼以及左眉毛、右眉毛的對稱性,以此得出判斷出當前人臉圖片是否是正面姿態(tài)、是否存在擠眉弄眼等搞怪表情,并依此給出當前人臉圖片是否是標準正面人臉的判斷。
[0083]系統(tǒng)從動作集中隨機選擇眼睛遮擋作為要求用戶配合完成的動作,隨機選擇動作完成的次數(shù)T,發(fā)出相應的指令信息,要求用戶配合在指定的時間內完成規(guī)定的眼睛遮擋動作以及規(guī)定的次數(shù)T ;
[0084]根據(jù)上一步隨機選擇的動作及次數(shù),系統(tǒng)不停的檢測用戶是否完成眼睛遮擋動作,如果在規(guī)定的時間內完成系統(tǒng)隨機指定的眼睛遮擋動作次數(shù)達到要求,就認為當前畫面中出現(xiàn)的人臉為具有生物活性的人臉,否則,就認為當前畫面中的人臉是素描、照片等人為偽造的用來故意欺詐的非活體人臉。
[0085]如圖10所示,眼睛遮擋檢測模塊的輸入是人臉檢測的結果,即:人臉面部圖像,該模塊首先調用睜眼分類器進行睜眼檢測,如果檢測到睜眼,則跳出本次眼睛遮擋檢測。如果檢測不到睜眼,則進行眉毛檢測,之后,判斷眉毛下方一定區(qū)域內是否存在暗的區(qū)域,如果存在暗區(qū)則認為用戶配合完成了眼睛遮擋的動作;否則,認為不存在眼睛遮擋動作。
[0086]本說明書中未作詳細描述的內容屬于本領域專業(yè)技術人員公知的現(xiàn)有技術。
【權利要求】
1.一種活體人臉檢測方法,其特征在于,所述方法包括: 步驟I,預先保存一個動作集; 步驟2,從拍攝的視頻序列中獲取圖像; 步驟3,在視頻圖像中檢測人臉,如果檢測到人臉,則確定人臉的位置和大??;否則,返回步驟2 ; 步驟4,通過關鍵區(qū)域檢測器對檢測到的人臉的面部關鍵區(qū)域檢測定位; 步驟5,判斷當前檢測到的人臉圖像是否為正面人臉;如果不是正面人臉,返回步驟2 ;否則,繼續(xù)下一步驟; 步驟6,隨機選擇步驟I所述動作集中的一種或多種動作,同時隨機選擇所述一種或多種動作完成的次數(shù),并提示用戶; 步驟7,通過動作檢測器檢測用戶所做動作,若用戶在指定的時間內完成步驟6中隨機選擇的一種或多種動作和動作完成的次數(shù),則判定為活體;否則,判定為非活體。
2.如權利要求1所述的活體人臉檢測方法,其特征在于,步驟3中檢測人臉的方法采用機器學習的方法或基于膚色的人臉檢測方法中的一種或兩種。
3.如權利要求1所述的活體人臉檢測方法,其特征在于,步驟4中面部關鍵區(qū)域檢測定位的方法采用機器學習的方法; 或,基于主動形狀模型的方法。
4.如權利要求1所述的活體人臉檢測方法,其特征在于,步驟5中所述正面人臉檢測方法采用對稱性分析的方法; 或,采用模式分類的方法。
5.如權利要求1所述的活體人臉檢測方法,其特征在于,步驟7的具體步驟是: 步驟701,所述動作檢測器首先根據(jù)所選定的動作,利用相應的面部關鍵區(qū)域檢測器檢測出執(zhí)行選定動作的圖像區(qū)域,并給出圖像區(qū)域的位置和大小; 步驟702,對人臉面部區(qū)域進行規(guī)整化操作,并利用所述規(guī)整過程的參數(shù)構建閾值;步驟703,根據(jù)所述閾值對檢測到的執(zhí)行選定動作的圖像區(qū)域進行二值化,得到執(zhí)行選定動作的圖像區(qū)域的二值圖像; 步驟704,判斷執(zhí)行選定動作的圖像區(qū)域的二值圖像是否存在變化,并與閾值進行比較; 步驟705,按照選擇的動作完成次數(shù),重復步驟701-步驟704,完成活體人臉檢測過程。
6.一種活體人臉檢測系統(tǒng),其特征在于,所述系統(tǒng)包括: 視頻圖像采集裝置,采集用于活體人臉檢測的視頻圖像; 人臉檢測裝置,用于從采集的人臉視頻圖像中檢測出人臉所在位置及大??; 面部關鍵區(qū)域檢測裝置,用于定位面部關鍵區(qū)域; 人臉姿態(tài)估計裝置,用于判斷人臉是否為正面; 隨機動作生成裝置,用于從預先保存的動作集中隨機選擇一種以上動作,隨機指定完成動作次數(shù),并發(fā)出相應的指令信息; 活體人臉判斷裝置,用于判斷用戶是否在指定的時間內完成指定的動作及次數(shù),并將判斷結果反饋給用戶。
【文檔編號】G06K9/62GK103440479SQ201310384572
【公開日】2013年12月11日 申請日期:2013年8月29日 優(yōu)先權日:2013年8月29日
【發(fā)明者】王先基, 陳友斌 申請人:湖北微模式科技發(fā)展有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1