午夜毛片免费看,老师老少妇黄色网站,久久本道综合久久伊人,伊人黄片子

一種基于視頻的人臉美麗評(píng)價(jià)方法

文檔序號(hào):1225648閱讀:323來(lái)源:國(guó)知局

專利名稱::一種基于視頻的人臉美麗評(píng)價(jià)方法
技術(shù)領(lǐng)域
:本發(fā)明涉及計(jì)算機(jī)圖像數(shù)據(jù)處理及模式識(shí)別技術(shù),特別涉及一種計(jì)算機(jī)客觀評(píng)價(jià)人臉美麗程度的系統(tǒng)。
背景技術(shù)
:評(píng)價(jià)一個(gè)人是否美麗,不可避免的要受到評(píng)判人主觀因素的影響,一般認(rèn)為這是一個(gè)較抽象的任務(wù)。不同的民族有著自己評(píng)價(jià)的標(biāo)準(zhǔn),以女人為例,歐洲以嘴大為美,但東方人卻認(rèn)為嘴巴小巧才是美麗的。而同一個(gè)民族,在不同時(shí)期的審美標(biāo)準(zhǔn)也大相徑庭,漢朝的人喜歡像趙飛燕那樣的痩,到了唐朝卻喜歡楊玉環(huán)般的豐滿。即使是同一個(gè)民族,同一個(gè)時(shí)代,不同的個(gè)體對(duì)美麗的評(píng)價(jià)也是千差萬(wàn)別,因此,對(duì)美麗的評(píng)價(jià)難以產(chǎn)生一個(gè)統(tǒng)一的標(biāo)準(zhǔn)。然而,人們對(duì)于美麗的欣賞還是有一定的共性的因素,一張美麗的人的臉上總是存在著某些特征,這些特征承載著"美麗密碼"。因此,美麗標(biāo)準(zhǔn)并非絕對(duì)抽象,隨著人們對(duì)于人體美學(xué)研究的深入,對(duì)于人臉的美麗度,已經(jīng)產(chǎn)生了一些量化的成果。這些量化的標(biāo)準(zhǔn)使得利用計(jì)算機(jī)對(duì)人臉是否美麗作一個(gè)客觀的測(cè)評(píng)成為可能。然而,如何讓計(jì)算機(jī)客觀的評(píng)價(jià)一個(gè)人的美麗程度,目前這方面國(guó)內(nèi)外相關(guān)的研究還比較少,有做過(guò)類似的研究也只是在基于靜態(tài)圖片上,基于視頻的動(dòng)態(tài)人臉美麗評(píng)價(jià)系統(tǒng)目前在國(guó)內(nèi)尚沒(méi)有先例。
發(fā)明內(nèi)容本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提供一種基于視頻的人臉美麗評(píng)價(jià)方法,具體通過(guò)建立人臉美麗程度的客觀評(píng)價(jià)系統(tǒng),該系統(tǒng)使得計(jì)算機(jī)通過(guò)視頻捕獲人臉圖像,并結(jié)合大量的人臉樣本,訓(xùn)練出美麗分類的標(biāo)準(zhǔn),從而實(shí)現(xiàn)實(shí)時(shí)的人臉美麗程度的評(píng)價(jià)。為了實(shí)現(xiàn)上述發(fā)明目的,采用的技術(shù)方案如下-一種基于視頻的人臉美麗評(píng)價(jià)方法,通過(guò)如下步驟實(shí)現(xiàn)(1)、視頻捕捉人臉信息;(2)、對(duì)視頻捕捉到的信息進(jìn)行人臉檢測(cè),采用基于類haar特征的級(jí)聯(lián)分類器實(shí)現(xiàn)對(duì)人臉的有效檢測(cè);(3)、在人臉檢測(cè)的基礎(chǔ)上,進(jìn)行眼睛和嘴唇定位,包括采用Sobel邊緣檢測(cè)算子和區(qū)域生長(zhǎng)的方法來(lái)檢測(cè)眼睛,以及利用人臉圖像中的紅色像素點(diǎn)的投影來(lái)確定嘴唇邊界;(4)、臉部輪廓提取,采用Snake模型進(jìn)行輪廓的提取;(5)、將提取到的信息與人臉美麗標(biāo)準(zhǔn)庫(kù)進(jìn)行比對(duì),以確定人臉美麗評(píng)價(jià)結(jié)果。上述技術(shù)方案中,所述步驟步驟(3)對(duì)嘴唇的定位具體操作如下設(shè)一個(gè)閾值Thresh,以及一個(gè)用于表征紅色比例的變量RedProp,RedProp=((R-G)+(R-B))/(G+B),其中R、G和B分別為像素點(diǎn)的紅、綠和藍(lán)色分量值,當(dāng)RedProp〉Thresh時(shí)判定該點(diǎn)為紅色像素點(diǎn),并作標(biāo)記;定義紅色像素點(diǎn)的垂直投影圖的縱坐標(biāo)為圖像一列上所有被判斷為紅色的像素點(diǎn)個(gè)數(shù)之和,橫坐標(biāo)為列號(hào),縱坐標(biāo)長(zhǎng)度為N,橫坐標(biāo)長(zhǎng)度為M,它反映了圖像在水平方向上紅色像素點(diǎn)的變化,設(shè)紅色點(diǎn)的標(biāo)記由函數(shù)I(x,y)表示,則紅色像素點(diǎn)垂直投影函數(shù)為<formula>formulaseeoriginaldocumentpage7</formula>紅色象素點(diǎn)的水平投影函數(shù)為<formula>formulaseeoriginaldocumentpage7</formula>得到投影函數(shù)后,通過(guò)查找函數(shù)波峰,再往波谷方向擴(kuò)展的方法來(lái)得到嘴唇區(qū)域的坐標(biāo)。所述步驟(3)對(duì)閾值Thresh大小的確定具體如下設(shè)人臉下半臉圖像的高度為Height寬度為Width,在每次垂直投影的計(jì)算后,都計(jì)算由垂直投影波峰MaxRow到MaxRow/10的寬度LipHeight,即由波峰向兩邊擴(kuò)展,若LipHeight大于Height/2,則增大閾值,并重新計(jì)算投影行投影計(jì)算,直到取到合適的閾值,在使用合適的閾值進(jìn)行計(jì)算后便可采用從波峰向兩側(cè)波谷擴(kuò)展的辦法來(lái)獲取嘴唇區(qū)域的上、下兩個(gè)縱坐標(biāo)及左、右兩個(gè)橫坐標(biāo)o所述步驟(4)還包括對(duì)Snake模型進(jìn)行改進(jìn)以進(jìn)行下巴輪廓提取,具體采用了分段拋物線的初始曲線進(jìn)行逼近,通過(guò)修改能量函數(shù),以及讓曲線在整幅圖像中進(jìn)行遍歷伸縮,尋找到最匹配的曲線。所述步驟(5)的人臉美麗標(biāo)準(zhǔn)庫(kù)的制定如下采集多張標(biāo)準(zhǔn)的美麗臉部圖片,對(duì)每一幅照片的眉,目艮,鼻,嘴,耳特征點(diǎn)進(jìn)行采集,并計(jì)算得到一組用于衡量美麗程度的特征值,即將每一幅圖片映射到特征空間的一個(gè)點(diǎn),再對(duì)這些特征值數(shù)據(jù)進(jìn)行整理分析,以機(jī)器學(xué)習(xí)算法進(jìn)行分類,得出各個(gè)部位美麗的標(biāo)準(zhǔn)指標(biāo)。本發(fā)明可運(yùn)用到如下應(yīng)用領(lǐng)域K輔助醫(yī)院進(jìn)行美容整形,給出人臉各部分改進(jìn)的最佳方案;2、給動(dòng)畫、游戲設(shè)計(jì)人員設(shè)計(jì)虛擬人提供參照;3、輔助進(jìn)行選美賽事,使選美比賽多了一個(gè)客觀評(píng)價(jià)標(biāo)準(zhǔn);除了上述的領(lǐng)域,還可以應(yīng)用到醫(yī)學(xué),娛樂(lè),生活等各個(gè)方面。與現(xiàn)有技術(shù)相比,本發(fā)明具有如下的優(yōu)點(diǎn)1、提出了人臉美麗度的量化方法,使得運(yùn)用技術(shù)手段客觀地評(píng)價(jià)一個(gè)人的美麗程度成為可能;2、綜合視頻處理、圖像處理等技術(shù)手段穩(wěn)定提取人臉的五官特征,為相應(yīng)的分類算法提供用于分類的幾何特征;3、采用灰度熵用于度量人臉的皮膚粗糙度;4、采用改進(jìn)的Snake模型提取人臉的輪廓;5、采用機(jī)器學(xué)習(xí)的方法,以一定規(guī)模的樣本為訓(xùn)練集,基于上述皮膚信息和五官結(jié)構(gòu),臉形等結(jié)構(gòu)信息,建立評(píng)判的標(biāo)準(zhǔn)。圖l為本發(fā)明的流程圖;圖2為本發(fā)明的類Haar特征示意圖。具體實(shí)施方式下面結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步的說(shuō)明。本發(fā)明的流程示意圖如附圖1所示,通過(guò)視頻捕捉人臉信息后,進(jìn)行人臉檢測(cè),再根據(jù)人臉檢測(cè)的數(shù)據(jù)進(jìn)行眼睛定位、眉毛定位、嘴唇定位、臉部輪廓提取、皮膚粗糙度計(jì)算,然后將處理后的數(shù)據(jù)通過(guò)識(shí)別分類與評(píng)價(jià)與標(biāo)準(zhǔn)人像數(shù)據(jù)進(jìn)行比對(duì),得出人臉美麗評(píng)價(jià)結(jié)果。具體包括如下主要技術(shù)點(diǎn)1、視頻捕獲本發(fā)明的第一步是建立實(shí)時(shí)視頻捕獲系統(tǒng)。為提高視頻采集的速度,滿足實(shí)時(shí)的要求,本發(fā)明采用DirectShow技術(shù)進(jìn)行視頻采集。MicrosoftDirectShow應(yīng)用程序界面(API)是MicrosoftWindows平臺(tái)的一種媒體流體系。它提供高品質(zhì)的媒體流捕捉和回放并支持寬松的格式變化,包括高級(jí)流格式(ASF),MotionPictureExpertsGroup(MPEG),Audio-VideoInterleaved(AVI),MPEG聲音層-3(MP3)和WAV文件。此外,它還支持使用Windows驅(qū)動(dòng)模塊(WDM)或老的Windows視屏驅(qū)動(dòng)捕捉。采用DirectShow技術(shù)后,視頻采集速度得到了提高,可以更好地滿足實(shí)時(shí)性要求。2、人臉檢測(cè)為實(shí)現(xiàn)有效的人臉檢測(cè),本發(fā)明采用基于類haar特征的級(jí)聯(lián)分類器的檢測(cè)方法。類Haar特征是由Papageo巧iou等人在利用Haar小波變換從人臉中提取特征時(shí),提出的局部Haar特征。類Haar特征通常由2至4個(gè)矩形組成,分別檢測(cè)邊界、細(xì)線或?qū)蔷€特征,如附圖2所示。該算法的檢測(cè)效果很穩(wěn)定,可以容忍人臉一定角度的傾斜以及復(fù)雜背影的干擾。3、眼睛定位根據(jù)對(duì)圖像灰度的分析可知,眼睛區(qū)域的灰度和周圍像素的灰度有較大差異,因此在定位出人臉的基礎(chǔ)上將人臉?lè)殖伤膫€(gè)區(qū)域,采用Sobd邊緣檢測(cè)算子和區(qū)域生長(zhǎng)的方法來(lái)檢測(cè)眼睛,實(shí)驗(yàn)效果比較理想,即使是戴著眼鏡也能很好地檢測(cè)到眼睛的位置。具體采用分層接近的方法,即在先定位出人臉的基礎(chǔ)上,再在人臉中可能出現(xiàn)眼睛的地方尋找眼睛的位置。先用參數(shù)可變形模板進(jìn)行眼睛位置的粗匹配,匹配結(jié)果作為SnaJce模型的初值,再對(duì)眼睛位置進(jìn)行精匹配,以達(dá)到精確匹配眼睛輪廓的目的。眼睛位置的粗匹配,首先,對(duì)可能包含眼睛的區(qū)域(人臉上2/3的區(qū)域)進(jìn)行同態(tài)濾波,以最大限度減少光照對(duì)圖像輪廓的影響。接著用動(dòng)態(tài)閾值進(jìn)行二值化,閾值應(yīng)盡量使虹膜部分標(biāo)記為l,而眼球的其余部分標(biāo)記為O。接著根據(jù)人臉區(qū)域的位置和大小,確定圖像中包含第一只眼睛的位置。這個(gè)位置為人臉區(qū)域的上2/3區(qū)域,左l/2區(qū)域,在這個(gè)區(qū)域里面調(diào)用參數(shù)可變形模板進(jìn)行眼睛位置的粗匹配,即讓模板遍歷每一個(gè)位置,計(jì)算模板和圖像在每個(gè)位置的相似程度,相似程度最大的模板的坐標(biāo)即標(biāo)記為眼睛的位置。標(biāo)記出第一只眼睛位置后,根據(jù)第一只眼睛匹配的位置和角度,運(yùn)用視角圖像組合的方法,確定另一只眼睛的可能的位置,在這些可能的位置再進(jìn)行匹配。眼睛位置的精匹配,上述眼睛位置粗匹配的結(jié)果可能跟實(shí)際眼睛輪廓還會(huì)存在一些誤差,為了更精準(zhǔn)地匹配眼睛輪廓,將上述模板匹配的結(jié)果作為Snake模型的初值,運(yùn)用Snake算法再進(jìn)行精匹配。實(shí)驗(yàn)結(jié)果表明,采用這種算法后可能更精準(zhǔn)地匹配到眼睛輪廓,而且誤匹配率很低。4、眉毛定位在連續(xù)視頻抓幀的測(cè)試過(guò)程中,該算法的快速性得到了很好的體現(xiàn),能夠達(dá)到實(shí)時(shí)提取嘴唇區(qū)域,并且識(shí)別正確率比經(jīng)典算法有了很大提高。在定位出眼睛的區(qū)域后,在眼睛的上方采用區(qū)域生長(zhǎng)的方法搜索眉毛區(qū)域,并定位出眉毛的幾個(gè)特征點(diǎn)。5、嘴唇定位嘴唇區(qū)域的定位方面,為了將光線強(qiáng)度的影響也考慮進(jìn)來(lái),本發(fā)明設(shè)一閾值Thresh,再設(shè)一變量RedProp用于表征紅色比例,RedProp=((R-G)+(R-B))/(G+B),其中R、G和B分別為像素點(diǎn)的紅、綠和藍(lán)色分量值,當(dāng)RedProp>Thresh,時(shí)則判定該點(diǎn)為紅色像素點(diǎn),并作標(biāo)記。然后利用圖像中的紅色像素點(diǎn)的投影來(lái)確定嘴唇邊界。定義紅色像素點(diǎn)的垂直投影圖的縱坐標(biāo)為圖像一列上(長(zhǎng)度為N)所有被判斷為紅色的像素點(diǎn)個(gè)數(shù)之和,橫坐標(biāo)為列號(hào)(長(zhǎng)度為M),它反映了圖像在水平方向上紅色像素點(diǎn)的變化。設(shè)紅色點(diǎn)的標(biāo)記由函數(shù)I(x,y)表示,則紅色像素點(diǎn)垂直投影函數(shù)為同理有紅色象素點(diǎn)的水平投影函數(shù)為-.在得到投影函數(shù)后,便可通過(guò)查找函數(shù)波峰,再往波谷方向擴(kuò)展的方法來(lái)得到嘴唇區(qū)域的坐標(biāo)。此算法中最重要的一步在于閾值的確定,本發(fā)明采取的方法是設(shè)人臉下半臉圖像的高度為Height寬度為Width,在每次垂直投影的計(jì)算后,都計(jì)算由垂直投影波峰MaxRow到MaxRow/10的寬度LipHeight(由波峰向兩邊擴(kuò)展),由于正常人的嘴唇高度不可能大于Height/2,因此若LipHeight大于Height/2,則增大閾值,并重新計(jì)算投影行投影計(jì)算,直到取到合適的閾值。在使用合適的閾值進(jìn)行計(jì)算后便可采用從波峰向兩側(cè)波谷擴(kuò)展的辦法來(lái)獲取嘴唇區(qū)域的上、下兩個(gè)縱坐標(biāo)及左、右兩個(gè)橫坐標(biāo)。6、臉部輪廓提取輪廓提取的方法很多,比如先通過(guò)邊緣檢測(cè),二值化,再進(jìn)行輪廓跟蹤等。但是很多方法受光照影響比較大,且人臉信息豐富,要準(zhǔn)確提取各部位輪廓用傳統(tǒng)算法顯得十分困難。人臉下巴和脖子的對(duì)比度比較小,很多時(shí)候檢測(cè)不出邊緣,有效的輪廓跟蹤難以實(shí)現(xiàn)。本發(fā)明采用改進(jìn)后的Snake模型來(lái)進(jìn)行輪廓的提取。Snake模型又稱為主動(dòng)輪廓模型,是一種能量函數(shù)最小化的變形輪廓線,簡(jiǎn)單的來(lái)說(shuō),Snake是一條可變型的曲線,它的控制點(diǎn)在圖象力,自身剛性力和自身彈性力共同約束下移動(dòng),最終使得三力平衡。但是傳統(tǒng)的Snake模型存在一些缺點(diǎn),如對(duì)初始曲線比較敏感,對(duì)假邊緣的抗干擾能力不夠強(qiáng),這些都最終影響了輪廓的準(zhǔn)確提取。為實(shí)現(xiàn)有效的輪廓跟蹤,本發(fā)明對(duì)Snake模型進(jìn)行了一些改進(jìn)。對(duì)于下巴輪廓提取,采用了分段拋物線的初始曲線進(jìn)行逼近。通過(guò)修改能量函數(shù),以及讓曲線在整幅圖像中進(jìn)行遍歷伸縮,尋找到最匹配的曲線。7、皮膚粗糙度的計(jì)算皮膚的粗糙度表征為其圖像上紋理的復(fù)雜度,我們使用了計(jì)算圖像局部熵再求和的方法來(lái)計(jì)算皮膚的粗糙度。根據(jù)熵的計(jì)算公式其中代表皮膚象素點(diǎn)的灰度,尸(.)為皮膚象素點(diǎn)的灰度的分布概率;直接計(jì)算全局圖像灰度熵的方法只能體現(xiàn)出灰度分布的復(fù)雜性而無(wú)法體現(xiàn)出空間上的復(fù)雜性。因此我們對(duì)計(jì)算方法進(jìn)行了改進(jìn)。為了去除光照影響,我們先使用同態(tài)濾波器對(duì)圖像進(jìn)行濾波。為了使統(tǒng)計(jì)結(jié)果能夠表征圖像的空間復(fù)雜度,我們對(duì)圖像進(jìn)行分塊,并分別計(jì)算每一塊的熵,最后將所有塊的熵值累加起來(lái),作為描述粗糙度的統(tǒng)計(jì)量。由于粗糙的皮膚會(huì)在局部圖像上造成灰度級(jí)的復(fù)雜分布,故進(jìn)行分塊統(tǒng)計(jì)后,粗糙皮膚的求和熵值會(huì)明顯高于光滑皮膚的熵。8、人臉美麗標(biāo)準(zhǔn)的制訂人臉主觀上美麗程度可通過(guò)一些科學(xué)的量化標(biāo)準(zhǔn)來(lái)衡量,如理想瓜子臉的長(zhǎng)寬比為1.619:1,眼裂高寬比29%~42%等等。本發(fā)明搜集了三百多張標(biāo)準(zhǔn)的美女臉部圖片,每一幅均對(duì)眉,目艮,鼻,嘴,耳等21個(gè)特征量進(jìn)行采集,通過(guò)計(jì)算獲得一組用于衡量美麗程度的特征值,即將每一幅圖片映射到特征空間的一個(gè)點(diǎn)。接下來(lái)我們要做的就是對(duì)這些數(shù)據(jù)進(jìn)行整理分析,以機(jī)器學(xué)習(xí)算法進(jìn)行分類,以得出各個(gè)部位美麗的標(biāo)準(zhǔn)指標(biāo)。21個(gè)特征量如下表所示:<table>tableseeoriginaldocumentpage13</column></row><table>本發(fā)明可根據(jù)不同的審美標(biāo)準(zhǔn),賦予上述21個(gè)特征的具體取值范圍,并將檢測(cè)到的人臉相關(guān)信息與之比對(duì),來(lái)進(jìn)行美麗評(píng)價(jià),從而可以適應(yīng)不同審美觀的美麗評(píng)價(jià)。權(quán)利要求1、一種基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于通過(guò)如下步驟實(shí)現(xiàn)(1)、視頻捕捉人臉信息;(2)、對(duì)視頻捕捉到的信息進(jìn)行人臉檢測(cè),采用基于類haar特征的級(jí)聯(lián)分類器實(shí)現(xiàn)對(duì)人臉的有效檢測(cè);(3)、在人臉檢測(cè)的基礎(chǔ)上,進(jìn)行眼睛和嘴唇定位,包括采用Sobel邊緣檢測(cè)算子和區(qū)域生長(zhǎng)的方法來(lái)檢測(cè)眼睛,以及利用人臉圖像中的紅色像素點(diǎn)的投影來(lái)確定嘴唇邊界;(4)、臉部輪廓提取,采用Snake模型進(jìn)行輪廓的提??;(5)、將提取到的信息與人臉美麗標(biāo)準(zhǔn)庫(kù)進(jìn)行比對(duì),以確定人臉美麗評(píng)價(jià)結(jié)果。2、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(1)采用DirectShow技術(shù)進(jìn)行視頻采集。3、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟步驟(3)對(duì)嘴唇的定位具體操作如下設(shè)一個(gè)閾值Thresh,以及一個(gè)用于表征紅色比例的變量RedProp,RedProp=((R-G)+(R-B))/(G+B),其中R、G和B分別為像素點(diǎn)的紅、綠和藍(lán)色分量值,當(dāng)RedProp〉Thresh時(shí)判定該點(diǎn)為紅色像素點(diǎn),并作標(biāo)記;定義紅色像素點(diǎn)的垂直投影圖的縱坐標(biāo)為圖像一列上所有被判斷為紅色的像素點(diǎn)個(gè)數(shù)之和,橫坐標(biāo)為列號(hào),縱坐標(biāo)長(zhǎng)度為N,橫坐標(biāo)長(zhǎng)度為M,它反映了圖像在水平方向上紅色像素點(diǎn)的變化,設(shè)紅色點(diǎn)的標(biāo)記由函數(shù)I(x,y)表示,則紅色像素點(diǎn)垂直投影函數(shù)為<formula>formulaseeoriginaldocumentpage3</formula>紅色象素點(diǎn)的水平投影函數(shù)為似尸力)二》",力得到投影函數(shù)后,通過(guò)査找函數(shù)波峰,再往波谷方向擴(kuò)展的方法來(lái)得到嘴唇區(qū)域的坐標(biāo)。4、根據(jù)權(quán)利要求3所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(3)對(duì)閾值Thresh大小的確定具體如下設(shè)人臉下半臉圖像的高度為Height寬度為Wi她,在每次垂直投影的計(jì)算后,都計(jì)算由垂直投影波峰MaxRow到MaxRow/10的寬度LipHeight,即由波峰向兩邊擴(kuò)展,若LipHeight大于Height/2,則增大閾值,并重新計(jì)算投影行投影計(jì)算,直到取到合適的閾值,在使用合適的閾值進(jìn)行計(jì)算后便可采用從波峰向兩側(cè)波谷擴(kuò)展的辦法來(lái)獲取嘴唇區(qū)域的上、下兩個(gè)縱坐標(biāo)及左、右兩個(gè)橫坐標(biāo)。5、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(4)還包括對(duì)Snake模型進(jìn)行改進(jìn)以進(jìn)行下巴輪廓提取,具體采用了分段拋物線的初始曲線進(jìn)行逼近,通過(guò)修改能量函數(shù),以及讓曲線在整幅圖像中進(jìn)行遍歷伸縮,尋找到最匹配的曲線。6、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(5)的人臉美麗標(biāo)準(zhǔn)庫(kù)的制定如下采集多張標(biāo)準(zhǔn)的美麗臉部圖片,對(duì)每一幅照片的眉,眼,鼻,嘴,耳特征點(diǎn)進(jìn)行采集,并計(jì)算得到一組用于衡量美麗程度的特征值,即將每一幅圖片映射到特征空間的一個(gè)點(diǎn),再對(duì)這些特征值數(shù)據(jù)進(jìn)行整理分析,以機(jī)器學(xué)習(xí)算法進(jìn)行分類,得出各個(gè)部位美麗的標(biāo)準(zhǔn)指標(biāo)。7、根據(jù)權(quán)利要求6所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(5)所述的衡量美麗程度的特征值采用如下21個(gè)左眉的厚度與長(zhǎng)度之比、右眉的厚度與長(zhǎng)度之比、左眉頭與內(nèi)眼角在X方向上的距離、右眉頭與內(nèi)眼角在X方向上的距離、眉峰與眉梢之間距離與眉峰眉頭之間距離之比、眉厚度與眉峰下點(diǎn)到上眼瞼點(diǎn)之間距離之比、左眉長(zhǎng)與眼瞼長(zhǎng)度之比、右眉長(zhǎng)與眼瞼長(zhǎng)度之比、左眼瞼長(zhǎng)與高之比、右眼瞼長(zhǎng)與高之比、臉寬與臉長(zhǎng)之比、兩內(nèi)眼角距離與眼瞼長(zhǎng)度之比、臉長(zhǎng)與眼瞼長(zhǎng)度之比、兩瞳孔與兩嘴角在X方向上之比、兩嘴角與鼻寬在X方向上長(zhǎng)度之比、內(nèi)眼角到鼻底在Y方向上距離廣底到下巴點(diǎn)在Y方向上的距離、內(nèi)眼角到鼻底點(diǎn)在Y方向上距離廣寬、瞳孔間距離/瞳孔到鼻底在Y方向上距離、嘴角線上面頰寬度/嘴角線與下巴點(diǎn)在Y方向上的距離、張開的牙齒高度/眼瞼長(zhǎng)度、嘴唇高度/嘴唇長(zhǎng)度。8、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(3)還包括眉毛定位操作,所述眉毛定位操作在定位出眼睛的區(qū)域后,在眼睛的上方采用區(qū)域生長(zhǎng)的方法搜索眉毛區(qū)域,并定位出眉毛。9、根據(jù)權(quán)利要求1所述的基于視頻的人臉美麗評(píng)價(jià)方法,其特征在于所述步驟(4)臉部輪廓提取后還進(jìn)行皮膚粗糙度的計(jì)算操作,具體如下對(duì)圖像進(jìn)行分塊,并分別計(jì)算每一塊的熵,最后將所有塊的熵值累加起來(lái),作為描述粗糙度的統(tǒng)計(jì)量,熵的計(jì)算公式為H(。一i尸(^)log^("》,其中^代<formula>formulaseeoriginaldocumentpage4</formula>表皮膚象素點(diǎn)的灰度,尸(",)為皮膚象素點(diǎn)的灰度的分布概率。全文摘要本發(fā)明提供了一種基于視頻的人臉美麗評(píng)價(jià)方法,通過(guò)如下步驟實(shí)現(xiàn)(1)視頻捕捉人臉信息;(2)對(duì)視頻捕捉到的信息進(jìn)行人臉檢測(cè),采用基于類haar特征的級(jí)聯(lián)分類器實(shí)現(xiàn)對(duì)人臉的有效檢測(cè);(3)在人臉檢測(cè)的基礎(chǔ)上,進(jìn)行眼睛和嘴唇定位,包括采用Sobel邊緣檢測(cè)算子和區(qū)域生長(zhǎng)的方法來(lái)檢測(cè)眼睛,以及利用人臉圖像中的紅色像素點(diǎn)的投影來(lái)確定嘴唇邊界;(4)臉部輪廓提取,采用Snake模型進(jìn)行輪廓的提??;(5)將提取到的信息與人臉美麗標(biāo)準(zhǔn)庫(kù)進(jìn)行比對(duì),以確定人臉美麗評(píng)價(jià)結(jié)果。本發(fā)明使得計(jì)算機(jī)通過(guò)視頻捕獲人臉圖像,并結(jié)合大量的人臉樣本,訓(xùn)練出美麗分類的標(biāo)準(zhǔn),從而實(shí)現(xiàn)實(shí)時(shí)的人臉美麗程度的評(píng)價(jià)。文檔編號(hào)A61B5/103GK101305913SQ20081002942公開日2008年11月19日申請(qǐng)日期2008年7月11日優(yōu)先權(quán)日2008年7月11日發(fā)明者馮振華,李旭濤,金連文,陳伊力,陳澤濤,黃楚加申請(qǐng)人:華南理工大學(xué)
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1