行政院國家科學委員會補助
大專學生參與專題研究計畫研究成果報告
* ********* ********************************************** *
*
*
*
計 畫 :
名 稱
應用 MPEG-7 之 ART 轉換於人臉影像檢索之研究
*
*
*
* ********* ********************************************** *
執行計畫學生: 吳宇翔
學生計畫編號: NSC 97-2815-C-216-010-E
研 究 期 間 : 97 年 07 月 01 日至 98 年 02 月 28 日止,計 8 個月 指 導 教 授 : 李建興
處理方式: 本計畫可公開查詢
執 行 單 位: 中華大學資訊工程學系
中華民國 98 年 03 月 27 日
行政院國家科學委員會補助
大專學生參與專題研究計畫研究成果報告
********************************
* *
* :應用 MPEG-7 之 ART 轉換於人臉影像檢索之研究 *
* *
********************************
執行計畫學生:吳宇翔
學生計畫編號:NSC 97-281 5-C-216 -010–E
研 究 期 間 :2008 年 7 月 1 日至 2009 年 2 月底止,計 8 個月 指 導 教 授 :李建興 博士
執 行 單 位:中華大學資訊工程學系
中華民國 98 年 3 月 25 日
計畫 名稱
第 1 頁
目錄
第一章、專題研究摘要 ... 3
第二章、背景及目的 ... 4
第三章、專題內容 ... 4
第四章、研究方法及進行步驟 ... 6
(一)人臉切割 ... 6
Step1 偵測膚色像素 ... 7
Step2 膚色區塊偵測 ... 8
Step3 擷取人臉範圍 ... 9
Step4 擷取人臉 ... 13
(二)特徵擷取(以 MPEG-7 之 ART 轉換)... 19
(三)人臉比對 ... 22
第五章、實驗結果 ... 23
(一)膚色區塊擷取人臉範圍及 OpenCV 擷取人臉 ... 23
(二) MPEG-7 之 ART 臉部特徵擷取及檢索結果 ... 26
第六章、評估與展望 ... 28
第七章、結語 ... 29
第八章、參考文獻 ... 29
第 2 頁
圖形目錄
<圖 1> 人臉影像特徵資料庫之建立及特徵比對流程圖 ... 5
<圖 2> 人臉切割系統流程圖 ... 6
<圖 3> 膚色偵測結果 ... 7
<圖 4> 區塊過濾圖 ... 8
<圖 5> 膚色偵測區塊化之水平投影及垂直投影 ... 9
<圖 6> 對膚色區塊做標記法及過濾結果 ... 10-12 <圖 7> 影像旋轉偵測人臉之實例 ... 14-18 <圖 8> ART 基底函數實虛部變化情形 ... 20
<圖 9> 人臉長寬比 1.2:1 ... 21
<圖 10> ART 基底圖 ... 22
<圖 11> 原圖 ... 23
<圖 12> 人臉範圍擷取 ... 24
<圖 13> OpenCV 人臉偵測 ... 24,25 <圖 14> 人臉選擇之結果 ... 25
<圖 15> 檢索統計結果 ... 26-29
第 3 頁
第一章、 專題計畫摘要
傳統的搜尋引擎功能,主要都是以圖片的文件名稱來實現查詢的功能,但這 種方式並不適合用來搜尋相似或相同之人臉影像,較好的機制是基於圖像內容來 檢索,例如查詢端輸入內容就是一個圖像,或者是對於圖像內容的描述,透過擷 取每張影像之特徵,經由計算比較這些特徵和查詢條件之間的差異度,來決定兩 張圖片的相似程度。
本研究計畫提出一個以 MPEG-7 之 ART 特徵為基礎的人臉影像資料庫檢索 系統(Face Image Database Retrieval System),以找尋出相似的人臉影像。本檢索 系統包含三個部分,第一部分先做人臉切割,將人臉的部位切割出來並加以分析 以找出眼、鼻、口的位置。第二部分做特徵擷取,以 MPEG-7 之 ART 轉換來擷 取全域(整張臉)及部分五官特徵(嘴巴、鼻子以及眼睛)。第三部分做特徵比對,
將擷取出來的特徵與資料庫儲存之影像特徵做比較,找出相似度較高的人臉影 像。以下為本專題所提出之演算法及未來研究方向:
演算法:
1. 偵測膚色像素:YCbCr 膚色偵測公式及改良。
2. 膚色區塊偵測:統計區塊內膚色點百分比,並由 Chebyshev 理論過濾區塊。
3. 擷取人臉範圍:膚色累計投影法、標記法、膚色擴散法。
4. 擷取人臉:改良 OpenCV 偵測人臉、人臉分類器。
5. 特徵擷取:MPEG-7 之 ART 改良及實作。
未來研究方向:
1. 研究如何正確偵測臉部五官位置。
2. 定義人臉特徵在 MPEG-7 之 ART 轉換內的特徵向量範圍。
3. 影像的旋轉及放大是否會影響到 MPEG-7 之 ART 轉換所取得的特徵向量。
4. 觀察人臉影像,使 MPEG-7 之 ART 轉換更適合運用在人臉檢索上。
第 4 頁
第二章、 背景及目的
現在社會上失蹤兒童或老年人很多,要讓每個人每天都注意路上有沒有失蹤 的人,相當費時費力且不切實際,如果能將各街道上攝影機所拍攝的影像加以分 析,配合臉部擷取的技術找出畫面上人的臉孔與人臉資料庫自動加以比對,可以 減少人力與時間的花費,將會對尋找失蹤人口的工作有很大的貢獻。而此系統還 可以延伸應用於罪犯人臉合成系統,可以將罪犯的畫像比對人臉資料庫,搜尋出 與畫像相似度高的人臉影像,幫助證人或警察從影像找尋嫌疑犯曾經出沒的地點 及時間,減少人力搜索的時間增加破案的機會。
利用電腦來做人臉檢索在過去一直是一件困難的工作,雖然現今電腦已進步 到相當高的計算速度,但如何找到一個有效的人臉特徵擷取方法卻不是一件容易 的事。本研究目標是希望能用MPEG-7之ART轉換來擷取人臉影像之特徵,再將擷 取之特徵與人臉特徵資料庫作比對,進而找出相似之影像。
第三章、 專題內容
本研究計畫之目的是要以 MPEG-7 之 ART 特徵做為人臉影像資料庫檢索的比 對判斷,找出較相似的人臉影像。本檢索系統包含三個部分,第一部分先做人臉 切割,將人臉的部位切割出來並加以分析以找出眼、鼻、口的位置,目前的研究 結果已能將人臉的部位從影像中切割出來並且加以擺正以提高特徵檢索的正確 率。第二部分做特徵擷取,以 MPEG-7 之 ART 轉換來擷取全域(整張臉)及組成人 臉之五官特徵(嘴巴、鼻子以及眼睛),MPEG-7 之 ART 特徵共有 12×12 共 144 個 特徵向量(m<12, n<12),隨著 m,n 愈大,MPEG-7 之 ART 所取得的特徵範圍就 愈細,目前研究結果是將 MPEG-7 之 ART 特徵的特徵模型由原本的圓形改進為橢 圓形,原因是由於圓形模型容易擷取到非人臉部分之背景特徵,而橢圓模型則不 會擷取到背景特徵。第三部分做特徵比對,將擷取出來的特徵與資料庫儲存之影 像特徵做比較,找出相似度較高的人臉影像。<圖 1>為本計畫擬採用之人臉影像 檢索系統之流程圖。
第 5 頁
<圖 1> 人臉影像特徵資料庫之建立及特徵比對流程圖 臉部切割
特徵擷取
人臉檢索之結果 人臉原圖
特徵比對
人臉影像資料庫
特徵擷取
人臉特徵資料庫 MPEG-7 之 ART
轉換
MPEG-7 之 ART 轉換
第 6 頁
第四章、 研究方法及進行步驟
(一)人臉切割 : 輸入一張人臉影像後,首先將背景等不必要的資訊去除,<圖 2>
為人臉切割系統流程圖,詳細步驟如下。
讀入原圖 YCbCr 膚色偵測 Chebyshev 理論膚色區塊偵測
標記法取得人臉範圍 人臉範圍影像偵測
…… ……
對人臉範圍圖正負旋轉 19 個角度
…… ……
以 OpenCV 偵測影像旋轉後的人臉
人臉分類器選出最端正的人臉影像 結果
<圖 2> 人臉切割系統流程圖
第 7 頁
Step 1.偵測膚色像素:由於判斷是否為人臉最直覺的方法就是膚色,所以使用膚 色偵測方法[1]來找到膚色的範圍,由於膚色會受到光源所影響,所以本研究使用 能從影像中分離出亮度的 YCbCr 色彩空間來做判斷,在 YCbCr 色彩空間中,Y 代表亮度 Cb 和 Cr 代表色度,因此我們先將每一像素之色彩值由 RGB 空間轉為 YCbCr 空間:
Y R Cr
Y B b
B G
R
7132 . 0
5647 . 0 C
1145 . 0 5866
. 0 0.2989
Y
其膚色偵測公式如下:
3 3
- M axCr Cr
Color Skin
3 ) ,4 6 M in(220 M inCb
) 5
. 0 , , 5
. 2 , 32 4
, 17 ,
24 2
M ax(
M axCr
2
4 3 1
MinCb Cr
C C
C C
C C
C
b b
b b
b b
b
下圖<圖 3>為膚色偵測之結果。
( a ) ( b )
( c ) ( d )
<圖 3> ( a )( c )原圖 ( b )( d )膚色偵測結果,膚色(白色表示) 非膚色(黑色表 示)
第 8 頁
Step 2.膚色區塊偵測及過濾,由於膚色像素偵測的範圍會將影像內接近膚色的點 判斷成膚色,可能產生許多分離的白點,因此我們進一步以 8×8 區塊為單位以判 別其是否為膚色區塊,這邊將要利用統計的方式,首先將影像切割成 8×8 大小的 區塊,並分別計算每個區塊內是膚色點的百分比,最後統計出所有區塊內膚色百 分比的平均值及標準差,由 Chebyshev 理論可以知道至少有 75%
2
1 12 資料都
會落在平均值正負兩倍標準差之內,利用這個方法,將膚色百分比低於兩倍標準 差的區塊過濾掉(塗黑),符合兩倍標準差的區塊就留下(塗白),但是這樣的做法也 有可能將人臉的邊緣過濾掉,造成人臉資訊的流失,所以這邊將 8×8 大小的區塊 以重疊的方式來計算區塊內膚色點的百分比,在做過濾的時候,加上判斷周圍區 塊是否也符合過濾條件成立的才過濾掉,這樣可以確保人臉的完整性,以下為 8×8 大小區塊過濾說明。
Q P O
當 O 不在兩倍標準差內,可是 P 或 Q 在兩倍標準差內,則保留(塗白)。
當 O 不在兩倍標準差內,可是 P 且 Q 不在兩倍標準差內,則去除(塗黑)。
( a ) ( b )
<圖 4> ( a )區塊無重疊之過濾圖 ( b ) 區塊有重疊之過濾圖
第 9 頁
Step 3.擷取人臉範圍,先嘗詴使用投影的方式來切割人臉可能分佈的區塊,對膚 色區塊偵測後的二值化影像,分別對水平及垂直方向兩次膚色累計投影[2],我們 可以觀察到累計投影的分布會隨著膚色位置的不同而有所改變,進而將臉部的位 置找出來<圖 5>,其做法先對影像做垂直投影,然後找到人臉可能出現的範圍,
之後再分別對每個範圍做平行投影,但這樣的做法只適合運用在人臉與人臉間之 間沒有雜質的影像,所以實作上並沒有想像中來的好,所以接下來改用標記法來 偵測出人臉影像。
<圖 5> : YCbCr 膚色偵測區塊化之水平投影及垂直投影
標記法是將影像中有相連的 pixel 視為同一物件,並且計算每個物件區域的寬度和 高度,最後對這些寬和高做一個統計,同樣以 Chebyshev 方程式來過濾掉小於標 準差的標籤區塊,以下為標記法詳細說明:
R Q P P R P R P
(1) (2) (3) (4) P 為要標記的座標。
Q 和 R 為已標記過的點。
標記法為給定影像上同一物件的物體同一個標籤號碼,先對影像由上往下由左至 右掃描,判斷為新的物件就給他一個新的標籤,判斷是否為新的物件之方法如上 表(1) ~ (4)。
(1)只有一個點且周圍沒有任何標記,P 就視為新的點,並給定新標籤。(2)(3)當 P
第 10 頁
的左邊或上面有已標記過的點,P 的標籤就等於 R 的標籤。(4) 當為此狀態時,P 的標籤會先等於 R,之後再把 P 和 R 的標籤等於 Q。最後可以利用這些標籤來判 定物體的最大寬和最大高下圖為標記法圈出物件之結果。
( a )
( b )
第 11 頁
( c )
( d )
第 12 頁
( e )
( f )
<圖 6> ( a )( c )( e )對膚色區塊做標記法的結果 ( b )( d )( f )過濾後的結果 經過多次測詴發現,如果人臉上有遮蔽物(如眼鏡),這些東西會造成人臉破碎 的狀況發生,所以這邊要使用擴散法將人臉資訊補齊。由於有些膚色點可能落在
第 13 頁
膚色模型的周圍,所以這邊要針對每個區塊向外擴散,以填滿可能是膚色的點,
首先,先取得區塊內原本膚色點 Y、Cb、Cr 的平均及標準差,然後定義新的膚色 偵測範圍
Cr Cr
Cr Cr
Cb Cb
Cb Cb
y y
y y
mean Cr
mean
mean mean
mean mean
2 2
2 Cb
2
2 Y
2
meany, mean , Cb mean 為區塊內被判定是膚色點的 Y,Cb,Cr 的平均值。Cr
y, Cb, Cr為區塊內被判定是膚色點的 Y, Cb, Cr 的標準差。
利用這個新的膚色偵測公式,對區塊的上下左右各擴展 8 個 pixel 做膚色偵測,偵 測的方法如下:
T L O R
B
O 為原區塊,T,B,L,R 為新長出來的區塊。
1. 對區塊往上下個長 8 個像素,對左右長 8 個像素。
2. 對每個新長出來的區塊個別做 8×8 切割區塊的切割。
3. 以放寬後的膚色偵測公式偵測新長出來區塊(T,B,L,R)內的切割區塊。
4. 以 Chebyshev 統計第 3 步切割區塊內新偵測出來膚色的百分比的平均及標準 差。
5. 當沒有任何切割區塊落在第 4 步的兩倍標準差內即停止擴散,否則將新的區塊 設為新長出來的區塊的寬高並回到第一步。
Step 4.擷取人臉,這邊利用 OpenCV(Open Source Computer Vision Object Detection Module)內建的 HaarClassifier 函式庫來偵測人臉,OpenCV 是一套由 Intel 所開發 的影像函式庫,裡面有提供多種影像相關的函式,而 HaarClassifier 就是其中一個 用來偵測人臉的函式庫。在偵測人臉的過程中發現 HaarClassifier 函式只能偵測到 正面及向左向右各斜 30 度以內的人臉,所以這邊將標記法切割下來的圖像從-90 度到 90 度轉 19 個角度,每個角度的影像都讓 HaarClassifier 函式去偵測一次人 臉,這樣雖然可以提高 HaarClassifier 偵測臉的正確率,但這樣的做法就有一定的 機會偵測到相同的人臉,所以還要加入一個人臉分類器來分類相同的臉,從相同
第 14 頁
的臉中取出最正面的臉,這樣有助於之後臉部特徵比對的正確率,<圖 7>為影像 旋轉偵測人臉之實例。
-20° -10°
0° 10°
第 15 頁
20°
( a )
-20° -10° 0° 10°
20°
( b )
第 16 頁
0° -10° -20°
-30° -40°
-50° -60°
第 17 頁
-70°
( c )
( d )
第 18 頁
( e )
( f )
<圖 7> (a)(b)(c)旋轉偵測人臉圖(0°為切割後出來之原圖) (d)將原圖直接套用 OpenCV HaarClassifier 函式的結果 (e)影像切割結果 (f)切割影像旋轉後偵測 人臉之結果
第 19 頁
由<圖 7>(a)(b)(c)可以看到,由於原圖影像中人臉不夠端正,所以 HaarClassifier 函 式無法偵測到人臉,當把影像從-90°轉到 90°之間,發現當人臉已經擺到端正的位 置後,就可以從這些擺正後的臉從圖內切割出人臉來,並由<圖 7>(d)(e)(f)可以看 到原本 OpenCV 的 HaarClassifier 函式庫偵測不到的人臉,經過旋轉後就可以偵測 到大部分的臉。由於上述方法會重複偵測到相同人臉,為了解決這個問題,下面 題出人臉分類器演算法來判斷偵測出來的人臉是不是為同一個人,其演算法如 下。
1. 要如何判斷是否為同一張臉,這邊以 HaarClassifier 函式偵測出來的人臉 影像的中心作為判斷依據,由於人臉是從原圖旋轉後偵測所得的結果,
所以並不能直接將找到的中心點作比對,要將中心點用座標旋轉的方法 統一轉回 0 度座標來做比較。
2. 比對中心點的(Xn, Yn)座標,將新座標跟群組內已分類好的座標做比對,
當新座標(Xn, Yn)範圍如果介在(X-15≦Xn≦X+15, Y-15≦Yn≦Y+15),
即視為相同的中心座標,並將此人臉座標放入群組內。
3. 分類完後,以每個類別內最中間角度的影像為群組的代表。
(二)特徵擷取 : 以 MPEG-7 之 ART 轉換,分別對全域(整張臉)及各臉部組成部分 (嘴巴、鼻子以及眼睛)計算其 ART 轉換系數。在 MPEG-7 之標準中,ART 的係數 是用來描述物體之內部形狀(Region Shape Descriptor),而 ART 係數 fnm之定義如 下:
2 0
1 0 2 0
1 0
) , ( ) ( ) (
) , ( ) , (
)) , ( , ) , ( (
d d f
R A
d d f
V f V
f
n m
nm nm nm
其中 f
, 為影像以極座標之灰階值,Vnm(,)為 ART 之基底函數,而且 可 分離為角度(angular)及徑度(radial)變化之函數,) , (
Vnm =Am() Rn()
Am 和Rn
可分別以指數函數及餘弦函數來表示:) ( 2 exp ) 1
(
jm
Am
第 20 頁
0 )
( cos 2
0 ) 1
( n n
Rn n
m,n 值分別代表 ART 的角度係數和半徑係數。<圖 8>顯示 ART 基底函數實部與 虛部值,我們可以發現當角度係數 m 值增大時,ART 基底實(虛)部圖形的黑白扇 形區域之圓心角角度變化頻率隨 m 值增大而遞增;當半徑係數 n 值增大時,ART 基底實(虛)部圖形的黑白同心圓數目隨 n 值增大而增加(漣漪現象)。為了不受形狀 縮放之影響,我們將每個 ART 係數正規化,將每個 ART 係數除以(m=0, n=0)的 ART 係數,即為 ART 描述子:
00 ]
[ f
i f
ART nm , i=12×n+m-1。
m
n 0 1 2 3 4 5 6 7 8 9 10 11
0 1 2
( a )
m
n 0 1 2 3 4 5 6 7 8 9 10 11
0 1 2
( b )
<圖 8> ART 基底函數實虛部變化情形(m<12, n<3) (a)實部 (b)虛部。
在 MPEG-7 標準中採用 35 個 ART 係數(m<12, n<3)來表示物體區域的特徵,但 實際上 MPEG-7 之 ART 特徵共有 12×12 共 144 個特徵向量(m<12, n<12),隨著 (m, n)愈大,MPEG-7 之 ART 所取得的特徵範圍就愈細。
兩個物體 q 及 s 之 ART 特徵的差異值dART可定義為:
34
0
)2
] [ ]
[ ( )
(
i
s q
ART q,s ART i ART i
d
第 21 頁
這邊我們將 OpenCV 切割出來的人臉影像轉為灰階值,透過灰階影像擷取 ART 特徵值,經過反覆的測詴發現,由於 OpenCV 切割出來的影像包含了人臉及背 景,所以 ART 特徵擷取的結果會被背景所影響,降低比對的成功率,之後觀察 ART 基底函數變化情形後,後來研究發現,ART 基底函數模型為圓型,在做特徵 擷取時,圓的周圍部分會擷取到背景的值,所以這邊要針對 ART 基底函數作改 良。由於人臉為橢圓形的,所以在做 ART 特徵擷取時只要針對橢圓的部分做擷取 就好了,人臉研究結果發現人臉的長短軸比例為 1.2 比 1,所以就以此比例對 ART 基底函數做改良。
<圖 9> 人臉長寬比 1.2:1
第 22 頁
( a ) ( b )
<圖 10> (a)原 ART 實部基底(m=11 , n=2)變化 (b) ART 基底變化改良後 由於人臉影像在圖片中的位置不一,因此不同的位置,ART 特徵也會有所不同,
所以在這邊,我們將影像中心座標上下左右平移高度及寬度的二十分之一倍,並 以新的中心座標用 ART 取得特徵,這樣的做法對於原本的中心座標及上下左右四 個座標合起來一共會取得五組特徵,在做特徵比對時就是以這些特徵進行比對。
(三)人臉比對:這邊準備了 50 個明星,每個明星有 20 張人臉影像共 1000 張圖的 資料庫,並對每張人臉影像的特徵值與資料庫內特徵值做比對,找出 ART 特徵差 異最小的前 20 名,並從中計算檢索成功率:
Star N FindFrom( )
% 100 S
,S 為檢索成功率,N 為取得的名次,FindFrom(N)為特 徵差異值最小的前 N 名中找到為同一個人的個數,Star 為該明星在 Database 內所 占的個數。
由公式可之當 N 愈大,偵測到同一個明星的百分比就愈高,所以我們可以利 用此特性將 N 的值提高,當提高到一定的值後,S 就會收斂為 1,所以這邊可以 利用 S 會收斂的特性,收斂的愈快代表檢索系統愈精確,整體之統計結果如下圖<
圖 15>,未來將對 MPEG-7 之 ART 的特徵係數做進一步的分析,以提升人臉檢索 的正確率。
第 23 頁
伍、實驗結果
(一) 膚色區塊擷取人臉範圍及OpenCV擷取人臉
本部份針對第四章(1)步驟進行人臉範圍擷取及對擷取範圍做旋轉並用OpenCV擷 取人臉。
Part 1 原始影像
<圖11> 原圖
第 24 頁
Part 2 臉部範圍擷取
<圖12> 人臉範圍擷取
Part 3 臉部範圍旋轉並對旋轉影像做OpenCV臉部偵測
第 25 頁
<圖13> OpenCV人臉偵測
Part 4 人臉分類器選出擺最正著人臉
( a )
( b )
<圖14>( a )待分類之人臉 ( b )人臉分類器之結果
第 26 頁
(二) MPEG-7之ART臉部特徵擷取及檢索結果
本部份針對第四章(2)(3)步驟進行MPEG-7之ART臉部特徵檢索,這邊實驗了三種 結果(a)ART基底改良前(m<12, n<3) (b)ART基底橢圓改良後(m <12, n<3) (c)ART ART基底橢圓改良後(m<12, n<12)。
檢索資料:
(a)ART基底改良前(m<12, n<3),資料庫特徵向量比對最接近的前十名(由左而 右)。
(b)ART基底橢圓改良後(m<12, n<3),資料庫特徵向量比對最接近的前十名(由左 而右)。
(c)ART基底橢圓改良後(m<12, n<12),資料庫特徵向量比對最接近的前十名(由 左而右)。
第 27 頁
前十名 前二十名
平均檢索正確率:12.82% 平均檢索正確率:16.68%
王力宏 10.50% 劉真 10.25% 王力宏 14.75% 劉真 13.25%
王心凌 14.25% 唐林 18.50% 王心凌 17% 唐林 23.25%
王怡仁 41.75% 徐若瑄 13.25% 王怡仁 63.50% 徐若瑄 17.50%
王祖賢 13.25% 徐熙娣 10.50% 王祖賢 16% 徐熙娣 12%
古巨基 10.50% 徐懷鈺 10.25% 古巨基 14% 徐懷鈺 12.25%
白歆惠 20% 張信哲 13.50% 白歆惠 24.50% 張信哲 19.50%
田麗 9.50% 張柏芝 13.25% 田麗 11% 張柏芝 19.75%
伊能靜 23.75% 張曼玉 8.75% 伊能靜 30.50% 張曼玉 11.75%
趙薇 6.75% 張惠妹 8% 趙薇 7.75% 張惠妹 9.25%
艾薇兒 12.75% 張韶涵 9.25% 艾薇兒 18.25% 張韶涵 12.75%
宋新妮 14.75% 張學友 8.50% 宋新妮 19.75% 張學友 9.75%
李心潔 7.25% 梁詠琪 8.50% 李心潔 8.25% 梁詠琪 10.50%
李孝莉 6.50% 湯唯 18% 李孝莉 7.25% 湯唯 25.25%
李妍瑾 8.50% 舒淇 10.50% 李妍瑾 11% 舒淇 13.25%
李連杰 11% 隋棠 9.75% 李連杰 14% 隋棠 12.75%
卓文萱 18% 馮媛甄 14.25% 卓文萱 24% 馮媛甄 16.50%
周杰倫 20.75% 楊丞琳 12.25% 周杰倫 29.75% 楊丞琳 15.75%
周星馳 10% 賈靜雯 8% 周星馳 12.50% 賈靜雯 10.75%
周曉涵 11% 潘慧如 10.25% 周曉涵 13.25% 潘慧如 13.25%
林志玲 8.25% 蔡依林 6.50% 林志玲 10% 蔡依林 7.75%
林俊傑 15% 蔡淑臻 13% 林俊傑 19.25% 蔡淑臻 14.75%
林葦茹 9% 蕭亞軒 7.75% 林葦茹 12.50% 蕭亞軒 10.50%
金城武 13.50% 賴雅妍 24% 金城武 16% 賴雅妍 31.75%
侯佩岑 11.25% 濱崎步 14.25% 侯佩岑 13.75% 濱崎步 17%
相馬茜 21.25% 寶兒 10.75% 相馬茜 29.50% 寶兒 15.25%
( a )
第 28 頁
前十名 前二十名
平均檢索正確率:12.65% 平均檢索正確率:16.54%
王力宏 9.75% 劉真 9.25% 王力宏 11.50% 劉真 12.50%
王心凌 11.75% 唐林 17.50% 王心凌 16.50% 唐林 23.50%
王怡仁 41.50% 徐若瑄 14.75% 王怡仁 57.75% 徐若瑄 18%
王祖賢 12.25% 徐熙娣 10.50% 王祖賢 15.25% 徐熙娣 13%
古巨基 11.75% 徐懷鈺 9% 古巨基 14.25% 徐懷鈺 11.50%
白歆惠 18.75% 張信哲 11.25% 白歆惠 21.50% 張信哲 15.50%
田麗 9.25% 張柏芝 14.50% 田麗 11% 張柏芝 21.50%
伊能靜 22.50% 張曼玉 10% 伊能靜 31.50% 張曼玉 13.50%
趙薇 7.25% 張惠妹 8% 趙薇 9% 張惠妹 8.75%
艾薇兒 13.25% 張韶涵 10% 艾薇兒 19.25% 張韶涵 11.50%
宋新妮 16.75% 張學友 10.25% 宋新妮 22% 張學友 11.25%
李心潔 7% 梁詠琪 9.50% 李心潔 9% 梁詠琪 11.50%
李孝莉 5.50% 湯唯 19% 李孝莉 6% 湯唯 25.75%
李妍瑾 8.50% 舒淇 10% 李妍瑾 12% 舒淇 12.75%
李連杰 11.25% 隋棠 11.50% 李連杰 14.75% 隋棠 13%
卓文萱 13.25% 馮媛甄 13% 卓文萱 16% 馮媛甄 15.75%
周杰倫 19.50% 楊丞琳 13.75% 周杰倫 27.75% 楊丞琳 17.50%
周星馳 9.75% 賈靜雯 8.50% 周星馳 12.50% 賈靜雯 9%
周曉涵 11.50% 潘慧如 10.75% 周曉涵 15% 潘慧如 13.75%
林志玲 8% 蔡依林 6.75% 林志玲 9.75% 蔡依林 8.75%
林俊傑 14% 蔡淑臻 13.25% 林俊傑 17.50% 蔡淑臻 15.75%
林葦茹 9% 蕭亞軒 8.25% 林葦茹 11.50% 蕭亞軒 12%
金城武 11.50% 賴雅妍 22.75% 金城武 15.50% 賴雅妍 34.75%
侯佩岑 10.75% 濱崎步 14% 侯佩岑 14.50% 濱崎步 18.75%
相馬茜 21% 寶兒 11% 相馬茜 30% 寶兒 16%
( b )
<圖15> (a)直接套ART(m<12, n<12) (b)ART人臉中心座標移動後(m<12, n<12)
陸、評估與展望
本研究計畫目前研究結果,由於正確率還有待加強,未來將針對人臉做進一 步特徵的切割,將人臉分割為左眼、右眼、鼻子、嘴巴,分別對這些臉部特徵作 MPEG-7之ART 轉換,將擷取出來的特徵值與整張臉的特徵值,分類融合後再做 比對,期望能提高檢索系統的正確率。
未來此系統如果能應用到罪犯及失蹤人口搜尋系統上,將街道上拍攝到的影 像加以分析,配合臉部擷取技術將人臉分割出來,自動與資料庫內人臉做比對,
如果應用MPEG-7之ART轉換於人臉檢索這項研究能提升檢索的正確率,將對警
第 29 頁
界、失蹤人口的家屬,甚至是醫療界有相當的貢獻。
柒、結語
本研究計畫需要改進的地方還有很多,如減少前置作業的時間,增加檢索正 確率等等,這些問題希望能在之後的研究有更進一步的突破。
人臉辨識廣泛運用到生活上,其運用的程度僅次於指紋辨識,但是要取得人 臉的影像比取得指紋要容易多了,人臉只要透過攝影機或相機就可以取得影像而 指紋就沒這麼簡單,所以在將來的身分辨識上,我認為臉部辨識的發展是非常值 得去研究的。
捌、參考文獻
[1] 鄭凱方, “人臉可辨識度計算用於監控系統中人臉正面最佳影像判定”, 國立中 央大學碩士論文, pp. 14 - 15, pp. 16 – 19, 2005.
[2] 鄭凱方, “人臉可辨識度計算用於監控系統中人臉正面最佳影像判定”, 國立 中央大學碩士論文, pp. 16 - 19, pp. 16 – 19, 2005.