• 沒有找到結果。

主成分分析法

第二章 臉部辨識

第一節 主成分分析法

主成分分析法(PCA)是1991年由Turk 和Pentland 研究提出,以提 取臉部的主要成分計算出eigenvalue和eigenvector方式,決定保留的特徵 臉(Eigenface)數來重新建立圖片如圖2-1,因為只保留較大的特徵值數 相對應的特徵向量建構成特徵空間,將原始圖片投影至特徵空間後得到 的圖片與原始圖片有相似的輪廓(Turk, M. A., & Pentland, A. P., 1991a;

Lizama, E., Waldoestl, D., & Nickolay, B., 1997 ; Kim, K. I., Jung, K., &

Kim, H. J., 2002)。

圖2-1 原始圖片(左)與特徵臉(右)

主成分分析法又稱為Karhunen-Loeve Transform(KLT),主要利用 提取特徵臉進行臉部辨識,概念是經過投影後,找到資料最分散的方向 如圖2-2,而其過程主要由圖像訓練及辨識兩階段所組成(Turk, M. A., &

Pentland, A. P., 1991b)。

圖2-2 PCA投影示意圖

一、 訓練階段

首先假設待訓練的圖像樣本有M個,樣本大小為N×N,接著將N×N 的圖像轉換成N2×1的xi列向量(column vector),並得到訓練樣本集合X:

x x x

M

X

1

,

2

,...,

其中向量xi為N×N資料轉化成N2×1的資料如圖2-3:

圖2-3 原始圖像轉換 用奇異值分解(Singular Value Decomposition, SVD),先算出ATA矩陣的 特徵向量

v

i,其中 ATA矩陣的維數為M×M,其推算式如下:

i

採用歐式距離(Euclidean Distance)來計算Ωnew與訓練集中的每個

投影量的距離:

i M

i new

i2    2 1,2,...,

歐氏距離是一種普遍的分類法,將待辨識圖像樣本投影至特徵空間 的投影量比對訓練集中每一訓練樣本的投影量,以找出最短距離即為相 似影像,也就是當

ε

i 為最小時,則未知圖像屬於第i張圖像。

舉例來說,若訓練集樣本為100×100(Pixels)的圖片,將訓練樣本 轉置為1002×1,若樣本數M為100張,訓練樣本集合矩陣為1002×100,接 著求出Ψ、diC的特徵值與特徵向量,而後將di投影至特徵空間w,

得到訓練集。讀入待辨識之圖像,投影至特徵空間得到n ew,計算i , 完成辨識,訓練與辨識流程如圖2-4。

圖2-4 訓練與辨識流程圖

三、 PCA分析

PCA在做訓練時樣本與樣本之間為單一個體,彼此之間沒有關聯性 且在資料壓縮上有很好的效果,即原始圖像經過PCA步驟後,只保留指 定的特徵向量可稱作特徵臉(Eigenface),也就是保留主要成分,可以 減少計算的複雜度。

因為訓練樣本之間無關聯性,同一個人的臉部如果改變其表情或者

照射的光線強度改變,便可能無法判斷是否為同一個人,這問題可以透 過在訓練樣本中加入多種表情或者角度的照片。

PCA進行臉部辨識時,訓練階段最花費時間的是在計算共變異矩陣 的特徵值與特徵向量,當訓練樣本屬於高維度時,用傳統方法計算其共 變異矩陣的特徵值與特徵向量是無效率的,傳統方法像是特徵分解

(Eigen Decomposition),因此有學者提出用迭代的方式計算前幾個主成 分,例如:非線性迭代偏最小二乘法。除了計算特徵值與特徵向量費時 外,其次是做特徵投影的部分,由之前的介紹的計算式可以發現都是矩 陣的乘法,因此可以說加速臉部辨識即加速矩陣的計算。

相關文件