手勢數字碼辨識
吳明芳、李振興、王炳聰、張廷瑜 崑山科技大學電機系 email: wumifa@mail.ksu.edu.tw
摘要+—本論文之主要目的在於發展一套手勢數字碼辨 識系統。其中手勢數字碼之辨識過程包含三個主要步驟,
分別為:手部偵測、指峰偵測以及手勢辨識。在手部偵測 的步驟,首先使用色彩分割將膚色區塊從影像中取出,之 後再利用影像投影以及連接元區域標定,決定出所需要的 手部區域;而在指峰偵測的步驟,利用邊緣偵測與指峰遮 罩來找出指峰位置之座標;最後,在手勢辨識的步驟,依 據手指間的角度與距離關係,來辨識出相同指峰數的不同 手勢。
關 鍵 詞—手 勢 、 膚 色 偵 測 、 影 像 處 理
I. 簡介
因為人機介面的流行與普及,不透過硬體輸入裝 置而將人類行為轉化為訊息傳達給電腦系統是科技產 業目前研究的目標之一,而其中手勢是相當重要的人 類行為特徵,因其具有容易表示出複雜訊息的特性,
例如:手語、棒球暗號等等,而用特定手勢表示出簡單 的數字也已是一般人習慣的用法。如果利用手勢辨識 系統判斷出常用的數字手勢,便可透過對著鏡頭比手 勢進行簡單的數字或英文字碼輸入,亦或是透過家電 整合來控制家中電器,好處是不需再另外定義狀態手 勢而與數字做連結使得使用者較容易理解與記憶。
截至目前已有許多手勢辨識相關的研究[1]~[13],
而主要的手勢辨識方法可分為兩大類,第一種方式是 使用資料手套進行辨識[1][2],透過手套上的感測器 來傳送訊號至電腦做處理,此種方法較不易受到空間 及環境之影響但在硬體上的需求較高;第二種方式則 是利用影像處理辨識[3]~[7],不需再配戴額外的裝置 對使用者而言較容易接受,應用在一般環境且非快速 移動的情況下應該都有不錯的辨識率,此種方法也是 本論文之實驗基礎。例如 Wagne 等人[3]提出一種應 用於便攜式之手勢介面的手勢特徵擷取方法,方法是 將手勢區域範圍分成幾個小區塊,統計每個小區塊中 的像素並輸入後判斷出手勢,此方法在計算上不需要 太多的手部特徵判斷式,但對於手部範圍的擷取需要 有較精確的判定。Holden[4]提出以手掌重心點為圓 心,使用一個可縮放的圓形遮罩搜尋整張影像,如通 過手掌輪廓點時,便記錄下此點之半徑與角度,根據 輪廓點與圓心之距離與對應角度可得到一曲線圖,曲 線圖中的峰值即代表可能有指峰存在,此種方法之優 點為不需要花時間計算輪廓點與重心之距離,但需計 算圓型遮罩位置,以及掃描整張手勢大小內的所有圓 形區域,本研究中使用依序紀錄手部輪廓點之方法,
可以減少搜尋像素之數量,且配合指峰遮罩可直接找 出指峰位置。Sato 等人[5]提出了模版比對法,其作法 是先計算出影像中之目標區域,然後使用其定義之指
尖特徵模版,於此區域內進行比對工作,用以找出指 尖特徵資訊。Bretzner 等人[6]利用階層式手部模型,
從手部區域影像中取出之團狀與狹長脊狀之特徵資 訊,用此來辨識出手掌、手指、與指尖,並以此配合 其 他 演 算 法 , 實 做 出 一 套 電 視 操 控 系 統 。 Hasanuzzaman 等人[7],使用多重特徵樣本比對法對 擷取之膚色特徵進行辨識,並由位置資訊區分左右手 是否在影像中且與臉部距離為何,設計一套手勢辨識 系統用以操控電子狗。研究中,實驗中由人臉及雙手 動作定義八個手勢來與電子狗互動。
本論文的研究目的是利用影像擷取設備將拍攝到 的數字手勢影像傳給電腦,透過 C++語言[14][15]進 行數字手勢的影像辨識處理,最後將其手勢代表之字 碼顯示在畫面上。過程中,首先檢視連續影像畫面中 是否有出現手部膚色區塊,如果有則進行手掌區域的 影像處理,沒有則回到影像輸入檢測,接著利用邊緣 化後的手掌區域計算出手掌重心,並且計算出每個手 掌邊緣點至重心距離後,利用指峰判定遮罩找出指峰 位置及數量,如果無指峰則判定為數字 0,有指峰則 依照指峰點位置關係進行字碼判定處理,最後在程式 畫面上顯示辨識結果,然後繼續回到影像輸入畫面並 檢測有無新膚色區塊出現。
II. 手勢影像處理
本研究為在連續影像畫面中將手勢區塊取出,首 先使用M. Soriano[16]等人所提出的 RGB 正規化方法 將膚色區塊取出並作二值化處理,然後利用型態學上 的斷開運算消除孤立雜點並保持手掌區塊的完整性,
接著利用連接元區域標定,框定出最大膚色區塊範 圍,再將框定範圍內的區塊作邊緣化處理以減少後續 特徵判斷時的運算量,且方便特徵判斷時的程式作 業,最後利用水平影像投影找出水平影像上最小投影 量,也就是手腕部分,以此重新計算區域標定位置,
將手腕以下的部份排除,只標定出所需要的手勢區塊 之範圍。
A. 膚色區塊分割
顏色分割主要是透過色彩空間轉換,並給定其顏 色之範圍數值,藉此將特定顏色從畫面分割出來。對 於膚色分割已有很多種方法被提出[17]~[19],本實驗 做膚色分割的方法便是在NCC 色彩空間[16]下進行,
因其轉換公式簡單可減少程式運算量,且對於亮度的 影響也較RGB 彩色空間小。轉換公式如下:
B G R
R
r (2-1)
B G R
G
g (2-2)
其中(2-1)式是對紅色像素的正規化,目的是減少紅色 系對亮度的依賴。(2-2)式是對綠色像素的正規化,目 的是減少綠色系對亮度的依賴。
膚色切割的門檻值採用 Soriano[16]所提出的統計 範圍,如圖2.1 所示,X 軸代表 r 介於 0.2~0.6 之間,
Y 軸代表 g 介於 0.2~0.4 之間,而黑點代表的為膚色 區域所分佈之區域。
圖2.1 膚色統計範圍圖(本圖節錄自 Soriano[8]) 為有效分割出膚色區域,可利用兩條二次方程式 來決定出膚色區塊範圍,如 2-1 圖黃色曲線所示,方 程式如下所示。
1452 . 0 0743 . 1 376 . 1 (r)
F1 r2 r (2-3) 0.1766
0.5601 0.776
(r)
F2 r2 r (2-4) 其中F1(r)與F2(r)分別代表膚色的上界與下界,因為 白點(r=0.33、g=0.33)也在此定義區間之中,所以加入 下列方程式來排除。
2 2 ( 0.33) )
33 . 0
(
r g
W (2-5) 將(2-3)~(2-5)公式整理過後可定義出膚色分割之範 圍,如下所示。
0 otherwise
0.0004) W
&
(r) g
&
(r) if(g
S 1 F1 F2 (2-6)
經實驗結果發現藍色以及黃綠色系之雜點無法完全排 除,所以我們加入以下兩項規則修正:
(1) R>G>B,一般來說膚色是比較偏向紅、綠色組成 的,經過實驗發現膚色之間的pixel 都具有 R>G>B 的規則,所以我們利用此項規則便可將藍色系之 雜點濾除。
(2) (R-G)
5,依照第一項規則我們發現有些淺色系 的黃綠雜點也符合條件範圍內,所以加入此項規 則來修正。最後將分割出來的膚色區塊透過實驗設定的門檻 值,進行二值化處理以減低後續程式的運算量。例如 圖 2.2 為膚色分割的實驗結果,圖 2.2(a)為原始輸入 圖像;圖 2.2(b)未加入修正規則前的膚色分割結果,
從圖片上可以發現膚色區塊可以完整的分割出來,且 白點也在影像中被濾除,但是畫面上藍、綠色之像素 大部分都還存在;圖 2.2(c)為加入修正規則後的膚色 分割結果,可以發現大部分非膚色區塊都已經濾除;
圖 2.2(d)透過二值化處理,可得到完整的膚色分割區 塊。
(a)原始影像 (b)修正前膚色分割結果
(c)修正後膚色分割結果 (d)膚色區塊二值化影像 圖2.2 膚色分割結果
B. 膚色區域外型處理
一般影像直接擷取進來或是透過顏色分割所取出 的圖像,通常都存在著各種雜訊,亦或是圖形結構不 完全之情況,為使後續的實驗過程有較好的處理效 果,必須再透過影像外型處理[20][21]來進行雜訊濾除 或是影像簡化等工作。本研究為將膚色分割處理所取 出的二值化影像之雜訊濾除,實驗中使用斷開運算進 行處理。圖 2.3(a)為原二值化膚色區塊影像,從畫面 上可發現有一些雜訊存在;圖 2.3(b)為斷開運算處 理,因為斷開運算的過程中先做侵蝕可以將畫面上的 雜點濾除,再經過膨脹處理使得整個手勢區塊可以結 合在一起,且手勢輪廓也變的較先前平滑。
(a)原二值化膚色影像 (b)經斷開運算結果 圖2.3 膚色區域雜點濾除結果 C. 手掌區域標定
為了考慮在一張影像畫面中有多手勢或非手勢小 區塊出現,必須將每個區塊位置標定出來,方便分別 處理。而在手勢影像畫面中,穿著短袖的情況手臂區 域也會被擷取進去,為了減少程式運算量必須將不需 要的手臂區域排除,將真正手勢區域標定出來。
連接元區域標定的目的,是將一影像中屬於同一 區塊相連的像素標定出來,完成標定的同時也可獲得 該物件之大小、位置、範圍、長度及寬度,以下將說 明連接元區域標定之處理步驟:
(1) 從左至右、由上至下搜尋整張影像畫面為 1 的像 素點,標記此點並將原影中此點設為 0,並設此 點為遮罩中心。
(2) 依據圖 2.4(a)所示的區域標定遮罩,照數字順序 搜尋遮罩中心座標鄰邊為 1 的像素點,找到後刪 除此點並將此點座標設為新遮罩中心,如遇鄰邊 都為 0 時回到上一個中心點,重復(2)之動作直至 所有紀錄過的中心點之鄰邊全為0 為止。
(3) 當所搜尋之鄰邊全為 0 代表一個區塊已經紀錄完 成,將上述所紀錄下的像素設為同一區塊並標定 其區域。
(4) 重覆(1)之動作並紀錄為新區塊,直至整張影像無 像素點為止。
(a) 區域標定遮罩 (b) 區域標定處理順序 圖2.4 連接元區域標定
圖 2.4(b)所示為連接元區域標定的處理順序,可 發現在同一區塊內所有點都可以標記到;圖 2.5 為連 接元區域標定結果,成功將兩個手勢區塊分別標定出 來,之後便可以根據其範圍來做個別的手勢辨識處 理。
圖2.5 手掌之連接元區域標定結果 D. 手掌範圍定位
在本研究中使用水平投影來定位出所需的手勢部 分,透過對手臂影像做水平投影,可發現最小投影值 的位置會出現在手腕上下,利用此項關係便可將手臂 與手掌部分區分開來,但如果直接對全部手部影像做 投影,手指的投影值勢必遠小於手腕區域,所以必須 先找出最大水平投影之Y 軸位置,然後從最大水平投 影往下搜尋找出最小水平投影的區域。圖 2.6 為水平 投影處理結果以及搜尋區域示意圖,紅線代表最大水 平投影線,藍線代表最小水平投影線;圖 2.7(a)為最 大手部區塊的區域標定範圍,而圖 2.7(b)為手部處理 後之結果,可發現只框定出所需要的手勢範圍。
圖2.6 水平投影處理
(a)最大手部區域標定 (b)切割後區域標定範圍 圖2.7 手掌範圍定位結果
III. 手勢特徵標定
在手勢辨識最主要的步驟,是要找出判斷手勢的 主要特徵,其中包括指峰、軌跡、方向、輪廓及樣板 比對等等。圖 3.1 所示為手勢特徵標定之流程,首先 利用邊緣化之手勢影像計算出手掌重心座標,然後將 所有手勢邊緣點依序標上流水號,同時計算各手掌邊 緣點與重心之距離並紀錄之,接著計算手勢影像高度 與畫面高度之比,以此計算出指峰遮罩之縮放參數,
透過此遮罩來決定是否符合指峰之門檻值,最後將指 峰位置紀錄下來。
圖3.1 手掌特徵標定流程圖
重心為手掌形狀之特徵點,透過重心與邊緣距離 便可計算出手掌輪廓的鋒值特性。重心計算公式如下 所示:
Ni
x
X i
C N
1
)
1 (
(3-1)
Ni
y
Y i
C N
1
)
1 (
(3-2)其中
C
x為重心的X 軸座標、C
y為重心的Y 軸座標、N 為手掌邊緣的總點數、X(i)為第 i 邊緣點的 X 軸座 標、Y(i)為第 i 邊緣點的 Y 軸座標。將手掌所有邊緣 點之 X 軸座標與 Y 軸座標各別相加除上邊緣總點 數,便可得到重心之座標位置,但經實驗發現計算出 來之座標有時會太靠近手指位置,容易造成各手指間 峰值的不平衡。
為使重心能盡量靠近手掌下方,本論文提出重心 座標修正方法,利用最小水平投影線,當此線切割手
部時會與手臂邊緣產生兩個交點,透過這兩點座標的 平均可以得到一手臂中心點,在正常手勢下此點通常 位於整個手勢的中線位置,所以我們將重心點與手臂 中心點作連線,透過在此連線上移動可以找到一個新 重心位置,此方法不僅可使手掌重心向下移動,也可 以修正因手勢影像左右不平衡而導致重心偏斜的情 形。圖 3.2 所示為手掌重心修正示意圖,本研究所取 的新重心為舊重心與手臂中心點連線中間點位置。
圖3.2 手掌重心修正示意圖
在指峰偵測過程中,首先必須取得手掌輪廓資 訊,此過程可先取出邊緣化手勢影像,接著透過圖 3.3 的邊緣紀錄遮罩依序掃描,便可將手掌邊緣點順 序記錄下來。
圖3.3 邊緣紀錄遮罩
標記順序與區域標定遮罩稍有不同,因邊緣為一 連續線段所以不需使用遞迴來處理。為使邊緣點可以 完整紀錄,必須先標記其垂直與水平方向像素,以避 免先標記斜角方向而導致掃描過程中斷。為得到手部 輪廓資訊,以下將說明邊緣紀錄處理步驟:
(1) 將邊緣化手勢影像與最小水平投影線之左側交點 定為起點。
(2) 透過圖 3.3 遮罩依數字順序進行掃描,找到為 1 的像素點。
(3) 設起點為編號 1 依序將尋找到的像素點標上流水 號。
(4) 計算此點與重心距離並按流水號紀錄結果。
(5) 刪除此點,將此點座標設為新遮罩中心。
(6) 重覆(2)~(5)步驟直至無任何為 1 之像素點為止。
當所有手勢邊緣都記錄完成後,便可獲得手勢輪 廓與重心點之距關係,其中距離差值的峰值便代表指 峰的候選。為從手勢邊緣點中標定出指峰,以下使用 一個一維的指峰判定遮罩來進行搜尋,如圖 3.4 所 示,其中 n 代表手勢邊緣標定之流水號、d[n]代表該 流水號像素與重心距離、h 代表遮罩縮放參數。
圖3.4 指峰判定遮罩
圖 3.4 的遮罩可以想像成一個覆蓋手指之指套,
如圖 3.5 所示,手勢會因距離鏡頭遠近而改變大小,
所以研究中將透過遮罩縮放參數 h,來調整指套大 小,決定縮放參數的公式如下:
34
手勢影像高度
h (3-3)
圖3.5 指峰遮罩示意圖
一般而言手指長度與手掌高度之比例介於二分之 一到三分之一間,所以為了避免遮罩超出手指長度,
實驗時取手勢影像三分之一高度為指套之最大搜尋距 離,也就是遮罩的縮放比例。在實驗中分別取最大搜 尋距離(4h)的四分之一與二分之一位置,為指峰判定 遮罩之第一搜尋距離(h)與第二搜尋距離(2h)。透過指 峰判斷遮罩,將流水號依序代入遮罩中心點 d[n]搜 尋,找到符合遮罩判定條件之像素點即判定為指峰,
(3-4)式為指峰遮罩判定條件。
指峰=((d[n]-2h)>d[n+4h]) & (d[n] >d[n+2h]) & (d[n] >d[n+h]) & ((d[n]-2h)>d[n-4h])
& (d[n] >d[n-2h]) & (d[n] >d[n-h]) (3-4) 在實驗中,手勢邊緣可能有指骨或其他原因之小 峰值出現,如手勢 0 之情況。為排除非指峰之峰值被 誤判,實驗在最大搜尋點加入-2h 之條件,以確保偵 測到之指峰點數值必須遠大於最大搜尋點之值。偵測 流水號中心點之前後三個搜尋距離之遮罩點,如果符 合(3-4)式條件,便記錄該點為指峰,該點後面二十個 流水號則不再予以記錄,以避免同一指峰重複標記。
IV. 手勢碼判定
將指峰標定完成後,便可依據各指峰間之距離及 角度差異,來判斷同指峰數之手勢字碼的歸屬。圖 4.1 為手勢碼判定流程圖,首先將搜尋到的指峰數量 做字碼判定區分,當指峰數目為 0、1、4、5 時,因 無其他同指峰數手勢存在,所以直接輸出數字碼;當 指峰數目為 2、3 時,各有三個不同手勢,所以要再 經過字碼判斷決定對應數字碼。本研究中字碼的顯示 分為兩個模式,當單手手勢時顯示數字字碼,而雙手 手勢時則顯示英文字母字碼,其中雙手手勢是透過兩 個數字字碼組合來顯示出對應之英文字碼。
圖4.1 手勢碼判定流程
手勢代表數字之方式在世界各地都不盡相同,而 在本研究中所使用的方式為一般台灣人較常用之數字 手勢,其優點是手勢意義之間具有連貫性,且指峰特 徵明顯。表 4.1 為各數字代表之手勢對照表,其中數 字手勢九,因小指較不容易彎曲,所以將手勢變更如 下表所示。
表4.1 數字手勢對照表
表 4.2 為雙手手勢時將數字轉換成英文字碼之對 照表,下表中的右及左行分別是代表畫面中右影像手 勢與左影像手勢。
表4.2 英文字碼轉換對照表
根據手勢碼定義,可以發現數字(2、6、7)同為兩 個指峰點,數字(3、8、9)同為三個指峰點,其餘指峰 數則各自只代表一個數字無須另加判斷。在同指峰數 字手勢判斷的部份,本研究利用手勢的指峰間距以及 指峰與重心夾角之關係,來決定出二指峰與三指峰之 手勢歸屬。圖 4.2 為手勢判斷條件示意圖,其中 d 代 表指峰間距,θ 代表指峰與重心之夾角,A 為指尖點 a 至新重心的距離,B 為指尖點 b 至新重心的距離。
圖4.2 手勢判斷條件示意圖
當手勢為兩個指峰點時,研究中使用指峰間距離 及重心之夾角來辨識 2、6、7 之手勢,其中因指峰間 距會隨手勢離鏡頭遠近而有所改變,所以必須再除上 最長指峰之距離,以取得固定比例值。經過實驗定出 三個手勢之範圍值如(4-1)及(4-2)式所示:
6or7 otherwise
) 33
&
55 . 0 if(
S 2 D
(4-1)
6 otherwise ) 53 if(
S 7
(4-2)在上述兩式中指峰間距比例 D=d/max(A,B)。在 判斷流程中優先判斷手勢 2,如果條件不合則判斷手 勢 7,如都不符合則將手勢數字判定為 6。因手勢 2 之指峰間距與角度皆為三者中最小且差異大,所以優 先判斷,而7 與 6 之間因指峰間距相近所以進一步採 用角度判別。當手勢為三個指峰點時,本研究使用指 峰間距以及兩間距之和值與差值來辨識 3、8、9 之手 勢。經實驗定出三個手勢之範圍值如(4-3)及(4-4)式所 示:
3or8 otherwise
) 2 . 1
&
1 . 0 if(
S 9 Da Ds (4-3)
3 otherwise ) 51 . 0 if(
S 8 D (4-4)
在上述兩式中 D 為指峰間距比例,Da 代表兩指 峰間距之和值,Ds 代表兩指峰間距之差值。在判斷流 程中優先判斷手勢 9,如果條件不合則判斷手勢 8,
如都不符合則將手勢數字判定為 3。因手勢 9 之兩指 峰間距之和值與差值,遠大於與小於其他兩手勢,所 以優先判斷。因手勢 8 其中一間距較手勢 3 大,所以 透過此條件來做判別。
V. 實驗結果 A. 指峰偵測結果
在實驗中標出重心位置後,便可透過指峰偵測,
搜尋出為指峰之像素點,圖 5.1 中左圖為原始影像,
右圖為指峰點之標示情況,其中紅點代表指峰位置,
透過指峰偵測遮罩縮放,近距離或離鏡頭稍遠之手 勢,都可以成功標示指峰,在手勢 0 的情況雖然也有 峰值產生,但未超過指峰遮罩門檻,所以不會判定為 指峰點。
圖5.1 指峰偵測結果 B. 數字碼判別結果
圖5.2 數字碼判別結果
在數字手勢判別中,本實驗實際拍攝數字手勢來 進行辨識,內容包括靜止不動、左右橫移、左右傾
斜、前後移動等畫面,並紀錄下每個畫面之成功率。
圖 5.2 為數字手勢辨識之實驗結果,左圖為原始影 像,右圖為辨識影像,左上角為判定之數字。
本文以不同人之數字手勢辨識成功率統計表,其 中表 5.1 的實驗一為本文作者所使用的手勢,其各手 勢的手指張角較為一致,所以成功率較高,平均辨識 率在 97%以上,其他實驗因手勢各手指張角的差異不 同,所以在部份手勢中的成功率較低,但平均成功率 都在九成以上。
表5.1 手勢辨識成功率
手勢數字 統計張數 成功張數 失敗張數 辨識率 手勢1 100 98 2 98%
手勢2 100 100 0 100%
手勢3 100 95 5 95%
手勢4 100 100 0 100%
手勢5 100 97 3 97%
手勢6 100 94 6 94%
手勢7 100 98 2 98%
手勢8 100 98 2 98%
手勢9 100 94 6 94%
手勢0 100 97 3 97%
總和 1000 971 29 97.1%
C. 英文字碼判別結果
當影像畫面偵測到有兩個數字手勢存在時,便利 用表 4.2 轉換成英文字碼判斷,使數字手勢也可表示 出英文字碼。在本實驗中,採取鏡頭由下往上照的方 式,目地是排除因人臉入鏡而造成膚色重疊之情況。
圖 5.3 為英文字碼手勢之顯示結果,表 5.2 為英文字 碼手勢辨識成功率,因考慮到雙手入鏡移動空間不 足,實驗只紀錄手勢靜止與些微平移之情況,而辨識 率都在90%以上。
圖5.3 英文字碼顯示結果
表5.2 英文手勢辨識成功率
英文字碼 統計張數 成功張數 失敗張數 辨識率 A 100 100 0 100%
B 100 100 0 100%
C 100 93 7 93%
D 100 100 0 100%
E 100 88 12 88%
F 100 90 10 90%
G 100 100 0 100%
H 100 100 0 100%
I 100 98 2 98%
J 100 100 0 100%
K 100 100 0 100%
L 100 100 0 100%
M 100 100 0 100%
N 100 96 4 96%
O 100 92 8 92%
P 100 90 10 90%
Q 100 100 0 100%
R 100 100 0 100%
S 100 90 10 90%
T 100 100 0 100%
U 100 94 6 94%
V 100 100 0 100%
W 100 100 0 100%
X 100 100 0 100%
Y 100 97 3 97%
Z 100 96 4 96%
總和 2600 2564 76 98.6%
VI. 結論與未來展望
A. 結論
在本論文中提出一套數字手勢影像辨識系統,經 由攝影鏡頭擷取數字手勢影像,並成功辨識其手勢代 表之數字,再由雙手勢數字編碼成英文輸入模式,最 後透過數字輸入系統,模擬實際之數字影像手勢 輸入 之實用性。在過程中利用彩色影像處理技術,將膚色 區塊擷取出來,並經過型態學處理後,使用水平投影 決定手勢區塊標定範圍,再將手勢邊緣化並記錄其順 序,透過統計邊緣點標定出重心後,計算邊緣點與重 心之距離,接著利用指峰偵測遮罩搜尋邊緣點上之指 峰點,完成後根據指峰數目直接輸出數字,或是再經 過同指峰判定後輸出,最後得到之數字便可通過上述 幾種模式顯示完成。
最後在成果部份,在一般環境下正常檢測距離之 內,本論文之數字手勢辨識系統都有不錯的辨識率,
數字輸入系統方面也具有相當不錯的穩定度與實用 性。
B. 檢討與未來展望
目前本論文之實驗對於非正常模式,如:光源影 響、手勢不正確、非手部區塊侵入、手勢傾斜過大 等,幾種可能出現的情況下,容易產生誤判手勢,對 於同峰值手勢在上述情況,也容易因參數變動過大而 發生錯誤顯示。因此,如能改善基本影像處理之效 果,便可提升整體系統之穩健度;亦或是對於手勢之
判斷條件之改良,與特殊情況下手勢的修正或排除侵 入異物設定,可助於增加手勢判斷之準確性。
而在未來發展方面,除了手勢辨識穩健度之提 升,在數字輸入系統方面,可增加新手勢以提升輸入 模式之靈活度,以及加入較具方便性的功能,或是英 文模式的輸入設定,以提升手勢辨識系統之完整度與 實用性。
REFERENCES
[1] K. Grobel and M. Assan, “Isolated sign language recognition using hiddenMarkov models Systems,’’
Proceeding of the IEEE International Conference on Computational Cybernetics and Simulation, vol. 1, pp.
162-167, 1997.
[2] R. H. Liang and M. Ouhyoung, “A real-time continuous gesture recognition system for sign language,’’ Proceeding of the IEEE International Conference on Automatic Face and Gesture Recognition, vol. 3, pp. 558 –567, 1998.
[3] S. Wagne, B. Alefs and C. Picus, “Framework for a Portable Gesture Interface,” 7th International Conference on Automatic Face and Gesture Recognition, pp. 275 - 280, 2006
.
[4] E. J. Holden and R. Owens, “Recognizing Moving Hand Shapes,” in Proc.on 12th International Conference on Image Analysis and Processing, pp.14-19, 2003.
[5] Y. Sato, Y. Kobayashi and H. Koike, “Fast tracking of hands and fingertips in infrared images for augmented deskinterface,” Proc. of the 4th IEEE Int. Conf. on Automatic Faceand Gesture Recognition(FG 2000), pp.462-467, 2000.
[6] L. Bretzner, I. Laptev and T. Lindeberg,“Hand gesture recognition using multi-scale colour features ,hierarchical models and particle filtering,” Proc. of the5th IEEE Int.
Conf. on Automatic Face and GestureRecognition, pp.405- 410, May 2002.
[7] M. Hasanuzzaman, V. Ampornaramveth, T. Zhang, M.A.
Bhuiyan, Y. Shirai and H. Ueno, “Real-time Vision-based Gesture 59 Recognition for Human Robot Interaction,”
IEEE International Conference on Robotics and Biomimetics, pp. 413-418, 2004.
[8] B. W. Min and H. S. Yoon, “Hand gesture recognition using hidden Markov models Systems,” Proc. of IEEE Int.
Conf. on Computational Cybernetics and Simulation, vol.5,pp.4232–4235, 1997.
[9] X. Liu and K. Fujimura, “Hand gesture recognition using depth data,” inProc. 6th IEEE International Conference on Automatic Face and Gesture Recognition, pp. 529-534, 2004.
[10] 涂又仁,“利用人臉及手勢辨識之人機介面’’,碩士論
文,國立中正大學電機工程研究所,2007 年 7 月。
[11] 陳培森,“看護系統之監控與辨識功能建立’’,碩士論
文,國立中央大學電機工程研究所,2006 年 6 月。
[12] 陳治宇,“虛擬滑鼠:以視覺為基礎之手勢辨識’’,碩
士論文,國立中山大學資訊工程學系,2003 年 6 月。
[13] 魏育誠,“結合人臉與掌型特徵之身分確認的研究’’,
碩士論文,崑山科技大學電機工程系,2004 年 6 月。
[14] 蕭明城、周岱琳,“Visual C++6 完全攻略”,金禾資訊
股份有限公司,2004 年 3 月初版。
[15] 黃文吉,“C++ Builder 與影像處理”,儒林圖書公司,
2003 年 7 月一版二刷。
[16] M. Soriano, S. Huovinen, B. Martinkauppi and M.
Laaksonen, “Using the Skin Locus to Cope with Changing illumination Condition in Color-Based Face Tracking”, Proc. of IEEE Nordic Signal Processing Symposium, 2000, pp.383-386.
[17] S. Singh, D.S. Chauhan, M. Vatsa and R. Singh, “A Robust Skin Color Based FaceDetection Algorithm ,”
Tamkang Journal of Science and Engineering, pp. 227-234, 2003.
[18] C. Garcia and G. Tziritas, “Face detection using quantized skin color regions mergingand wavelet packet analysis,”
IEEE Transactions on Multimedia, pp. 264 - 277, 1999.
[19] R. Jain, R. Kasturi and B. G. Schunck, “Machine Vision, ” 1995, pp.35-36.
[20] R. C. Gonzalez and R. E. Woods, “Digital image processing, 2nd Edition, Prentice Hall, 2003.
[21] 連國珍,“數位影像處理”,儒林圖書有限公司,2007
年9 月一版。