• 沒有找到結果。

手勢數字碼辨識 吳明芳、李振興、王炳聰、張廷瑜

N/A
N/A
Protected

Academic year: 2022

Share "手勢數字碼辨識 吳明芳、李振興、王炳聰、張廷瑜"

Copied!
8
0
0

加載中.... (立即查看全文)

全文

(1)

手勢數字碼辨識

吳明芳、李振興、王炳聰、張廷瑜 崑山科技大學電機系 email: wumifa@mail.ksu.edu.tw

摘要+—本論文之主要目的在於發展一套手勢數字碼辨 識系統。其中手勢數字碼之辨識過程包含三個主要步驟,

分別為:手部偵測、指峰偵測以及手勢辨識。在手部偵測 的步驟,首先使用色彩分割將膚色區塊從影像中取出,之 後再利用影像投影以及連接元區域標定,決定出所需要的 手部區域;而在指峰偵測的步驟,利用邊緣偵測與指峰遮 罩來找出指峰位置之座標;最後,在手勢辨識的步驟,依 據手指間的角度與距離關係,來辨識出相同指峰數的不同 手勢。

關 鍵 詞—手 勢 、 膚 色 偵 測 、 影 像 處 理

I. 簡介

因為人機介面的流行與普及,不透過硬體輸入裝 置而將人類行為轉化為訊息傳達給電腦系統是科技產 業目前研究的目標之一,而其中手勢是相當重要的人 類行為特徵,因其具有容易表示出複雜訊息的特性,

例如:手語、棒球暗號等等,而用特定手勢表示出簡單 的數字也已是一般人習慣的用法。如果利用手勢辨識 系統判斷出常用的數字手勢,便可透過對著鏡頭比手 勢進行簡單的數字或英文字碼輸入,亦或是透過家電 整合來控制家中電器,好處是不需再另外定義狀態手 勢而與數字做連結使得使用者較容易理解與記憶。

截至目前已有許多手勢辨識相關的研究[1]~[13],

而主要的手勢辨識方法可分為兩大類,第一種方式是 使用資料手套進行辨識[1][2],透過手套上的感測器 來傳送訊號至電腦做處理,此種方法較不易受到空間 及環境之影響但在硬體上的需求較高;第二種方式則 是利用影像處理辨識[3]~[7],不需再配戴額外的裝置 對使用者而言較容易接受,應用在一般環境且非快速 移動的情況下應該都有不錯的辨識率,此種方法也是 本論文之實驗基礎。例如 Wagne 等人[3]提出一種應 用於便攜式之手勢介面的手勢特徵擷取方法,方法是 將手勢區域範圍分成幾個小區塊,統計每個小區塊中 的像素並輸入後判斷出手勢,此方法在計算上不需要 太多的手部特徵判斷式,但對於手部範圍的擷取需要 有較精確的判定。Holden[4]提出以手掌重心點為圓 心,使用一個可縮放的圓形遮罩搜尋整張影像,如通 過手掌輪廓點時,便記錄下此點之半徑與角度,根據 輪廓點與圓心之距離與對應角度可得到一曲線圖,曲 線圖中的峰值即代表可能有指峰存在,此種方法之優 點為不需要花時間計算輪廓點與重心之距離,但需計 算圓型遮罩位置,以及掃描整張手勢大小內的所有圓 形區域,本研究中使用依序紀錄手部輪廓點之方法,

可以減少搜尋像素之數量,且配合指峰遮罩可直接找 出指峰位置。Sato 等人[5]提出了模版比對法,其作法 是先計算出影像中之目標區域,然後使用其定義之指

尖特徵模版,於此區域內進行比對工作,用以找出指 尖特徵資訊。Bretzner 等人[6]利用階層式手部模型,

從手部區域影像中取出之團狀與狹長脊狀之特徵資 訊,用此來辨識出手掌、手指、與指尖,並以此配合 其 他 演 算 法 , 實 做 出 一 套 電 視 操 控 系 統 。 Hasanuzzaman 等人[7],使用多重特徵樣本比對法對 擷取之膚色特徵進行辨識,並由位置資訊區分左右手 是否在影像中且與臉部距離為何,設計一套手勢辨識 系統用以操控電子狗。研究中,實驗中由人臉及雙手 動作定義八個手勢來與電子狗互動。

本論文的研究目的是利用影像擷取設備將拍攝到 的數字手勢影像傳給電腦,透過 C++語言[14][15]進 行數字手勢的影像辨識處理,最後將其手勢代表之字 碼顯示在畫面上。過程中,首先檢視連續影像畫面中 是否有出現手部膚色區塊,如果有則進行手掌區域的 影像處理,沒有則回到影像輸入檢測,接著利用邊緣 化後的手掌區域計算出手掌重心,並且計算出每個手 掌邊緣點至重心距離後,利用指峰判定遮罩找出指峰 位置及數量,如果無指峰則判定為數字 0,有指峰則 依照指峰點位置關係進行字碼判定處理,最後在程式 畫面上顯示辨識結果,然後繼續回到影像輸入畫面並 檢測有無新膚色區塊出現。

II. 手勢影像處理

本研究為在連續影像畫面中將手勢區塊取出,首 先使用M. Soriano[16]等人所提出的 RGB 正規化方法 將膚色區塊取出並作二值化處理,然後利用型態學上 的斷開運算消除孤立雜點並保持手掌區塊的完整性,

接著利用連接元區域標定,框定出最大膚色區塊範 圍,再將框定範圍內的區塊作邊緣化處理以減少後續 特徵判斷時的運算量,且方便特徵判斷時的程式作 業,最後利用水平影像投影找出水平影像上最小投影 量,也就是手腕部分,以此重新計算區域標定位置,

將手腕以下的部份排除,只標定出所需要的手勢區塊 之範圍。

A. 膚色區塊分割

顏色分割主要是透過色彩空間轉換,並給定其顏 色之範圍數值,藉此將特定顏色從畫面分割出來。對 於膚色分割已有很多種方法被提出[17]~[19],本實驗 做膚色分割的方法便是在NCC 色彩空間[16]下進行,

因其轉換公式簡單可減少程式運算量,且對於亮度的 影響也較RGB 彩色空間小。轉換公式如下:

B G R

R

 

r (2-1)

B G R

G

 

g (2-2)

(2)

其中(2-1)式是對紅色像素的正規化,目的是減少紅色 系對亮度的依賴。(2-2)式是對綠色像素的正規化,目 的是減少綠色系對亮度的依賴。

膚色切割的門檻值採用 Soriano[16]所提出的統計 範圍,如圖2.1 所示,X 軸代表 r 介於 0.2~0.6 之間,

Y 軸代表 g 介於 0.2~0.4 之間,而黑點代表的為膚色 區域所分佈之區域。

圖2.1 膚色統計範圍圖(本圖節錄自 Soriano[8]) 為有效分割出膚色區域,可利用兩條二次方程式 來決定出膚色區塊範圍,如 2-1 圖黃色曲線所示,方 程式如下所示。

1452 . 0 0743 . 1 376 . 1 (r)

F1  r2r (2-3) 0.1766

0.5601 0.776

(r)

F2  r2r (2-4) 其中F1(r)與F2(r)分別代表膚色的上界與下界,因為 白點(r=0.33、g=0.33)也在此定義區間之中,所以加入 下列方程式來排除。

2 2 ( 0.33) )

33 . 0

(   

r g

W (2-5) 將(2-3)~(2-5)公式整理過後可定義出膚色分割之範 圍,如下所示。



   

 0 otherwise

0.0004) W

&

(r) g

&

(r) if(g

S 1 F1 F2 (2-6)

經實驗結果發現藍色以及黃綠色系之雜點無法完全排 除,所以我們加入以下兩項規則修正:

(1) R>G>B,一般來說膚色是比較偏向紅、綠色組成 的,經過實驗發現膚色之間的pixel 都具有 R>G>B 的規則,所以我們利用此項規則便可將藍色系之 雜點濾除。

(2) (R-G)

5,依照第一項規則我們發現有些淺色系 的黃綠雜點也符合條件範圍內,所以加入此項規 則來修正。

最後將分割出來的膚色區塊透過實驗設定的門檻 值,進行二值化處理以減低後續程式的運算量。例如 圖 2.2 為膚色分割的實驗結果,圖 2.2(a)為原始輸入 圖像;圖 2.2(b)未加入修正規則前的膚色分割結果,

從圖片上可以發現膚色區塊可以完整的分割出來,且 白點也在影像中被濾除,但是畫面上藍、綠色之像素 大部分都還存在;圖 2.2(c)為加入修正規則後的膚色 分割結果,可以發現大部分非膚色區塊都已經濾除;

圖 2.2(d)透過二值化處理,可得到完整的膚色分割區 塊。

(a)原始影像 (b)修正前膚色分割結果

(c)修正後膚色分割結果 (d)膚色區塊二值化影像 圖2.2 膚色分割結果

B. 膚色區域外型處理

一般影像直接擷取進來或是透過顏色分割所取出 的圖像,通常都存在著各種雜訊,亦或是圖形結構不 完全之情況,為使後續的實驗過程有較好的處理效 果,必須再透過影像外型處理[20][21]來進行雜訊濾除 或是影像簡化等工作。本研究為將膚色分割處理所取 出的二值化影像之雜訊濾除,實驗中使用斷開運算進 行處理。圖 2.3(a)為原二值化膚色區塊影像,從畫面 上可發現有一些雜訊存在;圖 2.3(b)為斷開運算處 理,因為斷開運算的過程中先做侵蝕可以將畫面上的 雜點濾除,再經過膨脹處理使得整個手勢區塊可以結 合在一起,且手勢輪廓也變的較先前平滑。

(a)原二值化膚色影像 (b)經斷開運算結果 圖2.3 膚色區域雜點濾除結果 C. 手掌區域標定

為了考慮在一張影像畫面中有多手勢或非手勢小 區塊出現,必須將每個區塊位置標定出來,方便分別 處理。而在手勢影像畫面中,穿著短袖的情況手臂區 域也會被擷取進去,為了減少程式運算量必須將不需 要的手臂區域排除,將真正手勢區域標定出來。

連接元區域標定的目的,是將一影像中屬於同一 區塊相連的像素標定出來,完成標定的同時也可獲得 該物件之大小、位置、範圍、長度及寬度,以下將說 明連接元區域標定之處理步驟:

(1) 從左至右、由上至下搜尋整張影像畫面為 1 的像 素點,標記此點並將原影中此點設為 0,並設此 點為遮罩中心。

(2) 依據圖 2.4(a)所示的區域標定遮罩,照數字順序 搜尋遮罩中心座標鄰邊為 1 的像素點,找到後刪 除此點並將此點座標設為新遮罩中心,如遇鄰邊 都為 0 時回到上一個中心點,重復(2)之動作直至 所有紀錄過的中心點之鄰邊全為0 為止。

(3)

(3) 當所搜尋之鄰邊全為 0 代表一個區塊已經紀錄完 成,將上述所紀錄下的像素設為同一區塊並標定 其區域。

(4) 重覆(1)之動作並紀錄為新區塊,直至整張影像無 像素點為止。

(a) 區域標定遮罩 (b) 區域標定處理順序 圖2.4 連接元區域標定

圖 2.4(b)所示為連接元區域標定的處理順序,可 發現在同一區塊內所有點都可以標記到;圖 2.5 為連 接元區域標定結果,成功將兩個手勢區塊分別標定出 來,之後便可以根據其範圍來做個別的手勢辨識處 理。

圖2.5 手掌之連接元區域標定結果 D. 手掌範圍定位

在本研究中使用水平投影來定位出所需的手勢部 分,透過對手臂影像做水平投影,可發現最小投影值 的位置會出現在手腕上下,利用此項關係便可將手臂 與手掌部分區分開來,但如果直接對全部手部影像做 投影,手指的投影值勢必遠小於手腕區域,所以必須 先找出最大水平投影之Y 軸位置,然後從最大水平投 影往下搜尋找出最小水平投影的區域。圖 2.6 為水平 投影處理結果以及搜尋區域示意圖,紅線代表最大水 平投影線,藍線代表最小水平投影線;圖 2.7(a)為最 大手部區塊的區域標定範圍,而圖 2.7(b)為手部處理 後之結果,可發現只框定出所需要的手勢範圍。

圖2.6 水平投影處理

(a)最大手部區域標定 (b)切割後區域標定範圍 圖2.7 手掌範圍定位結果

III. 手勢特徵標定

在手勢辨識最主要的步驟,是要找出判斷手勢的 主要特徵,其中包括指峰、軌跡、方向、輪廓及樣板 比對等等。圖 3.1 所示為手勢特徵標定之流程,首先 利用邊緣化之手勢影像計算出手掌重心座標,然後將 所有手勢邊緣點依序標上流水號,同時計算各手掌邊 緣點與重心之距離並紀錄之,接著計算手勢影像高度 與畫面高度之比,以此計算出指峰遮罩之縮放參數,

透過此遮罩來決定是否符合指峰之門檻值,最後將指 峰位置紀錄下來。

圖3.1 手掌特徵標定流程圖

重心為手掌形狀之特徵點,透過重心與邊緣距離 便可計算出手掌輪廓的鋒值特性。重心計算公式如下 所示:

N

i

x

X i

C N

1

)

1 (

(3-1)

N

i

y

Y i

C N

1

)

1 (

(3-2)

其中

C

x為重心的X 軸座標、

C

y為重心的Y 軸座標、

N 為手掌邊緣的總點數、X(i)為第 i 邊緣點的 X 軸座 標、Y(i)為第 i 邊緣點的 Y 軸座標。將手掌所有邊緣 點之 X 軸座標與 Y 軸座標各別相加除上邊緣總點 數,便可得到重心之座標位置,但經實驗發現計算出 來之座標有時會太靠近手指位置,容易造成各手指間 峰值的不平衡。

為使重心能盡量靠近手掌下方,本論文提出重心 座標修正方法,利用最小水平投影線,當此線切割手

(4)

部時會與手臂邊緣產生兩個交點,透過這兩點座標的 平均可以得到一手臂中心點,在正常手勢下此點通常 位於整個手勢的中線位置,所以我們將重心點與手臂 中心點作連線,透過在此連線上移動可以找到一個新 重心位置,此方法不僅可使手掌重心向下移動,也可 以修正因手勢影像左右不平衡而導致重心偏斜的情 形。圖 3.2 所示為手掌重心修正示意圖,本研究所取 的新重心為舊重心與手臂中心點連線中間點位置。

圖3.2 手掌重心修正示意圖

在指峰偵測過程中,首先必須取得手掌輪廓資 訊,此過程可先取出邊緣化手勢影像,接著透過圖 3.3 的邊緣紀錄遮罩依序掃描,便可將手掌邊緣點順 序記錄下來。

圖3.3 邊緣紀錄遮罩

標記順序與區域標定遮罩稍有不同,因邊緣為一 連續線段所以不需使用遞迴來處理。為使邊緣點可以 完整紀錄,必須先標記其垂直與水平方向像素,以避 免先標記斜角方向而導致掃描過程中斷。為得到手部 輪廓資訊,以下將說明邊緣紀錄處理步驟:

(1) 將邊緣化手勢影像與最小水平投影線之左側交點 定為起點。

(2) 透過圖 3.3 遮罩依數字順序進行掃描,找到為 1 的像素點。

(3) 設起點為編號 1 依序將尋找到的像素點標上流水 號。

(4) 計算此點與重心距離並按流水號紀錄結果。

(5) 刪除此點,將此點座標設為新遮罩中心。

(6) 重覆(2)~(5)步驟直至無任何為 1 之像素點為止。

當所有手勢邊緣都記錄完成後,便可獲得手勢輪 廓與重心點之距關係,其中距離差值的峰值便代表指 峰的候選。為從手勢邊緣點中標定出指峰,以下使用 一個一維的指峰判定遮罩來進行搜尋,如圖 3.4 所 示,其中 n 代表手勢邊緣標定之流水號、d[n]代表該 流水號像素與重心距離、h 代表遮罩縮放參數。

圖3.4 指峰判定遮罩

圖 3.4 的遮罩可以想像成一個覆蓋手指之指套,

如圖 3.5 所示,手勢會因距離鏡頭遠近而改變大小,

所以研究中將透過遮罩縮放參數 h,來調整指套大 小,決定縮放參數的公式如下:

34

手勢影像高度

h (3-3)

圖3.5 指峰遮罩示意圖

一般而言手指長度與手掌高度之比例介於二分之 一到三分之一間,所以為了避免遮罩超出手指長度,

實驗時取手勢影像三分之一高度為指套之最大搜尋距 離,也就是遮罩的縮放比例。在實驗中分別取最大搜 尋距離(4h)的四分之一與二分之一位置,為指峰判定 遮罩之第一搜尋距離(h)與第二搜尋距離(2h)。透過指 峰判斷遮罩,將流水號依序代入遮罩中心點 d[n]搜 尋,找到符合遮罩判定條件之像素點即判定為指峰,

(3-4)式為指峰遮罩判定條件。

指峰=((d[n]-2h)>d[n+4h]) & (d[n] >d[n+2h]) & (d[n] >d[n+h]) & ((d[n]-2h)>d[n-4h])

& (d[n] >d[n-2h]) & (d[n] >d[n-h]) (3-4) 在實驗中,手勢邊緣可能有指骨或其他原因之小 峰值出現,如手勢 0 之情況。為排除非指峰之峰值被 誤判,實驗在最大搜尋點加入-2h 之條件,以確保偵 測到之指峰點數值必須遠大於最大搜尋點之值。偵測 流水號中心點之前後三個搜尋距離之遮罩點,如果符 合(3-4)式條件,便記錄該點為指峰,該點後面二十個 流水號則不再予以記錄,以避免同一指峰重複標記。

IV. 手勢碼判定

將指峰標定完成後,便可依據各指峰間之距離及 角度差異,來判斷同指峰數之手勢字碼的歸屬。圖 4.1 為手勢碼判定流程圖,首先將搜尋到的指峰數量 做字碼判定區分,當指峰數目為 0、1、4、5 時,因 無其他同指峰數手勢存在,所以直接輸出數字碼;當 指峰數目為 2、3 時,各有三個不同手勢,所以要再 經過字碼判斷決定對應數字碼。本研究中字碼的顯示 分為兩個模式,當單手手勢時顯示數字字碼,而雙手 手勢時則顯示英文字母字碼,其中雙手手勢是透過兩 個數字字碼組合來顯示出對應之英文字碼。

(5)

圖4.1 手勢碼判定流程

手勢代表數字之方式在世界各地都不盡相同,而 在本研究中所使用的方式為一般台灣人較常用之數字 手勢,其優點是手勢意義之間具有連貫性,且指峰特 徵明顯。表 4.1 為各數字代表之手勢對照表,其中數 字手勢九,因小指較不容易彎曲,所以將手勢變更如 下表所示。

表4.1 數字手勢對照表

表 4.2 為雙手手勢時將數字轉換成英文字碼之對 照表,下表中的右及左行分別是代表畫面中右影像手 勢與左影像手勢。

表4.2 英文字碼轉換對照表

根據手勢碼定義,可以發現數字(2、6、7)同為兩 個指峰點,數字(3、8、9)同為三個指峰點,其餘指峰 數則各自只代表一個數字無須另加判斷。在同指峰數 字手勢判斷的部份,本研究利用手勢的指峰間距以及 指峰與重心夾角之關係,來決定出二指峰與三指峰之 手勢歸屬。圖 4.2 為手勢判斷條件示意圖,其中 d 代 表指峰間距,θ 代表指峰與重心之夾角,A 為指尖點 a 至新重心的距離,B 為指尖點 b 至新重心的距離。

圖4.2 手勢判斷條件示意圖

當手勢為兩個指峰點時,研究中使用指峰間距離 及重心之夾角來辨識 2、6、7 之手勢,其中因指峰間 距會隨手勢離鏡頭遠近而有所改變,所以必須再除上 最長指峰之距離,以取得固定比例值。經過實驗定出 三個手勢之範圍值如(4-1)及(4-2)式所示:



   

 6or7 otherwise

) 33

&

55 . 0 if(

S 2 D

(4-1)



  

 6 otherwise ) 53 if(

S 7

(4-2)

在上述兩式中指峰間距比例 D=d/max(A,B)。在 判斷流程中優先判斷手勢 2,如果條件不合則判斷手 勢 7,如都不符合則將手勢數字判定為 6。因手勢 2 之指峰間距與角度皆為三者中最小且差異大,所以優 先判斷,而7 與 6 之間因指峰間距相近所以進一步採 用角度判別。當手勢為三個指峰點時,本研究使用指 峰間距以及兩間距之和值與差值來辨識 3、8、9 之手 勢。經實驗定出三個手勢之範圍值如(4-3)及(4-4)式所 示:



  

 3or8 otherwise

) 2 . 1

&

1 . 0 if(

S 9 Da Ds (4-3)



 

 3 otherwise ) 51 . 0 if(

S 8 D (4-4)

在上述兩式中 D 為指峰間距比例,Da 代表兩指 峰間距之和值,Ds 代表兩指峰間距之差值。在判斷流 程中優先判斷手勢 9,如果條件不合則判斷手勢 8,

如都不符合則將手勢數字判定為 3。因手勢 9 之兩指 峰間距之和值與差值,遠大於與小於其他兩手勢,所 以優先判斷。因手勢 8 其中一間距較手勢 3 大,所以 透過此條件來做判別。

(6)

V. 實驗結果 A. 指峰偵測結果

在實驗中標出重心位置後,便可透過指峰偵測,

搜尋出為指峰之像素點,圖 5.1 中左圖為原始影像,

右圖為指峰點之標示情況,其中紅點代表指峰位置,

透過指峰偵測遮罩縮放,近距離或離鏡頭稍遠之手 勢,都可以成功標示指峰,在手勢 0 的情況雖然也有 峰值產生,但未超過指峰遮罩門檻,所以不會判定為 指峰點。

圖5.1 指峰偵測結果 B. 數字碼判別結果

圖5.2 數字碼判別結果

在數字手勢判別中,本實驗實際拍攝數字手勢來 進行辨識,內容包括靜止不動、左右橫移、左右傾

斜、前後移動等畫面,並紀錄下每個畫面之成功率。

圖 5.2 為數字手勢辨識之實驗結果,左圖為原始影 像,右圖為辨識影像,左上角為判定之數字。

本文以不同人之數字手勢辨識成功率統計表,其 中表 5.1 的實驗一為本文作者所使用的手勢,其各手 勢的手指張角較為一致,所以成功率較高,平均辨識 率在 97%以上,其他實驗因手勢各手指張角的差異不 同,所以在部份手勢中的成功率較低,但平均成功率 都在九成以上。

表5.1 手勢辨識成功率

手勢數字 統計張數 成功張數 失敗張數 辨識率 手勢1 100 98 2 98%

手勢2 100 100 0 100%

手勢3 100 95 5 95%

手勢4 100 100 0 100%

手勢5 100 97 3 97%

手勢6 100 94 6 94%

手勢7 100 98 2 98%

手勢8 100 98 2 98%

手勢9 100 94 6 94%

手勢0 100 97 3 97%

總和 1000 971 29 97.1%

C. 英文字碼判別結果

當影像畫面偵測到有兩個數字手勢存在時,便利 用表 4.2 轉換成英文字碼判斷,使數字手勢也可表示 出英文字碼。在本實驗中,採取鏡頭由下往上照的方 式,目地是排除因人臉入鏡而造成膚色重疊之情況。

圖 5.3 為英文字碼手勢之顯示結果,表 5.2 為英文字 碼手勢辨識成功率,因考慮到雙手入鏡移動空間不 足,實驗只紀錄手勢靜止與些微平移之情況,而辨識 率都在90%以上。

圖5.3 英文字碼顯示結果

(7)

表5.2 英文手勢辨識成功率

英文字碼 統計張數 成功張數 失敗張數 辨識率 A 100 100 0 100%

B 100 100 0 100%

C 100 93 7 93%

D 100 100 0 100%

E 100 88 12 88%

F 100 90 10 90%

G 100 100 0 100%

H 100 100 0 100%

I 100 98 2 98%

J 100 100 0 100%

K 100 100 0 100%

L 100 100 0 100%

M 100 100 0 100%

N 100 96 4 96%

O 100 92 8 92%

P 100 90 10 90%

Q 100 100 0 100%

R 100 100 0 100%

S 100 90 10 90%

T 100 100 0 100%

U 100 94 6 94%

V 100 100 0 100%

W 100 100 0 100%

X 100 100 0 100%

Y 100 97 3 97%

Z 100 96 4 96%

總和 2600 2564 76 98.6%

VI. 結論與未來展望

A. 結論

在本論文中提出一套數字手勢影像辨識系統,經 由攝影鏡頭擷取數字手勢影像,並成功辨識其手勢代 表之數字,再由雙手勢數字編碼成英文輸入模式,最 後透過數字輸入系統,模擬實際之數字影像手勢 輸入 之實用性。在過程中利用彩色影像處理技術,將膚色 區塊擷取出來,並經過型態學處理後,使用水平投影 決定手勢區塊標定範圍,再將手勢邊緣化並記錄其順 序,透過統計邊緣點標定出重心後,計算邊緣點與重 心之距離,接著利用指峰偵測遮罩搜尋邊緣點上之指 峰點,完成後根據指峰數目直接輸出數字,或是再經 過同指峰判定後輸出,最後得到之數字便可通過上述 幾種模式顯示完成。

最後在成果部份,在一般環境下正常檢測距離之 內,本論文之數字手勢辨識系統都有不錯的辨識率,

數字輸入系統方面也具有相當不錯的穩定度與實用 性。

B. 檢討與未來展望

目前本論文之實驗對於非正常模式,如:光源影 響、手勢不正確、非手部區塊侵入、手勢傾斜過大 等,幾種可能出現的情況下,容易產生誤判手勢,對 於同峰值手勢在上述情況,也容易因參數變動過大而 發生錯誤顯示。因此,如能改善基本影像處理之效 果,便可提升整體系統之穩健度;亦或是對於手勢之

判斷條件之改良,與特殊情況下手勢的修正或排除侵 入異物設定,可助於增加手勢判斷之準確性。

而在未來發展方面,除了手勢辨識穩健度之提 升,在數字輸入系統方面,可增加新手勢以提升輸入 模式之靈活度,以及加入較具方便性的功能,或是英 文模式的輸入設定,以提升手勢辨識系統之完整度與 實用性。

REFERENCES

[1] K. Grobel and M. Assan, “Isolated sign language recognition using hiddenMarkov models Systems,’’

Proceeding of the IEEE International Conference on Computational Cybernetics and Simulation, vol. 1, pp.

162-167, 1997.

[2] R. H. Liang and M. Ouhyoung, “A real-time continuous gesture recognition system for sign language,’’ Proceeding of the IEEE International Conference on Automatic Face and Gesture Recognition, vol. 3, pp. 558 –567, 1998.

[3] S. Wagne, B. Alefs and C. Picus, “Framework for a Portable Gesture Interface,” 7th International Conference on Automatic Face and Gesture Recognition, pp. 275 - 280, 2006

.

[4] E. J. Holden and R. Owens, “Recognizing Moving Hand Shapes,” in Proc.on 12th International Conference on Image Analysis and Processing, pp.14-19, 2003.

[5] Y. Sato, Y. Kobayashi and H. Koike, “Fast tracking of hands and fingertips in infrared images for augmented deskinterface,” Proc. of the 4th IEEE Int. Conf. on Automatic Faceand Gesture Recognition(FG 2000), pp.462-467, 2000.

[6] L. Bretzner, I. Laptev and T. Lindeberg,“Hand gesture recognition using multi-scale colour features ,hierarchical models and particle filtering,” Proc. of the5th IEEE Int.

Conf. on Automatic Face and GestureRecognition, pp.405- 410, May 2002.

[7] M. Hasanuzzaman, V. Ampornaramveth, T. Zhang, M.A.

Bhuiyan, Y. Shirai and H. Ueno, “Real-time Vision-based Gesture 59 Recognition for Human Robot Interaction,”

IEEE International Conference on Robotics and Biomimetics, pp. 413-418, 2004.

[8] B. W. Min and H. S. Yoon, “Hand gesture recognition using hidden Markov models Systems,” Proc. of IEEE Int.

Conf. on Computational Cybernetics and Simulation, vol.5,pp.4232–4235, 1997.

[9] X. Liu and K. Fujimura, “Hand gesture recognition using depth data,” inProc. 6th IEEE International Conference on Automatic Face and Gesture Recognition, pp. 529-534, 2004.

[10] 涂又仁,“利用人臉及手勢辨識之人機介面’’,碩士論

文,國立中正大學電機工程研究所,2007 年 7 月。

[11] 陳培森,“看護系統之監控與辨識功能建立’’,碩士論

文,國立中央大學電機工程研究所,2006 年 6 月。

[12] 陳治宇,“虛擬滑鼠:以視覺為基礎之手勢辨識’’,碩

士論文,國立中山大學資訊工程學系,2003 年 6 月。

[13] 魏育誠,“結合人臉與掌型特徵之身分確認的研究’’,

碩士論文,崑山科技大學電機工程系,2004 年 6 月。

[14] 蕭明城、周岱琳,“Visual C++6 完全攻略”,金禾資訊

股份有限公司,2004 年 3 月初版。

[15] 黃文吉,“C++ Builder 與影像處理”,儒林圖書公司,

2003 年 7 月一版二刷。

[16] M. Soriano, S. Huovinen, B. Martinkauppi and M.

Laaksonen, “Using the Skin Locus to Cope with Changing illumination Condition in Color-Based Face Tracking”, Proc. of IEEE Nordic Signal Processing Symposium, 2000, pp.383-386.

(8)

[17] S. Singh, D.S. Chauhan, M. Vatsa and R. Singh, “A Robust Skin Color Based FaceDetection Algorithm ,”

Tamkang Journal of Science and Engineering, pp. 227-234, 2003.

[18] C. Garcia and G. Tziritas, “Face detection using quantized skin color regions mergingand wavelet packet analysis,”

IEEE Transactions on Multimedia, pp. 264 - 277, 1999.

[19] R. Jain, R. Kasturi and B. G. Schunck, “Machine Vision, ” 1995, pp.35-36.

[20] R. C. Gonzalez and R. E. Woods, “Digital image processing, 2nd Edition, Prentice Hall, 2003.

[21] 連國珍,“數位影像處理”,儒林圖書有限公司,2007

9 月一版。

參考文獻

相關文件

In the research of face recognition, real-time face recognition set much more strict requirements on the recognition time, especially when the number of data in database increased

Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp... Annealed

F., “A neural network structure for vector quantizers”, IEEE International Sympoisum, Vol. et al., “Error surfaces for multi-layer perceptrons”, IEEE Transactions on

C., “Robust and Efficient Algorithm for Optical Flow Computation,” Proceeding of IEEE International Conference on Computer Vision, pp. “Determining Optical Flow.” Artificial

Muraoka, “A Real-time Beat Tracking System for Audio Signals,” in Proceedings of International Computer Music Conference, pp. Goto, “A Predominant-F0 Estimation Method for

[16] Goto, M., Muraoka, Y., “A real-time beat tracking system for audio signals,” In Proceedings of the International Computer Music Conference, Computer Music.. and Muraoka, Y.,

When? Where? What? A Real-Time System for Detecting and Tracking People.’’ Proc. International Conference on Face and Gesture Recognotion, April, pp. Pentland, “Pfinder:

[16] Goto, M., “A Robust Predominant-F0 Estimation Method for Real-time Detection of Melody and Bass Lines in CD Recordings,” Proceedings of the 2000 IEEE International Conference