• 沒有找到結果。

泛用型動態虛擬實境操控與運動復健輔助系統研發---子計畫IV:動態VR運動復健輔助系統之人機溝通介面及使用者情緒瞭解(III)

N/A
N/A
Protected

Academic year: 2021

Share "泛用型動態虛擬實境操控與運動復健輔助系統研發---子計畫IV:動態VR運動復健輔助系統之人機溝通介面及使用者情緒瞭解(III)"

Copied!
9
0
0

加載中.... (立即查看全文)

全文

(1)

行政院國家科學委員會專題研究計畫 成果報告

子計畫四:動態 VR 運動復健輔助系統之人機溝通介面及使

用者情緒瞭解(III)

計畫類別: 整合型計畫 計畫編號: NSC92-2213-E-009-112- 執行期間: 92 年 08 月 01 日至 93 年 07 月 31 日 執行單位: 國立交通大學電機與控制工程學系 計畫主持人: 張志永 報告類型: 完整報告 處理方式: 本計畫可公開查詢

中 華 民 國 93 年 10 月 6 日

(2)

行政院國家科學委員會補助專題研究計畫成果報告

※※※※※※※※※※※※※※※※※※※※※※※※※

※ ※

※ 子計劃四: ※

※ 動態 VR 運動復健輔助系統之人機溝通介面及 ※

※ 使用者情緒瞭解(III) ※

※ ※

※ ※

※※※※※※※※※※※※※※※※※※※※※※※※

計畫類別:

個別型計畫

整合型計畫

計畫編號:NSC-92-2213-E-009-112

執行期間: 92 年 8 月 1 日至 93 年 7 月 31 日

計畫主持人:張志永

共同主持人:

本成果報告包括以下應繳交之附件:

□赴國外出差或研習心得報告一份

□赴大陸地區出差或研習心得報告一份

□出席國際學術會議心得報告及發表之論文各一份

□國際合作研究計畫國外研究報告書一份

執行單位:國立交通大學電機與控制工程學系

中 華 民 國 93 年 9 月 20 日

(3)

行政院國家科學委員會專題研究計畫第三年期末報告

總計畫: 泛用型動態虛擬實境操控與運動復健輔助系統研發

–子計畫四: 動態 VR 運動復健輔助系統之人機溝通介面

及使用者情緒瞭解(

III)

(Subproject IV) A Study of Real-Time Human Emotional Understanding

and its Mechanism for Intelligent Human-Computer Interface (III)

計畫編號 : NSC-92-2213-E-009-112

執行期限:92/08/01–93/07/31

主持人:張志永 交通大學電機與控制工程學系

一、 中文摘要

本子計畫藉電子攝影機隨時紀錄操控者臉 部,藉影像處理技術,偵測出操控者之情緒狀 態,並建立操控者與模擬器間的人性化溝通管 道,以將操控者的使用感受忠實的告知子計畫 一與二進行模擬器的控制變數轉換及後續階 層式控制法則之設計,本子計畫已發展出一套 即時之人情緒狀態判定系統藉線上拍攝操控 者臉部影像序列,由影像處理技術偵測出操控 者之臉部變化,進而推敲操控者快樂、生氣、 與中性情緒狀態,它的效果經過驗證可達 92 ﹪辨識率;另為更配合國人常有帶眼鏡之情 況,今年度特別處理人臉自動眼睛偵測及眼鏡 消除,加入已完成之人機系統中,可適合於有 或無帶眼鏡使用者。在人機系統溝通與與對映 方面,我們設計出一套感覺概念交流所須之對 映對映網路的裝置來進行,我們以 Kosko 之 模糊關聯網路 Fuzzy Associate Memory 設計 之,我們以適應性的局部訓練法則及口袋演算 法觀念,所設計的二階聯想記憶(Second-Order Associative Memory),具有最大吸引範圍。 關鍵詞:虛擬實境, 人臉表情情識, 序列人 臉影像處理,人性化溝通管道,抽象式觀念 表示法,聯想記憶,人臉眼鏡的自動去除

英文摘要

The purpose of this project is to construct a human-machine communication interface between the users and the simulators, which can transfer user’s feeling sense of to project 1, to transform the control variables for the project 2 control loop design of the simulator of Steward platform. In this way, the performance of the whole control loop and the method of adjusting parameters can be interacted with the user and the reality of the dynamics can be enhanced. Therefore, the project can be viewed as a higher-level feedback unit of the whole simulator system.

VR system can be more genuine if the truly sense of users can be communicated to the dynamic systems. This can be achieved by on-line monitoring the user’s facial emotion and transferring the user‘s feeling to the machine and updating the appropriate control parameters. The feeling of human being is an abstract 2

(4)

3 concept and there is no corresponding physical quantity, i.e.,

universe of discourse, for the membership function to define with. Research on how to extract the user facial emotion, represent the abstract concept and devise a method that can communicate with machine simulator constitutes the major concerns to be investigated in this project.

Keywords: Virtual Reality, Facial Emotion

Recognition, Facial Image Sequence Processing, Abstract Concept Representation, Associative Memory

二、 緣由與目的

動態模擬系統之動態感覺,決定了虛擬實 境之逼真程度,但如何表示動態模擬系統使用 者之感覺概念,並傳遞給行為轉換與控制模組 (子計畫一)及六軸運動平台、力回饋模組(子計 畫二、三)做適當的參數調整與控制,是本計畫 之重點。為了表示使用者的感覺概念,道,以 將操控者的使用感受忠實的告知子計畫一與二 進行模擬器的控制變數轉換及後續階層式控制 法則之設計,並藉此以改善整個控制迴路及調 整參數的方法,而提高了模擬器的真實性,本 計畫可視為整個模擬器系統的高階回授單元。 本計畫之兩個主要子題: 計畫將發展出一套即 時之人情緒與注意力狀態判定系統,及能與機 器系統做抽象式觀念感覺溝通與對映之方法, 下面是我們在這一年的計畫中,對以上兩方面 所法提出來實現方法的描述。

三、 研究方法與成果

(1) 人類表情與與注意力的辨識 (1a) 人類表情與情緒的辨識 人類表情與情緒的辨識此子系統第一部 份為臉部特徵的選取。臉部特徵的選取對於辨 識人臉和臉部表情是很重要的。人類臉部有些 明顯的特徵如眼睛、嘴巴、眉毛、臉部輪廓等 等[3-6]。在本計畫中,我們擷取眉毛、眼睛及 嘴巴作為主要的特徵。我們定義 30 個臉部特 徵點;來描述這三個臉部特徵的位置和形狀。 臉部快樂、生氣、與中性情緒狀態表情我們藉 由一放射狀函數基礎之神經網路辨識,它的效 果經過驗證可達 92﹪辨識率,此部份已在第 一年完成與報告。 (1b) 人類注意力的辨識 在人機系統溝通與與對映方面,我們正在 進行以觀察臉部影像序列,偵測使用者之感覺 與精神狀態[11-13],精神不濟或昏昏欲睡 時,機器會提出暫停機台操作之警告,以策安 全 。 我 們 以 眼 睛 縮 小 閉 合 時 間 比 例 (PERCLOS)及眨眼頻率 (Blink Duration) 兩 種特徵參數,偵測精神不濟或昏昏欲睡之程 度,我們再利用模糊積分(fuzzy integral)的概 念[10],發展出上述兩種證據跡象資訊整合的 技術,以增加偵測的可靠度。經測試偵測精神 不濟或昏昏欲睡之正確率可達 90%。 (2) 人機系統溝通與與對映法 人機系統溝通與與對映之法 Takagi 等人 係利用關聯網路 (Associate Memory; 簡稱 AM ) 設計之赫比式(Hebbian)學習方法來建 構之對映傳遞之關係[1,2],但 AM 之兩對映是 由(0,1)之串列對映至(0,1)之串列,與上述之 感覺對應,為 0〜1 間的任意實數對映,我們 以某一層的觀念節點的節點活性度值組表示 一個感覺概念,以機電整合受控體之物理量為 輸入層,感覺概念的溝通與學習可由函數大約 化之對映方法來執行感覺概念之交流,以使電

(5)

4 腦有感覺概念意識與溝通的能力,而對於觀念 節點溝通所需之函數大約化,我們設計出一套 對映網路的裝置來進行,亦即在受控機器中建 立並學習某一感覺概念交流所須之對映網 路。第一年我們以 Kosko 之模糊關聯網路

Fuzzy Associate Memory 設計,以二階非對稱 式 雙 向 聯 想 記 憶(Second-Order Asymmetric Bidirectional Associative Memory)實現;第二 年 我 們 以 傳 統 二 階 對 稱 式 雙 向 聯 想 記 憶 (Second-Order Bidirectional Associative Memory)實現,並訓練儲存圖樣能有最大的吸 引範圍,已經證明出我們所提出的局部訓練法 則效果優於其他主要的AM 的設計[7-9]。 (3) 戴眼鏡使用者自動眼睛偵測及眼鏡去除方 眼睛偵測[16-18]在各種應用上扮演一個很重 要的腳色,例如:人類臉部辨識[14,15]、眼睛 注視的方向、昏睡偵測和其他人類與電腦相互 關係的應用。雖然已經有很多方法提出來解決 這些偵測的問題,但似乎遺漏人們戴眼鏡的問 題。再加上東方人,尤其是華人,有很多戴眼 鏡者。因此處理戴眼鏡的問題[19-22]是相當迫 切且需要的。 在這些應用上,我們今年特別針對眼鏡對 精神不濟或昏睡偵測系統與臉部辨識系統所造 成的干擾問題來做處理。在昏睡偵測系統中, 我們利用影像處理的技術來測量眼睛的閉合並 且計算 PERCLOS 與眨眼頻率。然而當一個駕 駛員戴著眼鏡時,因為眼鏡鏡框與眼睛重疊, 造成系統無法正確的偵測到眼睛的位置。而且 戴眼鏡是最常阻礙到一個經由臉部辨識系統來 做個人識別的問題。我們所提出的自動眼鏡去 除方法有助於正確地偵測到眼睛的位置並且消 除這些的阻礙。以下為自動眼睛偵測及眼鏡去 除方法之說明。 (3a) 人類表情與情緒的辨識 在一張影像中搜尋人的位置是辨識所有人 類相關動作的第一個步驟。這裡我們是採取 Chai et al.[14]所提出的方法。此方法是有以下 四個步驟。 步驟A:顏色分割。 此步驟的目的是為了 將輸入影像的像素值分類成皮膚與非皮膚兩個 區域。在YCrCb 彩色空間中,我們定義且測試 出 分別為 Cr 和 Cb 所對應皮膚顏色的範圍。當(x,y)的 Cr 與 Cb 的 值 屬於 而 且 也 屬 於 的範圍,則分割結果O RCr= [133, 173] b r b RC = [77, 127] RC = [133, 173] RC = [77, 127] A等於1, 其他則等於0,其中 x = 0, … , M/2-1,y = 0, … , N/2-1 而 M 與 N 分別影像的高度都寬度。步驟 B:強度規則化。 此步驟的目的是為了考量在 步驟A 中所產生的雜訊干擾,這些雜訊可能因 為一些未偵測到的臉部特徵,像是眼睛、嘴巴, 而造成在臉部區域出現一些小的空洞,或是背 景中有著與皮膚顏色相同的物體所產生的雜 訊。因此我們利用形態學中的膨脹來填補臉部 的空洞,利用侵蝕去除背景中的物體所造成的 雜訊。步驟C:幾何修正。 此步驟的目的是利 用垂直與水平掃描來消除 OB(x, y)中零星分佈 的結構。步驟D:輪廓抽取。 最後一個步驟的 目的是為了從步驟C 中所得到的輸出圖,利用 步驟A 的邊緣資訊,將所偵測到臉部範圍還原 出來。 經過上述的四個步驟處理後,即可正確 且有效的將臉部的輪廓擷取出來。圖一為測試 某人臉部影像經過上述的四個步驟所得到的結 果。

(6)

5 (3b) 眼睛偵測與眼鏡去除 眼睛的偵測 在參考論文[19]中,其方法是找到一些介 於兩眼間的“between-eyes”而不是直接去偵測 眼睛的位置。在“between-eyes”左右兩側包含了 眼睛與眉毛,故此處是屬於比較黑暗的部分, 相反的在其上下兩側包含了額頭跟鼻樑,故此 處是屬於比較明亮的部分。此篇論文是利用一 個 circle-frequency filter 來找到“between-eyes” 的位置。 假設以(x, y)為圓心來作一個圓,其 圓上的素 稱為 circle-frequency-n filter 的輸出。根據傅立葉轉換的特性,可知當n = 2 時,會產生一個高值,稱為circle-frequency filter 或是 CF-filter。接著再利用以下的兩個條件, 來搜尋“between-eyes”的位置。 kFn k2 眼鏡的去除 眼鏡的鼻樑架是最常見的眼鏡特徵,藉由 “between-eyes ” 與 眼 睛 位 置 的 資 訊 來 找 到 “between-eyes”周圍的區域與兩眼中心的位 置,可以從邊界存在的範圍裡找到眼鏡的鼻樑 架。再利用梯度邊緣偵測的方法,我們可以在 每一點(x, y)求出梯度的大小與相位,若有一個 垂直方向的像素個數的數目超出一個固定的臨 界值,則可判定眼鏡存在。 如果眼鏡存在,我們必須去除眼鏡的干擾 進而找到眼睛的位置並量測眼睛的閉合狀況, 再來應用在昏睡偵測系統上。首先我們必須計 算出眼睛的範圍,這樣才能去除眼鏡所造成的 干擾。基於這樣的論點,我們將 HSI 與 RGB 彩 色 空 間 所 作 的 梯 度 邊 緣 偵 測 資 訊 以 及 在 YCrCb 彩色空間所偵測到非皮膚顏色的區域作 結合。我們再對戴眼鏡的邊緣圖作侵蝕的動 作,則此邊緣圖將會被分成很小的片段。之後 藉由計算每一個部分之間的標準誤差,選取最 小的標準誤差且是最大相連的部分,由此部分 即可輕易的將眼睛從眼鏡的輪廓中區分出來。 接下來,我們將眼睛部分的像素值以皮膚顏色 的像素值來取代。為了使還原的更自然,我們 利用modified fuzzy rule-base (MFRB) filter [23, 24] 將眼鏡的像素值作平滑的動作並且使其更 接近沒戴眼鏡的影像。圖二為測試某人臉部眼 鏡去除,經過與沒經過MFRB filter 步驟所得到 的影像比較結果;圖三為測試某人眼鏡去除, 影像經過上述的各個步驟所得到的結果,由圖 二、三的結果可看出所提出的眼鏡去除方法良 好,具體可行[25]。

四、 結論與討論

一理想的虛擬實境系統,應能隨時掌握操 控者的情況與感受,並能讓操控者與系統模擬 器做直覺性的溝通,而讓使用者有完全沈浸其 中的感受,因此研究發展任何虛擬實境技術 時,使用者與機器系統之間的互動與溝通為相 當重要的一環。本子計畫藉電子攝影機隨時紀 錄操控者臉部,藉影像處理技偵測出操控者之 情緒狀態,並建立操控者與模擬器間的人性化 溝通管道,以將操控者的使用感受忠實的告知 子計畫一與二進行模擬器的控制變數轉換及 後續階層式控制法則之設計,並藉此以改善整 個控制迴路及調整參數的方法,而提高了模擬 器的真實性,本計畫可視為整個模擬器系統的 高階回授單元。本子計畫已發展出一套即時之 人情緒狀態判定系統藉線上拍攝操控者臉部 影像序列,由影像處理技術偵測出操控者之臉 部變化,進而推敲操控者快樂、生氣、與中性 情緒狀態,它的效果經過驗證可達 92﹪辨識 率。另外,我們以眼睛縮小閉合時間及眨眼頻 率兩種特徵參數,偵測精神不濟或昏昏欲睡之 程度,本偵測系統提出非接觸式之使用者是否

(7)

6 昏睡及精神不濟的判定技術,可增加單一特徵 參數正確率 12%,整合正確率達 95%。在人機 系統溝通與與對映方面,我們以模糊 SOAM 設計,實現感覺概念交流所須之對映網路,模 擬證明我們所提出的局部訓練法則效果優於 其他主要的AM 設計。另為更配合國人常有帶 眼鏡之情況,今年度特別處理人臉自動眼睛偵 測及眼鏡消除,加入已完成之人機系統中,可 適合於有或無帶眼鏡使用者。

五、 參考文獻

[1] H. Ushida, and T. Yamaguchi, and T. Takagi, “Fuzzy associate memory based knowledge construction with a application to a human machine interface, ” IEEE Trans. Ind. Electron., vol. 46, pp. 851-860, 1999.

[2] T. Takagi, A. Imura, H. Ushida, and T. Yamaguchi, “Conceptual fuzzy sets as a meaning representation and their inductive construction, ” International Journal of

Intelligent Systems, vol. 10, pp. 929-945,

1995.

[3] P. Ekman, and W. V. Friesen, The Facial

Action Coding System, Consulting

Psychologist Press, San Francisco, CA,1978.

[4] H. Kobayashi, and F. Hara, “Analysis of the neural network recognition characteristics of six basic facial expressions,” in Proceedings of 3rd IEEE

Int. Workshop on Robot and Human Communication, Nagoya, Japan, pp.

222-227, 1994.

[5] M. A. Turk A. P. Pentland, “Eigenfaces

for recognition," Journal of Cognitive

Neuroscience, Vol. 3, No. 1, pp. 71-86,

1991.

[6] A. L. Yuille, P. W. Hallinan, and D. S. Cohen, “Feature extraction from faces using deformable templates,” International

Journal of Computer Vision, Vol. 8, No. 2,

pp. 99-111, 1992.

[7] T. Wang, X. Zhuang, and X. Xing,“Designing bidirectional associative memories with optimal stability,”IEEE Trans. on Syst. Man,

Cybern., vol. 24, pp. 778-790, May. 1994.

[8] C.-S. Leung, L.-W. Chan, and E. Lai, “ Stability and statistical properties of second order bidirectional associative memory,”IEEE Trans. on Neural Networks, vol. 8, pp. 267-277, Mar. 1997.

[9] H. Shi, Y. Zhao, and X. Zhuang,“A general model for bidirectional associative memories, ” IEEE Trans. on Syst. Man,

Cybern. B, vol. 28, pp. 511-519, Aug. 1998.

[10] S. B. Cho and J. H. Kim, “Combining multiple neural networks by fuzzy integral for robust classification, ” IEEE Trans. Syst.,

Man, Cybern. B, vol. 25, no. 1, pp 113-120,

1995.

[11] K. Ogawa and M. Shimotani,

“Drowsiness detection system,” Technical

Report of Mitshbish Electric, Mar. 1997.

[12] H. Sako and A. V. W. Smith, “Real-time facial expression recognition based on features’ positions and dimensions,” in

Proc. IEEE Int. Pattern Recognition Conf.,

1996.

[13] C. D. Wylie et al., “Commercial motor vehicle driver fatigue and alertness study,” Project Report (Report No.

(8)

7 FHWAMC-97-002), Washington, D. C: Federal Highway Administration Office of Motor Carriers, Oct. 1996.

[14] D. Chai and K. N. Ngan, “Face segmentation using skin-color map in videophone applications,” IEEE Trans.

Circuits Syst. Video Technol., vol. 9, pp.

551–564, 1999.

[15] R. L. Hsu, M. A. Mottaleb, and A. K. Jain, “Face detection in color images,” IEEE

Trans. Pattern Anal. Machine Intell., vol.

24, pp. 696–706, 2002.

[16] S. A. Sirohey and A. Rosenfeld, “Eye detection in a face image using linear and nonlinear filters,” Pattern Recognition, vol. 34, pp. 1367–1391, 2001.

[17] G. C. Feng and P. C. Yuen, “Multi-cues eye detection on gray intensity image,”

Pattern Recognition, vol. 34, pp.

1033–1046, 2001.

[18] R. Thilak Kumar, S. Kumar Raja, and A. G. Ramakrishnan, “Eye detection using color cues and projection functions,” in

Proc. IEEE Int. Conf. Image Processing,

2002, vol. 3, pp. 24–28.

[19] S. Kawato and J. Ohya, “ Two-step approach for real-time eye tracking with a new filtering technique,” in Proc. IEEE

Int. Conf. Syst., Man, Cybern., 2000, vol.

2, pp. 1366–1371.

[20] X. Jiang, M. Binkert, B. Achermann, and H. Bunke, “Towards detection of glasses in facial images,” in Proc. 14th Int. Conf.

Pattern Recognition, 1998, vol. 2, pp.

1071–1073.

[21] Z. Jing and R. Mariani, “Glasses detection and extraction by deformable contour,” in

Proc. 15th Int. Conf. Pattern Recognition,

2000, vol. 2, pp. 933–936.

[22] C. Wu, C. Liu, H. Y. Shum, Y. Q. Xu, and Z. Zhang, “Automatic eyeglasses removal from face images,” in Proc. 5th Asia Conf.

Computer Vision, 2002, pp. 23–25.

[23] J. Y. Chang and S. M. Lu, “Image blocking artifact suppression by the modified fuzzy rule-based filter,” in Proc.

IEEE Int. Conf. Syst., Man., Cybern.,

2003, vol. 1, pp. 486–491.

[24] K. Arakawa, “Fuzzy rule-based signal processing and its application to image restoration,” IEEE J. Select. Areas

Commun., vol. 12, pp. 1495-1502, Dec.

1994.

[25] S. W. Wang, “Automatic Eye Detection and Glasses Removal,” Master Thesis, Department of Electrical and Control Engineering, National Chiao Tung University, Taiwan, 2004.

(9)

(a) (b) (c)

(d) (e) (f)

圖一. Example of face segmentation algorithm. (a) Input image. (b) Result of Stage A. (c) Density map in Stage B. (d) Result of Stage B. (e) Result of Stage C. (f) Result of Stage D.

(a) (b)

圖二. Example which has removed glasses with and without MFRB filtering. (a) Without MFRB filtering. (b) With MFRB filtering.

8

(a) (b) (c)

(d) (e) (f)

圖三. Example of eye detection and glasses removal system. (a) Original image. (b) CF-filtered image of face region. (c) Detected eye region. (d) Glasses removal with MFRB filtered in gray level image. (e) Attaching the eye region to (a) in gray level. (f) The result of chromatic level.

參考文獻

相關文件

(七)出院後建議回診復健科,將提供心肺運動 測試,可以了解您的心肺功能程度與運動 安全性,並為您打造個別化的居家運動計 畫。 出院後建議每週運動至少

當系統的特徵根均有負實部時,系統是穩定的,在滿足穩定

專案導向應用程式開發 階梯程式編輯畫面 狀態的監視與控制 階梯程式助憶碼輔助顯示 階梯程式註解功能

(Inheritance) ;c.動態繫合(Dynamic binding) ;d.動態範圍(Dynamic scoping).

6.輔導 人力運 用情形 暨輔導 工作整 合發展.. 藉由三級個案統計分析,建 立「特殊需求學生情緒及行

就學與就業之職能 治療暨實習、職業 輔導評量學暨實 習、職業復健暨實 習、職能評估與職 業復健暨實習、職 業輔導評量專題研 究、職業輔導評量

個別動物輔助治療 (Individual Animal Assisted Therapy) 時數: 45 分鐘一節.. 與「狗」同行 - 犬隻輔助治療計劃

運用其他輔助材料 補充與主題相關的 資料/歷史背景/該 行業的性質/舊物的 象徵意義/小人物的