• 沒有找到結果。

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

第七章 結論與未來發展

7.1 結論

在本論文中,我們以互動數位電視平台SITV 為基礎,在該平台上增加了新的互動 數位電視功能:階層式二維節目推薦選單與多人使用情境之應用功能;並為了增加互動 數位電視的互動性與友善度,我們加入了具有行動力與表達力之智慧型3D 動畫角色,

希望能夠根據各種不同之使用情境自動規劃動作與使用者互動。

實驗部份,我們完成了三種互動數位電視介面之評估實驗。三種介面分別為:以對 話框做為互動介面之純文字介面、以對話框與無情緒之動畫角色為互動介面之一般型角 色介面、及以對話框與有情緒之動畫角色為互動介面之智慧型角色介面。我們進行了兩 次實驗,分析問卷與口頭訪談的結果後,我們認為純文字介面是使用者最容易接受的,

多數使用者認為未來之數位互動電視介面應為此介面;一般型角色介面是最差的、不適 合做為數位互動電視之介面;智慧型角色介面是最佳的,能有友善的與使用者互動。

7.2 未來發展

在互動數位電視功能方面,未來可以增加不同的偵測元件,例如以xbox kinect 做為 影像識別裝置,增加影像判別之準確率或是提供其他互動功能。在互動情情境方面,未 來可以增加動畫角色與電視內容之間之互動,加強動畫角色之擬人性,藉由偵測不同的 電視內容,提供資訊給動畫角色,讓動畫角色進行不同的表演,例如當電視內容是球賽

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

得分時,讓動畫角色表演歡呼的動作。在動畫角色方面,目前產生之動畫為程序式動畫,

關鍵格與內插為人工方式指定,未來或許可以由動作擷取的資料做為輔助、自動產生關 鍵格與內插之程序參數。此外,目前動作庫內可選擇之動作並不豐富,未來應增加運動 能力與表演能力項目之數量,提昇動畫角色之行動力與表達力,以充實互動效果。最後,

針對不同年齡層我們可以設計不同之智慧型角色,賦予不同屬性以滿足每個人對互動數 位電視之偏好。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

參考文獻

[1] K. Amaya, “Emotion from Motion,” in Proc. of the Conference on Graphics Interface, 1996.

[2] E. André and T. Rist, “Presenting through performing: on the use of multiple lifelike characters in knowledge-based presentation systems,” in Proc. of the 5th international

conference on Intelligent user interfaces, pp. 1-8, January 09-12, 2000.

[3] E. André, T. Rist and J. Müller, “Employing AI Methods to Control the Behavior of Animated Interface Agents,” Applied Artificial Intelligence, v. 13, pp. 415-448, 1999.

[4] Apple TV, http://www.apple.com/tw/appletv/what-is.html

[5] J. Bates, “The role of emotion in believable agents,” Communications of the ACM, v. 37 n.7, pp. 122-125, July 1994.

[6] BBC Red Button, http://www.bbc.co.uk/digital/tv/tv_interactive.shtml

[7] Y. Blanco-Fernandez, J.J. Pazos-Arias, A. Gil-Solla, M. Ramos-Cabrer, M. Lopez-Nores and B. Barragans-Martinez, ”AVATAR: Modeling Users by Dynamic Ontologies in a TV Recommender System based on Semantic Reasoning,” in Proc. of the 3rd

EuroITV Conference, 2005.

[8] E.M.A. Diederiks, “Buddies in a Box - Animated Characters in Consumer Electronics,”

in Proc. of the 8th International Conference on Intelligent User Interfaces, pp. 34-38, 2003.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

[9] J.B.D.S. Jr., R. Goularte, G.B. Faria and E.D.S. Moreira, ”Modeling of User Interaction in Context-Aware Interactive Television Application on Distributed,” in Proc. of

Workshop on Personalization in Future TV, 2001.

[10] J. Lee, J. Chai, P. S. A. Reitsma, J. K. Hodgins and N. S. Pollard, “Interactive Control of Avatars Animated with Human Motion Data,” in Proc. of the 29th Annual Conference on

Computer Graphics and Interactive Techniques, pp. 491-500, 2002.

[11] Y.-H. Lin, C.-Y. Liu, H.-W. Lee, S.-L. Huang, T.-Y. Li, ”Verification of Expressiveness of Procedural Parameters for Generating Emotional Motions,” in Proc. of the Eight

International Conference on Intelligent Virtual Agents, 2008.

[12] P.-Y. Liu, S.-W. Hsu, T.-Y. Li, H.-W. Lee, S.L. Huang, “An Experimental Platform for Smart Interactive TV in Digital Home,” in Proc. of 2007 Symposium on Digital Life and

Internet Technologies, Tainan, 2007.

[13] B. Ludwig, S. Mandl and S.V. Mammen, ”What’s on tonight - User-centered and Situation-aware Proposals for TV Programmes,” in Proc. of International Conference on

Intelligent User Interfaces, pp. 258-260, 2006.

[14] N. Magnenat-Thalmann and P. Kalra, “The Simulation of a Virtual TV Presenter,” in

Proc. of Pacific Graphics 95, World Scientific, Singapore, 1995.

[15] J. McCann and N. Pollard, “Responsive characters from motion fragments,” ACM

Transactions on Graphics (TOG), v. 26 n. 3, July 2007.

[16] MCE, http://www.microsoft.com/taiwan/windows/windows-media-center/

[17] H. K. M. Meeren, C. C. R. J. van Heijnsbergen, and B. de Gelder, “Rapid Perceptual Integration of Facial Expression and Emotional Body Language,” in Proc. of the

National Academy of Sciences, 2005.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

[18] C. de Melo, J. Gratch. “Expression of Emotions using Wrinkles, Blushing, Sweating and Tears,” 9th International Conference on Intelligent Virtual Agents, Amsterdam, 2009.

[19] C. de Melo, L. Zheng, J. Gratch. “Expression of Moral Emotions in Cooperating Agents,”

in Proc. of 9th International Conference on Intelligent Virtual Agents, Amsterdam, 2009.

[20] MythTV, http://www.mythtv.org/.

[21] A. Nijholt, “Where computers disappear, virtual humans appear,” in Proc. of Computers

and Graphics, 2004.

[22] T. Noma, L. Zhao, N. I. Badler, “Design of a Virtual Human Presenter, ” IEEE Computer

Graphics and Applications, v. 20, n. 4, pp. 79-85, July/Aug 2000.

[23] K. Perlin, F. Neyret, “Flow Noise,” SIGGRAPH Technical Sketches and Applications, August 2001.

[24] H. Prendinger, C. Ma, M. Ishizuka, “Eye movements as indices for the utility of life-like interface agents: A pilot study,” Interacting with Computers, v.19 n.2, pp.281-292, March, 2007.

[25] F. Seron, S. Baldassarri and E. Cerezo, “Maxineppt: using 3D virtual characters for natural interaction,” in Proc. of the 2nd international workshop on ubiquitous computing

& ambient intelligence, 2006.

[26] M.V. Setten and M. Veenstra, “Prediction Strategies in a TV Recommender System - Method and Experiments,” in Proc. of IADIS WWW/Internet 2003 Conference, 2003.

[27] H. Si, Y. Kawahara, H. and T. Aoyama, ”A Stochastic Approach for Creating Context-Aware Services based on Context Histories in Smart Home,” in Proc. of the 1st

International Workshop on Exploiting Context Histories in Smart Environment, 2005.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

[28] TiVo, http://www.tgc-taiwan.com.tw/.

[29] Tukey’s range test, http://en.wikipedia.org/wiki/Tukey's_range_test

[30] M. Unuma, K. Anjyo and R. Takeuchi, “Fourier Principles for Emotion-based Human Figure Animation,” in Proc. of SIGGRAPH ‘95, 1995.

[31] J. Zimmerman and K. Kurapati, “Exposing Profiles to Build Trust in a Recommender,”

in Proc. of Conference on Human Factors in Computing Systems, pp. 608-609, 2002.

[32] 中華電信 MOD, http://mod.cht.com.tw/MOD/Web/index.php.

[33] 張鈺潔,李宏偉,黃淑麗,李蔡彥, "由概念類別與記憶效果探討二維電子選單之設計與 評估," 台灣心理學會第

49

屆年會, 2010.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

附錄 A:實驗一指導語

實驗中,請點擊畫面下方的「播放」鈕來播放長約3 分鐘的影片(見左上角圖一)。

影片分為兩階段,第一階段呈現使用者的情境及三種介面;第二階段將再次播放三種介 面,並在每種介面播放完畢後呈現5 個問題,回答完三種介面各 5 個問題後,即完成一 種情境的實驗。完成三種情境的實驗後,即結束實驗。

問卷評量介面如右上角圖二,評分卷軸上「0 代表傳統電視介面」,請在評分卷 軸上壓住滑鼠左鍵並拖曳至理想位置來進行評分。越高分代表表現越好,越低分則代表 表現越差。

簡言之,本實驗共含三種情境,每一情境皆呈現三種不同的介面,觀看完每一 種介面後需回答5 個題目。謝謝您的參與!

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

附錄 B:實驗二指導語

非常感謝您參與本實驗,實驗包括三階段,每個階段會呈現不同介面,並且請您完 成觀看電視的情境,主試者會告訴您電視的新功能如何使用,請依照主試者的指示,依 序完成列表中的情境(見左上角圖一)。每個階段結束後,需要您填寫問卷,完成三個階 段後,即結束實驗。

問卷評量介面如右上角圖二,評分卷軸上「0」代表新介面與傳統電視介面有 相同的表現,請在評分卷軸上壓住滑鼠左鍵並拖曳至理想位置來進行評分。越高分代表 表現越好,越低分則代表表現越差。

簡言之,本實驗共含三階段,每階段須完成列表中的情境,並回答問卷。謝謝 您的參與!

相關文件