• 沒有找到結果。

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

第 6 章 結論與未來發展

6.1 研究結論

我們完成了一套 3D 互動敘事結合穿戴式裝置的系統,使用者透過穿戴式裝置當 作輸入的媒介,系統偵測到使用者輸入的體感資料後,判斷使用者目前是呈現什 麼樣的動作,不同的動作會讓非玩家虛擬角色或是遊戲中可互動的物品有不同的 動畫回饋,並根據互動的過程,系統自動將劇情導向不同的分支,讓使用者不僅 是故事的旁觀者,而是能實際體驗並影響故事的劇情的參與者。系統設計的部分,

我們透過將動畫參數化的方式,讓互動動畫的回應能夠利用 XML 語言撰寫到外 部的腳本上,並在系統運行時才讀取腳本內容,讓動畫的呈現在不更動程式內部 的狀態下,也能夠有一定的更改彈性,讓作者能更方便快速的調整劇情發展或分 支。最後透過問卷與訪談的驗證,證實了我們設計的互動方式是直覺且順暢的,

且系統呈現出的動畫回饋與故事劇情是有趣的,讓使用者有意願重覆去體驗不一 樣的劇情分支。

6.2 未來目標

在問卷調查時有提到,大多數受試者會希望能夠跟場景中出現的其他 NPC 有所 互動,讓劇情更加豐富,但是因為台詞跟語音的部分都是事先錄製好的,並沒有 辦法根據劇情發展自動產生,且動作排程的機制是結束互動事件後,NPC 會回

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

到原始的故事主線,並沒有記錄玩家的介入是否會影響主線劇情的變化。因此未 來如果可以加入即時語音合成的功能,以及在互動事件結束後判斷是否要回到原 本的動畫劇情,也許就能更完善的根據劇情發展及 NPC 的情緒不同,給予使用 者不同的劇情呈現,增加系統的重玩價值。

而穿戴式裝置輸入的部分,因為目前裝置的感測器是用鬆緊帶綁在使用者身 體的各個肢體部位上,當使用時間較長時,就容易發生感測器位置偏移導致判斷 動作錯誤的問題,因此未來如果能夠加強鬆緊帶的緊度,或是利用類似透氣膠帶 的物品讓感測器更穩固的保持在定點上的話,就能夠讓體驗的過程更加的順暢,

也減少因為肢體扭曲導致沉浸感下降的問題。

目前因為系統在開發階段,因此遊戲的劇情及台詞皆為程式人員自行構思,

並利用線上語音合成系統事先合成並錄製的,如果未來有機會和專業的作者及配 音員配合的話,也許能夠進一步增加故事的深度與體驗時的沉浸感。

[1] F. Kistler, D. Sollfrank, N. Bee, E. André, "Full Body Gestures enhancing a Game Book for Interactive Story Telling," in International Conference on Interactive Digital Storytelling, 2011, pp.207-218.

[2] C. Mousas, C.-N. Anagnostopoulos, "Performance-Driven Hybrid Full-Body Character Control for Navigation and Interaction in Virtual Environments," 3D Research, 8(2), Article No. 124, 2017.

[3] H. Rhodin, J. Tompkin, K. I. Kim, E. de Aguiar, H. Pfister, H.-P. Seidel, C.

Theobalt, "Generalizing Wave Gestures from Sparse Examples for Real-time Character Control," in Proceedings of ACM SIGGRAPH Asia 2015, 34(6), Article No. 181, 2015.

[4] D. Thalmann, "Motion Modeling: Can We Get Rid of Motion Capture?," in In-ternational Workshop on Motion in Games, 2008, pp.121-131.

[5] S. Tonneau, R. A. Al-Ashqar, J. Pettré,. T. Komura, N. Mansard, "Character contact re-positioning under large environment deformation," in Proceedings of the 37th Annual Conference of the European Association for Computer Graphics, 2016, pp127-138.

[6] A. Shoulson, N. Marshak, M. Kapadia, N. I. Badler, "Adapt: the agent

developmentand prototyping testbed," IEEE Transactions on Visualization and Computer Graphics 20.7 , 2014, pp.1035-1047.

[7] M. Kapadia, X. Xu, M. Nitti, M. Kallmann, S. Coros, RW. Sumner, MH. Gross,

"PRECISION: Precomputing Environment Semantics for Contact-Rich

Character Animation," in Proceedings of the 20th ACM SIGGRAPH Symposium on Interactive 3D Graphics and Games, 2016, pp.29-37.

[8] C. Mousas, "Towards Developing an Easy-To-Use Scripting Environment for Animating Virtual Characters," arXiv preprint arXiv:1702.03246, 2017.

[9] 楊奇珍, "以體感方式參與敘事的 3D 互動敘事系統," 國立政治大學資訊科學 系碩士論文, 2015.

[10] M. Kipp, A. Heloir, M. Schroder, P. Gebhard, "Realizing Multimodal Behavior,"

in International Conference on Intelligent Virtual Agents, 2010, pp.57-63.

[11] J. Funge, X. Tu, D. Terzopoulos, "Cognitive modeling: knowledge, reasoning and planning for intelligent characters," in Computer graphics and interactive techniques, 1999, pp.29-38.

[12] 梁芳綺, "互動敘事中智慧型共同創作平台設計," 國立政治大學資訊科學系 碩士論文, 2015.

[13] 蘇雅雯, "互動敘事中具沉浸感之互動動畫產生研究," 國立政治大學資訊科

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

學系碩士論文, 2017.

[14] E. Brown, P. Cairns, " A grounded investigation of game immersion," in Extend-ed Abstracts on Human Factors in Computing Systems, 2004, pp.1297-1300.

[15] C. Jennett, A. L. Cox , P. Cairns, S. Dhoparee, A. Epps, T. Tijs, and A. Walton,

"Measuring and defining the experience of immersion in games," International Journal of Human-Computer Studies, 66(9):641-661, 2008.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

相關文件