• 沒有找到結果。

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

的速度,驗證受試者在剛玩完較有沉浸感之遊戲後,回到現實世界中解答益智遊 戲的時間長度,比起剛玩完較低沉浸感之遊戲之受試者來的更久,代表受試者進 入較高的沉浸感後,要花較多的時間才能讓注意力回到現實中的事務上。另外,

這也驗證了他們設計的問卷能夠有效的測出受試者的沉浸程度。我們研究的沉浸 感調查即是利用此研究設計的問卷進行測驗,以驗證我們的系統是否能達到預期 的目標。

2.6 小結

上述許多研究皆已經十分完善,並實作出容易使用的平台及語言可供效法,使互 動數位敘事的技術發展更加成熟。但大部分研究著重在虛擬角色動畫的擬真度,

或是利用高階語言來讓非程式設計師也能夠產生出自己的互動敘事劇本,僅有少 數關注依據故事體驗者輸入指令時的不同狀態,來讓 NPC 產生不同的互動反應,

以及在同一個動畫模組上透過速度及方向等細微的調整,產生出不同動畫呈現等 方面。因此我們的研究希望在這兩部分上有所突破,並結合互動及動畫雙方面的 成果,完成一套完整的互動敘事體驗情境,藉由穿戴式裝置的輸入以及 VR 眼鏡 的視覺呈現,希望能夠提升故事體驗者之沉浸感,讓故事體驗者覺得自身真正處 於該虛擬環境之中,並能用較為自然之方式互動。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

第 3 章 身體動作語言解析

大部分的遊戲,係利用選項或是特定按鍵做出特定行動之方式,來讓故事體驗者 參與故事的發展,較少有利用體感裝置進行互動敘事的應用,一方面可能是因為 體感偵測裝置的成本較高,另一方面當體驗者被要求做出指定動作以作為輸入時,

每個人的肢體模樣指定方式可能均不相同。因此我們的系統設計了幾種較容易完 成且辨識率高的動作,讓故事體驗者能利用這些動作去影響故事的發展。另外,

由於我們使用之裝置沒有震動回饋之功能,因此我們透過視覺上之動畫呈現或提 示、以及聽覺上之提示音播放做為回饋,讓故事體驗者明確知道自己是否有達成 特定動作的觸發條件。

圖 5 人體骨架圖 (截自 Unity)

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

本研究所開發之系統將人體骨架分為 56 個關節點。在圖 5 中,我們畫出了 人體中較大的 21 個節點,左右對稱部位將 Left 改為 Right,其餘名字相同。我 們將利用這些節點的動態即時資料,來判斷故事體驗者在體驗過程中,是否有滿 足特定動作的觸發。如第一章所述,為了讓體驗者表現出一些因為虛擬與現實環 境不同而難以表現的動作,我們將動作輸入分為「直接偵測輸入」與「指令輸入」

兩種模式,這些動作包含抓、揮手、走路、坐下、站起、校正等,本章中主要描 述我們的系統如何辨識出這些動作,而辨識成功後,在系統中如何運用將在第四 章節做進一步的介紹。

如前面所述,一個指定動作可能有著無數種的肢體模樣,要如何辨識肢體模 樣所代表的意義相當不容易。我們的系統基於經驗規則(rule-based)之方式,觀察 整理使用者在指定動作時,人體關節普遍會呈現怎麼樣的姿態,將該姿態的數個 關鍵節點設為比較的條件,在人體姿態達成指定條件時即觸發該指定動作。接下 來將詳細介紹我們判斷這些動作的方式。

(1) 抓:

圖 6 人體左手骨架圖 (截自 Unity)

(*可填入 Left 或 Right;@可填入 Index、Middle、Ring、Little) 任一項成立,即代表完成抓的動作

(2) 揮手:

「揮手」的動作可用來與其他 NPC 互動。揮手時,舉起手掌高過肩膀,並 左右揮動,R 關節點代表右邊的對應關節點,L 關節點代表左邊的對應關節點,

關節點.y 代表該關節點位置(position)的 y 座標值,關節點.x 代表該關節點位置 (position)的 x 座標值,position1代表用來記錄 position 值的變數,判斷條件為:

step 1. LHandt.y > LShouldert.y , position1 =LHandt

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

第 4 章 系統架構

為了驗證自然的體感輸入及動畫參數化的可行性,我們利用 Unity 遊戲引擎實作 一個演示情境,透過 Neuron Perception 的穿戴式動作捕捉系統當作自然化體感輸 入的偵測裝置,並搭配 HTC VIVE 眼鏡作為語音輸入及視覺方面的輸出。

相關文件