針對新聞影音資料之有效摘要工具

Download (0)

全文

(1)論文題目: 針對新聞影音資料之有效摘要工具 An Effective Summarization Tool for News Videos 作者一: 方子維 服務單位: 台大通訊與多媒體實驗室. 作者二: 郭晉豪 服務單位:台大通訊與多媒體實驗室. E-mail:ian@cmlab.csie.ntu.edu.tw 作者三: 吳家麟 服務單位: 台灣大學資訊工程學系. E-mail:david@cmlab.csie.ntu.edu.tw. E-mail: wjl@csie.ntu.edu.tw. 摘要. 來說,了解與歸納並不容易,因此最簡單的方 式是---取出原有資料所包含最重要意義的一. 在本篇論文中,我們提出一個以重要性. 部份,藉以表達全部資料的摘要。 而影音摘要. 標示為基礎的影音摘要架構。 在這個架構之. 顧名思義就是要從一段影音資料中,取出一部. 下,我們可以從一段數位多媒體影音當中,淬. 份重要的影音,藉以在較短時間及較少資料量. 取出一些有意義的資訊,並藉由這些資訊標示. 的情況下,完整表達出整段影音原始意義的技. 出該段影音對於人類視覺的重要性。 利用這. 術。. 些標示出來的重要性,我們就可以依據使用環. 1.2 研究動機. 境/需求/頻寬等因素,在任何時間長度的設定 條件下,對該段影音做出有效的摘要。. 隨著多媒體的數位時代來臨,傳統管理. 我們相信這個以影音重要性標示為基礎. 媒體資料的方式已不再有效。 於是,以數位內. 的架構,可以應用於任何類型的影音資料上。. 容管理為主題的多媒體國際標準 MPEG-7,在. 在這個數位多媒體逐漸蔓延的時代,對影音做. 這幾年逐漸風起雲湧,成為非常重要的研究課. 出摘要已經變得越來越重要。 除了應用於搜. 題,而其管理目的就在於讓人纇能夠更有效率. 尋多媒體資料外, 影音摘要對於數位電視及. 地使用多媒體資料。 但是,影音資料包含了非. 窄頻多媒體相關應用,亦存在著相當大的助. 常多的冗餘資料,以至人類必須花費極高的時. 益。. 間與代價來了解,因此,唯有將壓縮過後的影 音資料直接呈現給使用者觀賞,方能有助於人. 關鍵詞: 摘要 / 新聞 / 重要性 / 標示. 類有效率的了解該影音。 不過,這裡所謂的壓 縮技術,並非傳統的編碼壓縮技術, 而是前面. 第一章 簡介. 提到過的影音摘要。 傳統編碼壓縮技術產生 的資料,並不是人類所能夠理解的訊號。 唯有. 1.1 什麼是影音摘要. 透過相關於人類語意(Semantic)的影音壓縮技. 所謂的摘要就是針對一些資料,將其中. 術,方能有助於人類的理解與吸收。 一旦語意. 所包含的意義,以簡短的方式呈現出來,而又. 相關的壓縮技術能夠成熟, 影音就可以依照. 不失去其完整的意義,稱之為摘要。對於電腦. 人類使用環境/需求/頻寬等因素,在任何時間 1.

(2) 長度的設定條件下做出有效的摘要。 如此,. 重要的場景單元予以呈現,而忽略其他不重要. 人類的時間得以節省,頻寬的限制得以消除,. 的場景單元片段。. 人類知識傳播的效率與速度將更加的無遠弗. 在 1999 年, FX Palo Alto 實驗室發表了. 屆。. 文獻[10],其中,定義了一個非常重要的場景. 1.3 章節說明. 重要性計算方程式,這個方程式至今仍被廣泛 應用:. 在接下來的章節中,我們首先在第二章 中介紹近十年間,有關摘要相關技術的研究情. I j = L j log. 況;在第三章中,介紹我們所提出來的影音摘 要架構;實作新聞影音摘要系統則在第四章中. 1 (1) Wk. 式中,Ij 表示第j個場景的重要性;Lj 表示第j的. 介紹;實驗的經驗與結果呈現在第五章;而第. 場景的長度;而第j個場景屬於第k個分類,Wk. 六章則說明了我們的結論與未來努力的方向。. 表示權重。 權重的公式如下:. Wk =. 第二章 相關研究 2.1 關鍵視訊頁(Key-Frame)的選擇. Sk. (2). C. ∑S i =1. i. 式中,C表示分類的總數;Sk表示所有屬於第k. 理論上,構成同一個場景的所有視訊頁, 因所處的場景相同,具有非常相似的特質,所. 個分類的場景長度總和。. 以,人們可以利用其中最具代表性的一個視訊. 簡言之,[10]的方程式可選出兩類場景:. 頁,相當程度表達出整個場景視訊的意義。 這. 一.長度長的場景;二.稀有的場景。 這個計算. 個最具代表性的視訊頁,被稱之為關鍵視訊頁. 公式之所以重要,在於它精確的捕捉到視訊摘. (Key-Frame)。. 要的兩個重要想法:. 在早期的相關文獻[2][7]中,關鍵視訊. 1.當人們願意在某個場景花更多的時間來描. 頁的選擇多半以條列式的規則為基礎. 述,意味著這個場景的重要性越高。 (I 與 L. (rule-based)。 條列式的規則由於過於死板缺. 成正比。). 乏彈性,顯然並無法完全適用於比較多樣性的 視訊中。 因此,另一類以分類技術為基礎的方. 2.視訊摘要必須避免重複性的場景不斷出現,. 式[4][5][1][14]被發展出來。 但是,分類技. 以降低冗餘資料的量,因此,人們傾向選擇. 術在處理上必須計算所有視訊頁兩兩之間的. 與 其 他 相 似 度 低 的 場 景 來 顯 示 。 (I. 差值,所以,計算複雜度明顯會提高很多。. 與 –log(Wk)成正比。). 2.2 關鍵場景(Key-Shot)的選擇. 由上述兩點可知,這個方程式已經與低 階視訊特徵完全無關,而是試圖去捕捉人類對. 當人們意圖對視訊做摘要,且期望最後. 視覺重要性的認知,進入了語意層級(Semantic. 的結果能夠以視訊的方式呈現時,第一個步驟. Level)的領域。. 就是關鍵場景的選擇。 因為,摘要視訊呈現的. 2.3 影音摘要. 時間遠遠低於原始視訊,而視訊又具有不易加 速的特質,所以,唯一的方式就是找出關鍵而. 摘要工作是人類淬取資料,以加速了解 2.

(3) 資 料 的 重 要 過 程 。 在 1995 年 , Carnegie. 所有視訊頁及場景,依照分析的結果,分別給. Mellon University (CMU)發表了一個真正的影. 予一個重要性標示(Importance Measurement)。. 音摘要系統 InfoMedia ,從此引爆了影音摘要. 在本章的各節中,我們將先描述整個架構,然. 技術的相關研究。 在 1998 至 1999 年間,影音. 後再分別描述視訊頁及場景重要性標示的方. 摘要進入另一個階段, FX Palo Alto 實驗室在. 法。. [10]中,定義了 2.2 節中描述的場景重要性計. 3.1 主架構. 算方程式,並以此選擇重要的場景作為摘要。 自此,影音摘要逐步擺脫低階影音特徵的摘要,. 對影音資料而言,摘要的第一個步驟是. 進入了語意層級(Semantic Level)的摘要。. 先將視訊及音訊串流分離,以便之後分別進行 重要性分析。 假使,視訊與音訊資料具有同步. 2002 年, Hari Sundaram 在其博士論文[8]. 的關係,則影音之間的相關性必須予以考慮. 中,將影音資料的語意辨識技術可概略分為兩. (如圖 3-1 所示)。. 大類: 1.由下而上: 以低階影音特徵的組合,找出語 意層級的資訊。 2.由上而下: 藉由對於語意層級的了解,反向 尋找哪些特徵表達了這些資訊。. 圖 3-1 影音摘要的主架構. 由下而上語意辨識技術的問題在於不容 易找到足夠的特徵以完整表達出單一語意。. 以影音摘要而言,圖 3-1 中最重要的步. 而由上而下的語意辨識技術,則存在著語意項. 驟是視訊重要性分析及音訊重要性分析兩大. 目太多,而無法一一找到對應辨識模型的困. 模組。 其中,視訊重要性分析的目標是產生關. 擾。 顯然,不論是由下而上或由上而下的語意. 鍵視訊頁及視訊摘要;而音訊重要性分析的目. 辨識,現階段均不容易完整找出所有語意。 因. 標則是產生關鍵句子及音訊摘要。 最後,再利. 此,唯有切割出一小部分現階段真正需要的語. 用多工器將前述的視訊摘要及音訊摘要合併,. 意加以辨識,才是解決之道。. 即可產生影音摘要。. 3.2 以視訊頁為基礎的重要性標示及 關鍵視訊頁的選擇. 基於上述理由,本篇論文利用由上而下 的方法,試圖藉由對於“重要"這個語意的了 解,進行影音摘要。 在稍後的第三章,會有更. 由於採用由上而下的方式對“重要"語. 詳盡的說明。. 意進行詮釋,所以首要步驟就是將“重要"語 意予以具象化,這個具象化動作的優劣,會直 接影響之後重要性標示結果的成功與否至關. 第三章 摘要架構. 重要。. 本論文目標是利用由上而下的方式,以. 所謂具象化就是將語意層次的概念,直. 對於“重要"語意的了解,分析影音中各個視. 接映射於實際的事件上,讓這些事件的發生與. 訊頁及場景的重要性,並藉由這些資訊做為影. 語意概念產生直接的聯繫。 一般來說,具象化. 音摘要的基礎。 因此,最重要的步驟就是對於. 過程所採用的事件,與欲進行摘要的影音特質 3.

(4) 有關(Domain-Dependence)。 對未分類影音具 象化的最簡單方法,就是直接去追蹤在影音製 作過程中,相關人物對於該影音所表達出來的 重要性意念。 由於這些意念是由影音製作的 參與者直接抒發出來,因此對於“重要"語意 的詮釋也就相當完美。(在稍後第四章中,將對 具象化的細節進行說明。). 圖 3-2 突發事件的重要性標示. 一般來說,語意經過具象化後產生的事. 所謂的轉換過程使用的是一個 Mask 函. 件可分成兩大類:. 數:. 1.連續事件(Continue Event): 表示可以在一. M = exp(. 段時間內,連續多個視訊頁中被檢測到的事 件。 例如: 人臉事件。. − ∆t 2 ) (3) 2σ. 由上式可知,經由上述 Mask 函數的處理,重要. 2.突發事件(Instant Event): 表示該事件只能. 性標示的值將會隨著距離事件發生時間點越. 夠在某瞬間被人類檢測到,或是人類對於該. 遠,而以指數函數的型態衰減,而衰減的速率. 事件只有指定某瞬間重要性的能力。 例如:. 則由σ值決定:. 鎂光燈事件。. σ =. 其中,突發事件是相當弔詭的。 照理來 說,在同一個場景中,事件應該是連續的,而不. Const. (4) Dyn. 式中,Const.為常數,Dyn 則表示鏡頭移動的快. 應該有突發的情況發生,之所以產生突發的情. 慢。 在本論文中,同一場景使用一個固定的. 況,並不是因為事件本身的特質如此,而導因. Dyn 值 , 而 該 Dyn 則 由 視 訊 頁 間 的. 於人類對於影片中事件檢測能力不足所致。. GMV(Global Motion Vector)決定: 以前面提到的鎂光燈事件為例,人類可. Dyn = ∑. 以輕易檢測到鎂光燈閃爍,因而判定某一個視 訊頁出現了鎂光燈事件,並藉以對該視訊頁指. 1 Zoom 2 Tx 2 + Ty 2 + ( ) (5) Const. N. 定一個重要性標示。 但是,由於事件應該連續. 上 式 中 ,(Tx,Ty,Zoom) 表 示 Zoom Model 的. 發生,因此,對於該場景中的每一個視訊頁,我. GMV 參數,而 N 則表示場景中的視訊頁個數。. 們應該給予如圖 3-2b 的重要性標示,而非圖. 有了以上對連續及突發事件本質的了解. 3-2a 所顯示者。 也就是說,當檢測到突發事. 後,我們就可以對視訊頁的重要性標示進行定. 件後,必須先經過一個模擬的程序,將圖 3-2a. 義:. 轉換為 3-2b,才能夠充分表達出事件在該場景. FI = wc FI c + (1 − wc ) FI i (6). 中的重要性標示。. 式中,FIc 及FIi 分別表示對於某個視訊頁連續 及突發事件所計算出來的重要性標示,wc 及 (1-wc)則表示權重。 而FIc及FIi由則下式分別 定義:. 4.

(5) FI c = L * ∑ C i (7). 鍵視訊頁。. i. 3.3 以場景變換為基礎的重要性標示 及摘要視訊的產生. 對某個視訊頁而言,上式中的Ci分別表示對於 連續事件i的重要性標示值;至於L則表示該視. 在第二章曾經介紹過,[10]發表了一個. 訊頁所在場景的時間長度,這個值是為了定義. 非常重要的場景重要性定義公式:. 場景重要性標示而設的,在下一節中將再次提 及。. I j = L j log. 1 (9) Wk. ⎛ ⎞ − (t − t cur ) 2 FI i = ∑ ⎜⎜ ∑ b j L j I j ⎟⎟ * exp( ) 2σ t ⎝ j ⎠. 合,因此本篇論文決定以上述公式為基礎,做. (8). 一個細部的修正。 而在 3.2 節中,我們已經對. 因為這個公式與語意層級的概念十分吻. 於各個場景中視訊頁定義了重要性標示,因此,. 上式中,tcur 表示目前正在計算重要性標示值. 上述公式可以被演化如下:. 的視訊頁在時間軸上的時間;t則表示其他在 同一場景中各視訊頁在時間軸上的時間。 bj. SI = FI * log(. 是布林函數,分別表示突發事件j是否發生;而 Ij則表示我們賦予各個突發事件的重要性標示. 1 ) (10) Wk. 上式中,SI為場景的重要性標示值;FI為該場. 值;至於Lj 則表示時間長度,這個值同樣是為. 景的關鍵視訊頁所擁有的FI值;而Wk則保持原. 了定義場景重要性標示而設的,在下一節中將. 來的定義(權重)。 比較值得注意的是---為了. 詳細描述。. 保留原公式的意義,時間長度的資訊被隱含在. 綜合上述對兩類事件的相關定義,在同. FI當中,這也就是在 3.2 節中,FIc及FIi公式中. 一場景中所檢測出來的事件,將會被轉化為對. 必須包含時間長度(L)的理由。. 每一個視訊頁的重要性標示,流程如圖 3-3 所. 經由上述公式的計算,場景重要性標示. 示。. 值 SI 被標示完成後,即可由重要性最高的場 景開始選擇,直到時間限制(Time Constraint) 到達為止,再將選出來的所有場景合併,可得 最終的視訊摘要。 當然,在選擇的過程中,必 須考慮到視訊的可壓縮性/影音之間的關係及 摘要的時間限制,不過由於這三項特性與影音 的 型 態 有關 (Domain-Dependence),故在第四 章中一併做說明。. 第四章 新聞影音摘要之實作. 圖 3-3 視訊頁重要性標示處理流程. 4.1 新聞的“重要"語意具象表徵. 最後,在每個場景當中,重要性標示值 FI 最大的一個視訊頁,即被選擇成為該場景的關. 欲具象化新聞影片的“重要"語意,下 5.

(6) 列四類人物對於“重要"的表達方式,必須予. 的音訊摘要。 基於已經擁有人類辛苦所製. 以追蹤:. 作出來的摘要音訊,因此,音訊重要性分析 模組也被大幅簡化。 圖 4-1 即簡化後的音. 1.攝影師: 在新聞影音中,攝影師相當程度就. 訊重要性分析模組。. 扮演著導演的角色。 2.播報員: 播報員扮演著聲音化妝師的角色。 3.後製人員: 新聞影片最後會經過後製人員 的摘要及剪輯處理,並為視訊加上文字旁 白。 4.新聞現場的人物: 所謂新聞現場的人物包 含真正的新聞主角,亦包含其他正在現場的 人物。 這些人物的臨場反應,往往能適切的 表達出新聞的主要意含。. 圖 4-1 新聞音訊重要性分析架構. 藉由對上述四類人物的反應及行為追蹤,. 圖 4-1 中,時間壓縮在本系統中採用線. 可以歸納出下列事件的發生,具有非常強烈的. 性加速 1.5 倍。 換言之,最終的影音摘要時間. 重要性意義:. 長度限制(Time Constraint),將是主播場景時. 1.突發事件: 鎂光燈事件(Flash Event)/景深. 間長度的 1/1.5 倍。. 變 換 事 件 (Zoom Event)/ 靜 態 事 件 (Static. 視訊重要性分析模組的處理如下:. Event)/平移事件(Pan Event)/開始結束事件 1.由於影音不需同步,在關鍵場景的選擇上,. (Start-End Event). 就不需要考慮在相同時間點上的音訊情況,. 2.連續事件: 人臉事件(Face Event)/文字事. 只需確定所有選取的場景經壓縮後,所需的. 件(Text Event). 呈 現 時 間 符 合 上 述 時 間 長 度 限 制 (Time. 4.2 新聞影音摘要的產生. Constraint)即可。. 本論文所提出的新聞摘要系統,基本上. 2.基於影音不需同步,視訊壓縮率就不須受限. 是以第三章設計的架構為主體發展而來,但鑒. 於音訊的兩倍以下壓縮率限制,而可以達到. 於新聞語音具有其非常特殊的性質,因而必須. 二至五倍的壓縮效果。 至於視訊壓縮率究. 略作調整。 新聞摘要系統的主架構即是圖. 竟應該設計為多少才合理,則由場景中鏡頭. 3-1,但事實上有兩個模組的內容被依照新聞. 的移動速度決定,意即加速倍率(Factor)為:. 的特性簡化了:. Factor =. 1.在視訊與音訊無法明確同步的狀況下,影音 關係模組被大幅弱化。. Const . (11) Dyn. 式中,Const.為常數,Dyn 則定義於第三章。. 2.一則新聞影音一般都是以一段主播畫面加. 整個新聞摘要架構的示意圖如圖 4-2 所. 上數段外場影音合併而成。 其中,主播畫面. 示。. 中所搭配的聲音,幾乎就是該則新聞最完美 6.

(7) 1.時間: 20~25 分鐘 2.人數: 10 人 3.影音資料: 中視 2002 年 9 月 19 日新聞十一 則 (二百四十九個場景). 5.1 關鍵視訊頁的結果 關鍵視訊頁的實驗程序: 1.先顯示系統對於某個場景所選擇的關鍵視 訊頁,再播放該場景的影音資料。. 圖 4-2 新聞摘要系統的示意圖. 2.允許使用者重複觀看上述關鍵視訊頁及場. 4.3 瀏覽系統. 景影音資料。 3.要求使用者對系統選擇給予極佳/良/可/不. 新聞瀏覽系統被設計成兩層的結構,用. 良/低劣/無法判定六種評價之一。. 來呈現前面章節描述方法所產生的影音摘要/ 關鍵視訊頁/關鍵句子…等資訊。. 表 5-1 關鍵視訊頁的實驗結果. 1.第一層: 摘要瀏覽(如圖 4-3 所示) 評價. 極佳(100). 良(80). 可(60). 不良(40). 低劣(20). 計分. 總計. 253. 281. 224. 132. 24. 73.28. 分析上述被給予不良及低劣評價的場景, 原因多數在於語意問題---意即對於同一個畫 面,不同人會有不同的關注點。 這類問題並無 完美的解決方案,只能利用學習機器(Learning Machine)試圖找出多數人的喜好。 圖 4-3 新聞瀏覽系統第一層. 5.2 影音摘要的結果. 2.第二層: 進階摘要與使用(如圖 4-4 所示). 影音摘要的實驗程序: 1.先播放摘要影音給受測者觀看,再播放原始 影音給受測者觀看。 2.要求使用者對摘要影音給予極佳/良/可/不 良/低劣五種評價之一。. 新聞. 極佳(100). 良(80). 可(60). 不良(40). 低劣(20). 計分. 總計. 24. 39. 37. 9. 1. 73.82. 表 5-2 影音摘要的實驗結果. 圖 4-4 新聞瀏覽系統第二層. 分析上述實驗的結果,大致可以知道--當摘要影音包含原始影音的場景比例提高時,. 第五章 實驗與結果. 使用者往往會給予較高的評價. 此外,如果原. 實驗的條件如下:. 始影音本身就比較不具吸引力時,使用者將受 7.

(8) 組。. 到影響而傾向給予較低的評價.. 3.感謝 Intel 提供 OpenCV 人臉辨識模組。. 第六章 結論與未來. 4.感謝台灣大學曹智富同學提供文字檢測模. 6.1 結論. 組。. 本篇論文提出了一個由上而下,以“重 要"語意為基準的影音摘要架構。 由於這個. 參考文獻. 架 構 被 設 計 成 與 應 用 領 域 相 關. [1] X. Gao and X. Tang, "Automatic Parsing of News Video Based on Cluster Analysis," in Proc. of 2000 Asia Pacific Conference on Multimedia Technology and Applications, Taiwan, Dec. 2000 [2] Maybury, M. and Merlino, A., "Multimedia Summaries of Broadcast News", International Conference on Intelligent Information Systems, 1997 [3] Yu-Fei Ma, Lie Lu, Hong-Jiang Zhang, Mingjing Li, “An Attention Model for Video Summarization”, ACM Multimedia 2002 [4] O'Connor, N., Marlow, S., Murphy, N., Smeaton, A., Browne, P., Deasy, S., Lee, H. and Mc Donald, K. “Fischlar: an On-line System for Indexing and Browsing of Broadcast Television Content”, In Proceedings of ICASSP 2001 [5] N. O’Connor, C. Czirjek, S. Deasy, S. Marlow, N. Murphy, A. Smeaton, “NEWS STORY SEGMENTATION IN THE F´ISCHL ´ AR VIDEO INDEXING SYSTEM”, IEEE ICIP 2001 [6] L. Rau, R. Brandow, and K. Mitze, “Domain-independent summarization of news”, In Summarizing Text for Intelligent Communication, 1994 [7] M. Smith and T. Kanade, “Video Skimming for Quick Browsing based on Audio and Image Characterization”, tech. report, Carnegie Mellon University, 1995 [8] Hari Sundaram, “Segmentation, Structure Detection and Summarization of Multimedia Sequences”, PhD thesis, Dept. Of Electrical Engineering, Columbia University, NY NY, Oct. 2002 [9] Shingo Uchihashi and Jonathan Foote, “Summarizing Video using a Shot Importance Measure and a Frame-Packing Algorithm”, In Proceedings of the International Conference on Acoustics, Speech, and Signal Processing, 1999 [10] S. Uchihashi, J. Foote, A. Girgensohn, and J. Boreczky, “Video Manga: Generating Semantically Meaningful Video Summaries”,. (Domain-Dependence),因 此它 具 有 極高的 可 塑性。 在第四章中,我們以此架構對“新聞" 領域的影音實作了一個摘要系統。 由實作的 結果來看,這個架構的確可以相當程度反映出 人類對於“重要"的看法。 而這種語意層級 概念的檢測,正是過去許多相關研究較不完備 的部分。 也許這樣的結果仍不夠完備,但相信 已經提供了一個相當有意義的研發方向可供 參考。. 6.2 未來研究方向 本篇論文仍有許多值得探討與未來努力 的地方: 1.本篇論文以重要性事件來驅動摘要行為,因 此,唯有發展出更多的事件檢測能力,才能 夠更完整的了解“重要"語意的所在,而藉 以發展的摘要系統,才能夠逐漸提昇其表達 重要語意的能力。 2.在突發及連續事件的重要性標示上,目前以 直覺的方式直接指定一個常數值,用以成為 這些事件重要性標示值計算的基礎。這些常 數值未來應該以學習機器(Learning Machine) 重新加以定義。. 誌謝 1.感謝國科會提供研究經費上的協助。 2.感謝台灣大學李琳山教授提供語音辨識模 8.

(9) In Proceedings ACM Multimedia, 1999 [11] N. Vasconcelos, & A. Lippman, “A Spatiotemporal Motion Model for Video Summarization”, CVPR, 1998 [12] H. Wactlar, “Informedia - Search and Summarization in the Video Medium”, In Proceedings of Imagina 2000 [13] Li, Ying; Zhang, Tong; Tretter, Daniel, “An Overview of Video Abstraction Techniques”, HP Labs Technical Reports, 2001 [14] Y. Zhuang, Y. Rui, T. S. Huang, and S. Metrotra, “Aaptive key frame extraction using unsupervised clustering”, In Proceeding of IEEE Int. Conf. on Image Processing, 1998. 9.

(10)

數據

圖 4-2 新聞摘要系統的示意圖  4.3 瀏覽系統  新聞瀏覽系統被設計成兩層的結構,用 來呈現前面章節描述方法所產生的影音摘要/ 關鍵視訊頁/關鍵句子…等資訊。  1.第一層: 摘要瀏覽(如圖 4-3 所示)  圖 4-3 新聞瀏覽系統第一層  2.第二層: 進階摘要與使用(如圖 4-4 所示)  圖 4-4 新聞瀏覽系統第二層  第五章 實驗與結果  實驗的條件如下:  1.時間: 20~25 分鐘 2.人數: 10 人   3.影音資料: 中視 2002 年 9 月 19 日新聞十一則 (二百四十九

圖 4-2

新聞摘要系統的示意圖 4.3 瀏覽系統 新聞瀏覽系統被設計成兩層的結構,用 來呈現前面章節描述方法所產生的影音摘要/ 關鍵視訊頁/關鍵句子…等資訊。 1.第一層: 摘要瀏覽(如圖 4-3 所示) 圖 4-3 新聞瀏覽系統第一層 2.第二層: 進階摘要與使用(如圖 4-4 所示) 圖 4-4 新聞瀏覽系統第二層 第五章 實驗與結果 實驗的條件如下: 1.時間: 20~25 分鐘 2.人數: 10 人 3.影音資料: 中視 2002 年 9 月 19 日新聞十一則 (二百四十九 p.7

參考文獻

相關主題 :