• 沒有找到結果。

遞迴式類神經網路語言模型使用額外資訊於語音辨識之研究

N/A
N/A
Protected

Academic year: 2021

Share "遞迴式類神經網路語言模型使用額外資訊於語音辨識之研究"

Copied!
86
0
0

加載中.... (立即查看全文)

全文

(1)國立臺灣師範大學 資訊工程研究所碩士論文. 指導教授:陳柏琳. 博士. 遞迴式類神經網路語言模型使用額外資訊 於語音辨識之研究 Recurrent Neural Network-based Language Modeling with Extra Information Cues for Speech Recognition. 研究生:黃邦烜. 中華民國. 一O一. 年. 撰. 八. 月.

(2) 摘要 語言模型藉由大量的文字訓練後,可以捕捉自然語言的規律性,並根據歷史詞序 列 來 區 辨 出 下 一 個 詞 應 該 為 何 , 因 此 在 自 動 語 音 辨 識 (Automatic Speech Recognition, ASR)系統中扮演著不可或缺的角色。傳統統計式 N 連(N-gram)語言 模型是常見的語言模型,它基於已知的前 N-1 個詞來預測下一個詞出現的可能性。 當 N 小時,缺乏了長距離的資訊;而 N 大時,會因訓練語料不足產生資料稀疏之 問題。近年來,由於類神經網路(Neural Networks)的興起,許多相關研究應運而 生,類神經網路語言模型即是一例。令人感興趣的是,類神經網路語言模型能夠 解決資料稀疏的問題,它透過將詞序列映射至連續空間來估測下一個詞出現的機 率,因此在訓練語料中不會遇到未曾出現過的詞序列組合。除了傳統前饋式類神 經網路語言模型外,近來也有學者使用遞迴式類神經網路來建構語言模型,其希 望使用遞迴的方式將歷史資訊儲存起來,進而獲得長距離的資訊。 本論文研究遞迴式類神經網路語言模型於中文大詞彙連續語音辨識之使用, 探索額外使用關聯資訊以更有效地捕捉長距離資訊,並根據語句的特性動態地調 整語言模型。實驗結果顯示,使用關聯資訊於遞迴式類神經網路語言模型能對於 大詞彙連續語音辨識的效能有相當程度的提昇。. 關鍵詞:語音辨識、語言模型、前饋式類神經網路、遞迴式類神經網路.

(3) Abstract The goal of language modeling (LM) attempts to capture the regularities of natural languages. It uses large amounts of training text for model training so as to help predict the most likely upcoming word given a word history. Therefore, it plays an indispensable role in automatic speech recognition (ASR). The N-gram language model, which determines the probability of an upcoming word given its preceding N-1 word history, is most prominently used. When N is small, a typical N-gram language model lacks the ability of rendering long-span lexical information. On the other hand, when N becomes larger, it will suffer from the data sparseness problem because of insufficient training data. With this acknowledged, research on the neural network-based language model (NNLM), or more specifically, the feed-forward NNLM, has attracted considerable attention of researchers and practitioners in recent years. This is attributed to. the fact that the feed-forward NNLM can mitigate the data sparseness problem when estimating the probability of an upcoming word given its corresponding word history through mapping them into a continuous space. In addition to the feed-forward NNLM, a recent trend is to use the recurrent neural network-based language model (RNNLM) to construct the language model for ASR, which can make efficient use of the long-span lexical information inherent in the word history in a recursive fashion. In this thesis, we not only investigate to leverage extra information relevant to the word history for RNNLM, but also devise a dynamic model estimation method to obtain an utterance-specific RNNLM. We experimentally observe that our proposed methods can show promise and perform well when compared to the existing LM methods on a large vocabulary continuous speech recognition (LVCSR) task.. Keywords: automatic speech recognition, language modeling, feed-forward neural network, recurrent neural network.

(4) 誌謝 首先,在此感謝我的父母及家人,因為有您們的鼓勵,我才能夠不斷地正視 我所遇到的挑戰;因為有您們的支持,我才能自在地追隨自己的理想,並且順利 地完成學業。於求學期間的點點滴滴,我都銘記在心,謝謝您們。 感謝指導教授. 陳柏琳博士在我研究所時期的教導,無論是在研究方面,抑. 或是待人處事方面都從老師身上獲益良多。老師總是不厭其煩的給予許多建議和 鼓勵,並且提供優質的研究環境,讓我們能無後顧之憂的進行研究。求學過程就 如同旅行一樣,每天都能學習到及見識到許多新的事物,兩年的旅程中老師您不 僅是研究之師,也是人生之師,誠摯感謝您的諄諄教誨。 感謝口試委員. 洪志偉博士及 張道行博士,因為有您們的指導與建議,讓. 我的論文更臻完整,並且從老師們的研究姿態中,學習到研究的真諦。 感謝實驗室的學長姐,士翔學長、永典學長、家妏學姐、鈺玫學姐、珮寧學 姐和紋儀學姐,謝謝你們在學業或生活上給予諸多的建議和幫助。感謝冠宇學長 每周都不辭辛勞地與我們討論研究,學長就如同我的第二個指導老師一樣,在我 不知所措或是研究沒有進展時,幫助我且啟發我,祝福你在未來的研究生涯能乘 風破浪、一帆風順。感謝敏軒學長不只在研究上耐心地給予指導,看著你認真的 姿態也時常激勵著我,而在生活或是求學中更是熱心的幫助我。謝謝皓欽、予真 和憶文,在研究所的日子裡相互鼓勵與成長,使我的研究生活注入許多動力。也 謝謝實驗室的學弟妹,孝宗、逸婷、俊諭、麟傑、柏翰和黃威,因為有你們的加 入,使得實驗室增添許多歡笑與熱鬧的氣氛,而在我忙碌之時,也傾注全力協助 我,萬分感謝你們。另外也感謝創價學會的學會們,不時地鼓勵我與給予建議, 使我徬徨無力或態度消極時,轉換自己的一念,擁有正向、積極的態度去面對。 最後,謹以一句話勉勵自己及分享給各位,人生裡不一定要贏,但是絕對要 以不輸的心來完成所有挑戰。 「不論如何,都要洋溢希望,要開朗!煩惱越大,越要咬緊牙關,面帶笑容前進。」 -. 池田大作 邦烜. 謹誌.

(5) 目錄 目錄. ............................................................................................................................ i. 圖目錄 ......................................................................................................................... iii 表目錄 .......................................................................................................................... iv 第 1 章 緒論 ................................................................................................................... 1 1.1. 研究背景 ........................................................ 1. 1.2. 語音辨識簡介 .................................................... 2. 1.3. 研究動機與目的 .................................................. 9. 1.4. 論文貢獻 ....................................................... 10. 1.5. 論文章節安排 ................................................... 11. 第 2 章 文獻探討與分析 ............................................................................................. 12 2.1. N 連語言模型 ................................................... 12. 2.2. 其它基於不同層次資訊之語言模型 ................................. 13. 2.3. 新近所提出之語言模型 ........................................... 15. 2.3.1. 鑑別式語言模型 ................................................................................................. 15. 2.3.2. 類神經網路語言模型 ......................................................................................... 18. 2.3.3. 類神經網路語言模型文獻探討 ......................................................................... 21. 第 3 章 類神經網路語言模型於自動語音辨識之使用 ............................................. 26 3.1.1. 倒傳遞式類神經網路 ......................................................................................... 26. 3.1.2. 遞迴式類神經網路 ............................................................................................. 33. 第 4 章 探索遞迴式類神經網路語言模型之 改進 ................................................... 37 4.1. 結合關聯資訊於遞迴式類神經網路語言模型 ......................... 37 i.

(6) 4.2. 語句相關之遞迴式類神經網路語言模型 ............................. 41. 第 5 章 實驗架構與結果討論 ..................................................................................... 45 5.1. 實驗架構 ....................................................... 45. 5.1.1. 臺師大大詞彙連續語音辨識系統 ..................................................................... 45. 5.1.2. 實驗語料 ............................................................................................................. 48. 5.1.3. 語言模型評估 ..................................................................................................... 49. 5.2. 基礎實驗結果 ................................................... 51. 5.3. 使用長句語料與短句語料於遞迴式類神經網路語言模型之實驗結果 ...... 53. 5.4. 結合關聯資訊於遞迴式類神經網路語言模型之實驗結果................ 54. 5.5. 語句相關之遞迴式類神經網路語言模型之實驗結果 ................... 59. 5.6. 各式語言模型比較與探討 ......................................... 63. 第 6 章 結論與未來展望 ............................................................................................. 66 參考文獻...................................................................................................................... 68. ii.

(7) 圖目錄 圖 1-1 自動語音辨識流程圖 ................................................................................................. 2 圖 1-2 MFCC 特徵擷取流程圖 ............................................................................................. 4 圖 1-3 狀態數為 3 的 LEFT-TO-RIGHT 隱藏式馬可夫模型範例 .......................................... 6 圖 2-1 區域最小值示意圖 ................................................................................................... 19 圖 2-2 類神經網路語言模型演進圖 ................................................................................... 21 圖 3-1 前饋式類神經網路架構 ........................................................................................... 26 圖 3-2 類神經網路語言模型架構 ....................................................................................... 30 圖 3-3 輸入層映射至投影層過程 ....................................................................................... 32 圖 3-4 遞迴式類神經網路架構 ........................................................................................... 32 圖 3-5 以時間階層式展開之遞迴式類神經網路架構 ....................................................... 34 圖 4-1 關聯資訊遞迴式類神經網路架構 ........................................................................... 37 圖 4-2 語句關聯資訊概念圖 ............................................................................................... 38 圖 4-3 詞關聯資訊概念圖 ................................................................................................... 39 圖 4-4 動態詞關聯資訊範例 ............................................................................................... 40 圖 4-5 語句相關之遞迴式類神經網路語言模型流程圖 ................................................... 41 圖 5-1 遞迴式類神經網路語言模型套件架構 ................................................................... 51 圖 5-2 短句語料與長句語料使用兩種語言模型比例 ....................................................... 53 圖 5-3 語句關聯資訊-三種表示法之辨識率比較 ............................................................. 55 圖 5-4 詞關聯資訊-三種表示法之辨識率比較 ................................................................. 56 圖 5-5 使用不同長度之詞關聯資訊辨識結果 ................................................................... 57. iii.

(8) 表目錄 表 2-1:各種鑑別式語言模型之比較 ................................................................................ 17 表 5-1:實驗語料統計資訊 ................................................................................................ 48 表 5-2:遞迴式類神經網路語言模型之基礎實驗結果 .................................................... 52 表 5-3:使用短句語料與長句語料於 RNN 之差異 ......................................................... 53 表 5-4:結合語句關聯資訊之實驗結果 ............................................................................ 54 表 5-5:結合詞關聯資訊之實驗結果 ................................................................................ 55 表 5-6:結合動態詞關聯資訊之實驗結果 ........................................................................ 58 表 5-7:選取相似度最大權重法(兩群)之辨識結果 ......................................................... 59 表 5-8:相似度線性組合法(兩群)之辨識結果 ................................................................. 59 表 5-9:相似度均勻組合法(兩群)之辨識結果 ................................................................. 60 表 5-10:選取相似度最大權重法(四群)之辨識結果 ....................................................... 61 表 5-11:相似度線性組合法(四群)之辨識結果 ............................................................... 61 表 5-12:相似度均勻組合法(四群)之辨識結果 ............................................................... 62 表 5-13:各種語言模型之實驗結果 .................................................................................. 63. iv.

(9) 第1章 緒論 1.1. 研究背景. 隨著科技的改變,人們的生活型態也大幅改變,符合人性的智慧型科技因此催生, 自動語音辨識(Automatic Speech Recognition, ASR)便是其中代表之一。自動語音 辨識的應用回溯到最早在 1920 年發展的玩具狗-Radio Rex,直到現今 iPhone 4S 裡的語音助理 Siri;這些應用的發展就是希望使電腦能夠理解使用者的語音輸入, 進而增進生活的便利性和工作的效率。 語音是人與人溝通的基本媒介,如果無法透過語音來對話,取而代之的可能 是文字、圖像抑或是肢體語言,但皆無法像語音一樣正確地表達彼此的想法。在 對話中,人們藉由語調和詞句,了解對方的情緒與想法等諸多細節,而聽懂對方 的話語以及理解對方的想法;這些人所擁有的天賦,是目前資訊科技所無法達到 而需研究的。因此自動語音辨識的研究也變得更加重要;其它相關研究有語音合 成 (Speech Synthesis) 、 文 字 轉 語 音 (Test-to-Speech, TTS) 、 語 者 辨 識 (Speaker Recognition)和情緒辨識等。另外,在教育學習方面則有口語對話系統、電腦輔助 語言學習(Computer Assisted Language Learning, CALL) 和電腦輔助發音訓練 (Computer Assisted Pronunciation Training, CAPT)等研究,希望藉由自動辨識給予 正向或負向的回饋來輔助學習者的學習。而語音辨識相關研究也常與其他領域結 合,如資訊檢索(Information Retrieval)、機器翻譯(Machine Translation, MT)或自然 語言處理(Nature Language Processing, NLP)等。由此可知,語音辨識技術的發展 與提昇,將帶領人類進入新的生活型態。 本章首先簡介語音辨識的研究內容,接著將說明本論文的研究內容與方向。. 1.

(10) 語言模型 訓練. 語言 模型. 特徵 擷取. 語音 語料. 文字 語料. 詞典. 聲學模型 訓練. 聲學 模型. 語言解碼. 辨識結果. 語音訊號 特徵向量. 圖 1-1:自動語音辨識流程圖. 語音辨識簡介. 1.2. 科技始終來自於人性,要解決語音辨識的問題,我們可以去探討人類如何接受到 聲音或大腦如何進行理解。人類在聽到聲音後,會根據聲音的特性去分析,例如 是尖銳的音色或是低沉的音色,再藉由大腦所獲得的記憶去辨別聲音所帶來的資 訊,接著作出適當的反應;而當今的語音辨識流程也類似於上述人類的聽覺感受 過程。 自動語音辨識系統主要可以分成四個主要的部份,分別是特徵擷取(Feature Extraction)、聲學模型(Acoustic Model)、語言模型(Language Model)與語言解碼 (Linguistic Decoding),透過這些部份才會得到最後辨識結果。當電腦接受到一段 2.

(11) 語音訊號,首先透過特徵擷取來處理語音訊號,得到可以代表此段語音訊號的特 徵參數;接著,將所擷取的特徵參數轉換成語音特徵向量,以利語音辨識系統使 用或分析。另一部分,則使用語音語料和文字語料分別建構出聲學模型和語言模 型,用以表示語音與文字之間的對應關係以及代表語言中各種詞彙的出現情形。 再根據聲學模型、語言模型、詞典和特徵向量所提供的資訊以進行語言解碼,獲 得最後辨識結果。更明確地來說,我們可以將語音辨識的過程透過數學符號來表 示,如式(1-1)。. W *  arg max P(W | X ) w.  arg max w. p( X | W ) P(W ) P( X ). (1-1).  arg max p ( X | W ) P(W ) w. 輸入一段語音訊號 X 後,自動語音辨識最主要的目的就是找出一段最有可能的對 應詞序列 W*。由於 P(W|X)較難以直接計算,因此可利用貝式定理(Bayes’ Theorem) 做轉換,得到 p(X|W)、P(W)和 P(X)。其中 p X|W  為聲學模型,代表給定一詞序 列 W ,產生某語音訊號 x 的機率; PW  為語言模型,代表產生某一詞序列 W 的 機率;而 P X  為語音訊號 X 的事前機率,對同一語音訊號 X 來說 P(X)皆相等, 並不會影響排序,所以可忽略不計。因此,可以簡化為 arg max p X | W PW  。 w. 接著,本論文將介紹自動語音辨識系統主要的四個部分。 (一)特徵擷取(Feature Extraction) 特徵擷取顧名思義就是從語音訊號中,找出能夠代表此段語音訊號的特徵,而獲 取的特徵為了利於電腦做分析及運用。因此表示成特徵向量,常見的方法有線性 預測係數(Linear Prediction Coefficients, LPC) [Makhoul, 1975]、感知線性預測係數 3.

(12) (Perceptual Linear Prediction Coefficients, PLPC)[Hermansky, 1990]、異質性線性鑑 別分析(Heteroscedastic Linear Discriminant Analysis, HLDA)[Kumar, 1997]、最大相. 預強調. 音框化. 離散傅立 葉轉換. 語音訊號. 語音特徵向量. 對數能量. 梅爾三角. 轉換. 濾波器組. 時間差量. 離散餘弦. 運算. 轉換. 圖 1-2 :MFCC 特徵擷取流程圖. 似度線性轉換(Maximum Likelihood Linear Transformation, MLLT)[Gales, 1998]以 及 梅 爾 倒 頻 譜 係 數 (Mel-Frequency Cepstral Coefficients, MFCC)[Davis and Mermelstein, 1980]等不同的語音特徵參數。其中梅爾倒頻譜係數(MFCC)是由考慮 人耳聽覺和發音系統特性發展而成,在不受干擾的情況下,相較於其他方法有較 佳的辨識能力,因此有許多強健性語音特徵研究都是針對其發展。 而 MFCC 特徵擷取的過程有預強調(Pre-emphasis)、音框化(Windowing)、離 散 傅 立 葉 轉 換 (Discrete Fourier Transform, DFT) 、 梅 爾 三 角 濾 波 器 組 處 理 (Mel-Scaled Triangular Filterbank Processing) 、 離 散 餘 弦 轉 換 (Discrete Cosine Transform, DCT)、對數能量(Log Energy)運算及時間差量(Time Derivation)運算等 程序,流程如圖 1-2 所示。. 4.

(13) 由於現實生活中,往往會因為環境中諸多複雜因素影響,導致訓練語料會有 與測試語料在環境中不匹配(Mismatch)的問題,使得辨識率大幅下降。因此,在 取得特徵向量後,便可考慮環境或噪音對語音特徵的影響,進一步對特徵向量進 行校正以去除雜訊。 (二)聲學模型(Acoustic Model) 在數字辨識、關鍵詞辨識等小詞彙數辨識任務中,通常以全詞模型(Whole-word Model)當作聲學模型的單位。而在中、大詞彙數辨識任務中,考慮到訓練語料的 收集與聲學模型的一般化能力(Generalization Ability),因此不會使用詞典中的每 個詞去建立單獨的聲學模型,取而代之的是使用比詞更小的單位去建立模型,如 子詞(Sub-word Unit)單位、音素(Phone)或音節(Syllable)等,接著,利用發音詞典 (Pronunciation Lexicon)來串接每一詞彙所對應的每個聲學模型。由於中文的每個 字(Character)皆是以一個音節所組成,因此設計中文語音辨識器時會將中文音節 再細分為聲母(Initial)及韻母(Final)兩種聲學單位,也可稱為子音(Consonant)和母 音(Vowel),分別建立聲母模型和韻母模型。 因語音是具有時序性的,一般而言皆採用由左至右(Left-to-right)的隱藏式馬 可夫模型(Hidden Markov Model, HMM)[Rabiner, 1989]來建立聲學模型。如圖 1-3, 它便是一個具有三個狀態的隱藏式馬可夫模型;每個狀態中都會有對每個音框 (Frame) 所 形 成 的 語 音 特 徵 參 數 向 量 之 觀 測 機 率 分 佈 (Observation Probability Distribution)和相對應的狀態轉移機率(State Transition Probability),用來決定是否 要停留在此狀態或是轉移到下個狀態。 而常見的聲學模型訓練方法有最大化相似度訓練法(Maximum Likelihood, ML) [Bahl et al., 1983]、最大化交互資訊(Maximum Mutual Information, MMI)[Bahl et al.,. 1986] 、最小化分類錯誤(Minimum Classification Error, MCE)[Juang and 5.

(14) Katagiri, 1992]或是最小化音素錯誤(Minimum Phone Error, MPE)[Povey, 2004] 等。. 圖 1-3:狀態數為 3 的 Left-to-right 隱藏式馬可夫模型範例 (三) 語言模型(Language Model) 不同於聲學模型,語言模型的目的是企圖描述語言的特性,並希望能夠預測語音 訊號中的下一個字,由於聲學模型缺少了語句中詞與詞之間的資訊,只能辨識某 一段語音訊號與音節、音素或詞的相似程度,有鑑於此,需要利用一個語言模型 來估測詞與詞之間的連接關係。在語音辨識過程中,詞彙數是有限的,所以可能 得詞序列組合也是可數的。因此, 語言模型 常使用多項式 分佈(Multinomial Distribution),並且它被用於直接估測詞序列的機率質量函數(Probability Mass Function, PMF)。一段詞序列 W 的事前機率可以用鏈鎖率(Chain Rule)展開,得到 條件機率的連乘積: P(W )  P( w1 , w2 ,..., wm )  P( w1 ) P( w2 | w1 )...P( wm | w1 , w 2 ,..., wm1 ). (1-2). m.  P( w1 ) P( wi | w1 , w 2 ,..., wi 1 ) i 2. 這表示每個詞都會與其所看過的歷史詞有關,然而,當 m 較大時,所需的參數空. 6.

(15) 間將會根據歷史詞序列呈指數成長,因此語言模型很難去估測或儲存所有的資訊。 目前最廣泛使用的語言模型為 N 連語言模型,它基於已知的前 N-1 詞來預測下一 個詞出現的可能性,即所謂的 N-1 階馬可夫假設(N-1 order Markov Assumption)。 一般為了減少參數量的複雜度,常使用二連詞(Bigram)及三連詞(Trigram), 卻使得語言模型無法獲得更多的歷史資訊或長距離資訊。而另一方面,如果將 N 的大小增加,不僅會造成參數量呈指數倍成長,當實際使用時,在時間、空間複 雜度也都會有所影響,並且會導致語言模型招致訓練資料稀疏的問題,需要更多 的訓練語料來彌補。換言之,在語言模型中就會有詞的機率為零因而無法正確估 測,加上要評估一個詞序列發生的可能性,由於詞的機率是連乘的,當中有一詞 之條件機率為零的話會導致詞序列機率也為零,就可能導致辨識錯誤。解決此問 題的方法有平滑化(Smoothing)技術及分群(Clustering),就平滑化技術而言,常見 的有 Katz 平滑化法[Katz, 1987]和 Good-Turning 平滑化法[Good, 1953; Chen and Goodman, 1999]等,其概念是將訓練語料中每個詞序列出現的統計次數依照各式 比例原則折扣部份次數,再把這些次數以各式比例原則分派給在訓練語料中沒有 出現的其它詞序列,以解決機率為零之問題。另外,群集模型(Clustering Model) 則是使相似的詞聚集在同一類別,以解決資料稀疏的問題。例如:有兩句話「有 個約會在星期五」和「有個約會在星期六」,則我們可以想像「星期五」和「星 期六」在此為相似的詞,因此可以視為同一類別。 當語言模型使用於語音辨識時,它不僅可解決聲學混淆的問題與限制辨識的 搜尋空間,更重要的是,它能藉由不同上下文或者其它資訊來預測每個詞可能出 現的機率分布,並輔助語音辨識器評估各個候選詞序列在自然語言中的合理性, 因而找出最有可能之候選詞序列。 (四) 語言解碼(Linguistic Decoding) 7.

(16) 透過輸入語句的特徵向量在對應聲學模型上之相似度,及所形成詞序列之語言模 型機率,我們可以找出最有可能的詞序列。一般我們會使用維特比動態規劃搜尋 (Viterbi Dynamic Programming Search)[Viterbi, 1967],結合聲學相似度和語言模型 之機率去有效率地找出可能的詞序列。此外,由於龐大的詞彙量與複雜的語言模 型會使得搜尋的空間呈現指數型態的成長,為了降低搜尋的空間複雜度及加快辨 識速度,一般會分成兩個階段做處理。第一階段使用聲學模型和較低階的語言模 型 進 行 詞 彙 樹 動 態 規 劃 搜 尋 , 以 及 利 用 語 言 模 型 前 看 (Language Model Look-ahead)[Aubert, 2002]技術、聲學前看與光束剪裁等技術來去蕪存菁,捨棄機 率較低的詞序列來產生最佳詞序列和詞圖(Word Graph)。第二階段則是對詞圖重 新進行動態規劃搜尋,一般通稱為重新計分(Rescoring),並且使用更高階的語言 模型,結合其它的信心度分數(Confidence Score)來找出 M 條最佳詞序列(M-Best)。 由於詞圖所產生的最佳詞序列,並不一定是字錯誤率最低的詞序列。因此有許多 研究透過語言模型來來進行重新排序(Reranking),期望能從 M 條最佳詞序列中找 出字錯誤率最低的詞序列,以做為最後的輸出結果。. 8.

(17) 1.3. 研究動機與目的 為了使電腦能理解人類的語言,本論文研究語音辨識中的語言模型,希望藉. 由語言模型能捕捉語言的規律性。N 連語言模型是較常見的語言模型之一,它易 於產生且容易使用的特性引發許多研究學者使用。但此語言模型有資料稀疏與缺 乏長距離資訊等問題,因此有不同類型的語言模型產生並期望解決這些問題,前 饋式類神經網路語言模型(Neural Network-based Language Models, NNLM)則是其 中之一。它將歷史詞序列的資訊投影到連續空間,借以解決資料稀疏的問題,但 對於長距離資訊的取得仍不盡理想。因此,為了獲得長距離的資訊,有了遞迴式 類神經網路語言模型(Recurrent Neural Network-based Language Models, RNNLM) 的產生。1994 年有研究[Bengio et al., 1994]指出,遞迴式類神經網路較難取得更 長距離的資訊,其理由是當句子越長時,越遠距離的資訊透過機率相乘所得到的 值會趨近於零。在本論文,我們嘗試使用額外的資訊來增進遞迴式類神經網路語 言模型的預測能力。例如,使用句子和句子間的關聯性或詞與詞之間的關聯性來 協助預測下一個詞發生的機率。. 9.

(18) 論文貢獻. 1.4. 本論文貢獻有以下幾點: (一). 本論文透過彙整國內外當今的研究,探索常見的類神經網路語言模型於. 中文語音辨識之成效,期許能拋磚引玉,提供中文語音辨識研究領域具價值 的參考。 (二). 一般前饋式類神經網路語言模型解決了 N 連語言模型資料稀疏的問題,. 它將歷史詞序列映射到連續空間,以此來估測下一個詞出現的機率為何。但 前饋式類神經網路語言模型仍然缺乏長距離資訊,因此有遞迴式類神經網路 語言模型的發展,其希望將歷史詞資訊透過遞迴的方式儲存起來以獲得長距 離資訊。而遞迴式類神經網路語言模型的確能獲得長距離資訊,但隨著距離 越遠,梯度下降法中鏈鎖率的長度就會越長。換句話說,小於 1 的機率值相 乘會因此越乘越小,導致回饋給遠距離資訊的權重也較小,最後則缺乏了長 距離的資訊,所以本論文分兩部分解決此問題。 本論文提出利用語句關聯以及詞關聯資訊來加以輔助遞迴式類神經網. i.. 路語言模型;其中,探討了如何表示關聯資訊,並且驗證了關聯資訊的 使用能提升語音辨識率與降低語言複雜度。 由於在過去的研究裡,所有測試語句皆使用由同一份訓練語料所訓練出. ii.. 的單一語言模型,因此本論文希望能夠使測試語句找到符合其特性的語 言模型,並透過動態調整語言模型來得到更好的成效。 (三). 本論文使用額外資訊於遞迴式類神經網路語言模型在大詞彙連續語音. 辨識中有相當程度的改善。. 10.

(19) 1.5. 論文章節安排. 本論文接下來的章節安排如下: 第 2 章介紹 N 連語言模型與其它不同種類的語言模型,並回顧類神經網路語言模 型之相關進展。 第 3 章介紹類神經網路語言模型於自動語音辨識之使用,並且說明類神經網路語 言模型相關理論及架構。 第 4 章介紹本論文所使用的詞關聯資訊和語句相關資訊於遞迴式類神經網路語言 模型。 第 5 章介紹實驗語料、實驗設定以及實驗結果分析。 第 6 章則是結論及未來展望。. 11.

(20) 第2章 文獻探討與分析 2.1. N 連語言模型. 語言模型在自然語言處理中佔有舉足輕重的角色,時常應用於相關領域諸如機器 翻譯(Machine Translation)、資訊檢索(Information Retrieval)等研究,其中在自動語 音辨識領域更是影響顯著。語言模型主要的功能是擷取語言的特性並預測語句中 每一個詞出現的可能性。另外,根據語言的不同以及需求不同,也會發展出不同 類型的語言模型。 現今最常見的統計式語言模型,是透過機率模型的建立來描述語言生成的規 律性,1948 年克勞德˙香儂(Claude Elwood Shannon)提出了使用馬可夫鏈於連續 英文字母中來產生統計式模型,探討每一個字母的出現與其前 N-1 個字母有關, 其想法因而發展出了 N 連語言模型(N-gram Language Model)。更簡單來說,它根 據前 N-1 個歷史詞序列來預測第 N 個詞,以機率的方式來呈現則可以表示成下列 式子: n. n. i 1. i 1. Pw1 ,, wn    Pwi | w1 ,, wi 1    Pwi | wi  N 1 ,, wi 1 . (2-1). 而 Pw1 ,, wn  代表一段詞序列,我們可將它拆解成一連串條件機率的連乘積。再 經由簡化得到式(2-2)。由於詞序列有相當多種排列組合,使得 N 連語言模型的參 數量相當龐大。因此,N 連語言模型常會限制 N 的大小,以至於缺乏長距離的資 訊。 n. n.  Pw | w ,, w    Pw | w i. i 1. 1. i 1. i. i  N 1. ,, wi 1 . (2-2). i 1. 其中 N 連語言模型的訓練方式為最大化相似度估測法 (Maximum Likelihood 12.

(21) Estimation, MLE),它藉由訓練語料中 N 連詞出現的次數(Word Count)來估測 N 連 詞的機率分佈,以三連詞為例:. Pwi | wi 2 , wi 1  . C wi 2 , wi 1 , wi  C wi 2 , wi 1 . (2-3). 其中, C  表示詞序列在訓練語料中出現的次數。 N 連語言模型雖然容易產生以及使用,但仍有許多缺點需改善,如缺乏了長 距離的詞彙資訊、維度的詛咒(Curse of Dimensionality)及資料稀疏等問題。而為 了改善 N 連語言模型發生的問題,也有許多專家學者提出不同的模型來改進,接 下來將介紹其它基於不同層次資訊的語言模型。. 2.2. 其它基於不同層次資訊之語言模型. 依照語言資訊的不同,我們可將語言模型大致分成四類[邱炫盛, 2007]: (一) 詞相關語言模型:由於傳統 N 連語言模型根據馬可夫假設而僅能獲得短距離 的資訊,而為了改進此缺點,這一類型的語言模型試著獲得更長距離的詞彙 資訊。如:快取模型(Cache Model)[Kuhn, 1988]、混階層馬可夫模型(Mixed-order Markov Model)[Saul and Pereira, 1997] 和 觸 發 對 語 言 模 型 (Trigger-based Language Model)[Troncoso et al., 2004]等。 (二) 詞類別相關語言模型:使每個詞都有屬於自己的類別,而相同類別的詞則代 表具有相似的意義。藉由建立詞與詞之間的關係,找出序列中的詞與欲預測 詞之間的關係,因此透過詞類別的加入,原本 N 連語言模型中資料稀疏的問 題得以解決。例如:類別 N 連語言模型(Class-based N-gram Model)[Brown et al., 1992]與聚合式馬可夫模型(Aggregate Markov Model, AMM)[Troncoso et al., 2004]等。 13.

(22) (三) 語句結構相關語言模型:此類型的語言模型透過自然語言處理的觀點,使用 句法結構來擷取歷史詞資訊中有意義的資訊,使其具有長距離資訊。相關模 型如:結構化語言模型(Structured Language Model)[Chelba and Jelinek, 2000] 等。 (四) 文件主題相關語言模型:概念類似詞類別相關語言模型,將一篇或一群文件 根據主題性建立模型。歷史詞序列可視為尚未完成的文件,假設完成的程度 可以表現出某些主題,透過此模型找出其相關的主題性。例如:混合式語言 模型(Mixture-based Language Model)[Clarkson and Robinson, 1997]、潛藏語意 分析(Laten Semantic Analysis, LSA)[Bellegarda, 2005]、機率式潛藏語意分析 (Probabilistic Latent Semantic Analysis, PLSA) [Gildea and Hofmann, 1999]和潛 藏狄利克里分配(Latent Dirichlet Allocation, LDA) [Tam and Schultz, 2005]等。 此外,還有許多不同的語言模型發展出來,在接下來的章節中本論文將介紹鑑別 式語言模型。. 14.

(23) 2.3. 新近所提出之語言模型. 2.3.1. 鑑別式語言模型. 不同於傳統統計式語言模型,鑑別式語言模型的目標為最小化語音辨識錯誤率, 由於傳統統計式語言模型所選出的辨識結果通常是發生機率最高的詞序列,而非 字錯誤率最低的詞序列。因此鑑別式語言模型希望藉由詞圖(Word Graph or Lattice) 來產生 M 條最佳辨識候選詞序列(M-best list),將其重新排序(Reranking)來找尋字 錯誤率最低的詞序列,而獲得更好的辨識率。由於鑑別式訓練(Discriminative Training)的產生,發展出許多相關研究,鑑別式語言模型初期則應用於機器翻譯 (Machine Translation, MT)、自然語言處理與聲學模型等研究。鑑別式語言模型主 要可分為兩種研究,其一是以模型訓練方式;其二則是特徵的選用。 . 模型訓練方式 主要是針對目標函數的不同給予不同的學習機制或演算法,此部份常見的鑑. 別式語言模型有感知器演算法(Perceptron)[Rosenblatt, 1958]、最小化錯誤率訓練 (Minimum Error Rate Training, MERT)[Och, 2003]、全域條件式對數線性模型 (Global Conditional Log-linear Model, GCLM)[Roark et al., 2007]及權重式全域條件 式對數線性模型(Weighted Global Conditional Log-linear Model, WGCLM)[Oba et al., 2010]等。 感知器演算法(Perceptron)的起源是從類神經網路開始發展,在 2002 年,美 國學者 Collins[Collins, 2002]將感知器演算法應用於自然語言處理中,並於 2005 年被應用在語言模型調適[Gao et al., 2005]上。感知器演算法是以最小平方誤差法 (Least Squared Error, LSE)來作為排序減損函數(Loss Function),其希望排序分數最 高的候選詞序列與最低錯誤率的詞序列之分數差平方後越小越好。然而感知器演 算法只考慮了目前排序分數最高的詞序列與最低錯誤率詞序列的關係,因此一般 15.

(24) 化能力較差,且會有過度訓練(Over-Training)的問題及未必可找到全域最佳解。反 觀其好處則是演算法簡單易操作,並且因為不用考慮樣本權重而有較快的訓練速 度。 不同於感知器演算法,最小化錯誤率訓練(MERT)的目標是最小化語音辨識器 辨識錯誤率的期望值,也就是說,希望在經過重新排序後,整體的字錯誤率能夠 越小越好。其最小化錯誤率訓練中的錯誤率,可以視為一種樣本權重(Sample Weight)的資訊,用於區別每一個候選詞序列對於鑑別式語言模型訓練時的重要性。 最小化錯誤訓練是於 2003 年由 Och 所提出且應用在機器翻譯領域裡,而 2008 年 時,Kobayashi 等學者[Kobayashi et al., 2008]則將語音辨識領域和此方法做結合。 此方法不僅考慮了排序分數最高與擁有最低錯誤率的詞序列,也同時考慮了其他 候選詞序列的錯誤率,因此會有較佳的一般化能力,但也因為同時考慮了所有候 選詞序列,造成訓練速度較慢。 全域條件式對數線性模型(GCLM)的訓練目標則是希望最低錯誤率詞序列的 條件機率越高越好,其概念是於 2007 年 Roark 等學者以有限狀態機(Weighted Finite State Automata, WFSA)實作全域條件式對數線性模型,並且應用於語音辨識 結果的重新排序上。由於全域條件式對數線性模型考慮了最低錯誤率詞序列與其 它候選詞序列的關係,因此較不會出現過度訓練的問題,而一般化能力則是介於 感知器演算法與最小化錯誤率訓練之間。 權重式全域條件式對數線性模型(WGCLM)則是全域條件式對數線性模型的 延伸,在 2010 年由 Oba 等學者將樣本權重加入全域條件式對數線性模型進行改 進,將每個候選詞序列的分數加上一個不同的權重,以此來表示每一條候選詞序 列不同的重要程度,使每個候選詞序列對於訓練有不同的影響力。而錯誤率越高 或是排序越後面者,則重要程度就越重、影響力就越大。表 2-1 為各種鑑別式語 16.

(25) 言模型之比較,其中 L 為訓練語料的總句數、 Wi R 為最佳候選詞序列中最低錯誤 率的詞序列、Wi * 為排序後分數最高的詞序列、 為特徵權重參數向量、函數 Score 為將兩向量內積後的分數、 W i ,k 則為第 i 句和第 k 句的字錯誤率。 是否考慮權. 是否考慮. 有無全域最. 一般化能力. 訓練速度. 重樣本. Wi. Perceptron. 否. 是. 差. 否. 快. MERT. 是. 否. 佳. 否. 慢. GCLM. 否. 是. 略佳. 是. 慢. WGCLM. 是. 是. 略佳. 是. 慢. R. 佳解. 目標函數 Perceptron. FPerc    L. MERT. . . . M. FMERT     i 1 k 1. 2. . i ,k.  exp ScoreW   ScoreW M. i, j. FGCLM     log. . i 1.  exp ScoreW. i, j. . M. . . Wi , j. R. ,. . . . ,  . exp Score Wi R , . L. i 1. . M. j 1. FWGCLM     log. i. exp Score Wi R , . L. WGCLM. . W  exp ScoreWi ,k ,    ScoreWi R ,   j 1. GCLM. . 1 L Score Wi R ,   Score Wi* ,   2 i 1. . exp ScoreWi , j ,  . j 1. 表 2-1:各種鑑別式語言模型之比較 . 特徵的選用 由於傳統的方法是使用候選詞序列中 N 連詞的次數作為特徵,但是此方法缺. 乏了詞的特性、句法結構或語音訊號的特性。因此 Huang 等學者[Huang et al., 2007][Arisoy et al., 2010][Sak et al., 2010]使用了詞性(Part-of-speech, POS)、句法結 構或韻律(Prosody)來作為特徵,期望能夠使用越詳細的資訊來表示候選詞序列。. 17.

(26) 2.3.2. 2.3.2.1. 類神經網路語言模型. 類神經網路簡介. 類神經網路(Neural Networks)起源於人工智慧(Artificial Intelligence),又可稱為人 工類神經網路(Artificial Neural Networks, ANN)。為了讓電腦具備與人類一樣的能 力,自 1940 年開始科學家開始模仿神經元(Neuron)的運作模式,認為如果兩個神 經元同時被觸發,則它們之間的連結就會獲得增強。從巴伐洛夫的狗與鈴聲的實 驗中就可得知,當聽到鈴聲的神經元和看到食物的神經元同時受到刺激時,兩神 經元間就會建立起增強的學習關係,此現象也造就了類神經網路的基礎。直到近 年來,類神經網路結合了各項領域,如資訊、工商業甚至心理學等都有不錯的成 效,其中像是感知器演算法(Perceptron)是第一個實踐出類神經網路的創舉。然而 為何類神經網路在近年來興起一股流行呢?許多學者歸類出類神經網路有以下 幾點特性: (一) 具備平行處理的能力 (二) 容忍錯誤(Fault Tolerance)的能力 (三) 擁有學習、圖形辨識、自我調適和結合式記憶(Associative Memory)的能力 (四) 可以解決最佳化和處理一般演算法難以解決之問題 (五) 可以以硬體線路,如超大型積體電路(VLSI Implementation)來實作 (六) 利用了非線性的運算和具有嚴謹的數學基礎 除了前述優點外,類神經網路也有許多機器學習中會遇到的問題,如過度訓. 18.

(27) 練(Over Training)或訓練不足(Under Training)。若造成過度訓練,可能導致將訓練. 區域最小值. 全域最小值. 圖 2-1:區域最小值示意圖. 資料中的雜訊學習進去,導致未看過的資料較難作預測;反之,若訓練不足也無 法做出正確的預測。而隱藏層及隱藏層內神經元數目的取決也會造成一定的影響, 一般來說兩層的隱藏層即可處理任何問題[Villiers and Barnard, 1992]。當隱藏層數 目太多則複雜度較高,學習時間也相對增加,並且容易找到區域最小值(Local Minimum),而非最佳解;數目太少則會難以收斂。區域最小值的問題可以圖 2-1 來示意,類神經網路在尋找全域最小值(Global Minimum)所採用的方法為梯度下 降法(Gradient Decent Method),但此法仍有可能會找尋到區域最小值。而除了隱 藏層中的神經元太少會導致無法收斂外,訓練資料內有互相矛盾或有極端狀況、 訓練資料中的排列順序或學習率(Learning Rate)太大所造成的震盪或誤差容忍度 設定太小都可能是無法收斂的原因。 另外根據學習方法的不同,可分下列幾種[Rojas, 1996]:. 19.

(28) . . . . 監督式學習網路(Supervised Learning Network) . 感知機網路(Perceptron). . 倒傳遞式網路(Back-Propagation Neural Network, BPN). . 學習向量量化網路(Learning Vector Quantization, LVQ). . 機率式神經網路(Probabilistic Neural Network, PNN). . 反傳遞網路(Counter-Propagation Network, CPN). 非監督式學習網路(Unsupervised Learning Network) . 自組織映射圖網路(Self-Organizing Map, SOM). . 自適應共振理論網路(Adaptive Resonance Theory Network, ART). 聯想式學習網路(Associate Learning Network) . 霍普菲爾網路(Hopfield Neural Network, HNN). . 雙向聯想記憶網路(Bi-directional Associative Memory, BAM). 最適化應用網路(Optimization Application Network)。 . 霍普菲爾-坦克網路(Hopfield-Tank Neural Network, HTN). . 退火神經網路(Annealed Neural Network, ANN). 其中,依其架構可分兩類,分別是前饋式架構(Feed-Forward Network)和遞迴式架 構(Recurrent Network)或稱為回饋式架構(Feed-Back Network),兩者差別在於前者 只有從輸入傳遞到輸出,而後者會多增加一個步驟,將上一時間點的資訊傳回給 網路。 20.

(29) 目前類神經網路主要被用於分類及預測上,在影像辨識方面,如圖案的辨識 或雜訊的處理等,而在語音辨識中則有語言模型、語音合成與強健性語音辨識等。 另外則是氣象預測、電腦輔助教學、手寫辨識以及超大積體電路的應用。本論文 則是探討語音辨識裡的語言模型部份,以下則介紹類神經網路語言模型的演進與 改進。. •類神經網路與遞迴式類神經網路發展 ~1990. •類神經網路做在文字處理之相關研究探討 1990~2000. • NNLM相關研究開始發展 2001~2009. • RNNLM開始發展與不同結構NNLM發展 2010~. 圖 2-2:類神經網路語言模型演進圖. 2.3.3. 類神經網路語言模型文獻探討. 類神經網路語言模型是一種語言模型建立於類神經網路上,透過將詞以連續表示 (Continuous Representation)來解決 N 連語言模型維度詛咒之影響,另外對未知詞 的估測能力也較 N 連語言模型來的好。 而從類神經網路出現開始,就有許多研究學者將自然語言處理與類神經網路 做結合,Towsey [Towsey et al., 1998]使用遞迴式類神經網路來預測句中下一個詞 的詞性。實驗結果顯示,長距離的詞序列仍有較多的誤差,但遞迴式類神經網路. 21.

(30) 仍能根據前三個詞或更多歷史詞資訊來做預測。 另外值得注意的是,遞迴式類神經網路不同於傳統前饋式類神經網路,它的 目標是希望獲得長距離的資訊,但 Bengio 等學者[Bengio et al., 1993, 1994]發現, 利用梯度下降法(Gradient Descent Method)於遞迴式類神經網路中,對於學習長距 離的資訊是十分困難的。而要獲得長距離資訊必須要具有學習任意時間內的資訊, 且擁有抵抗其它資訊干擾的能力。但因為隨著時間變化,距離較遠的資訊會被每 一次時間點的輸入資訊所干擾,反而降低了遞迴式結構的好處。 在 1996 年,Lawrence [Lawrence et al., 1996]等學者,調查了數種遞迴式類神 經網路。實驗結果中顯示,由艾爾曼網路(Elman Network)建構的遞迴式類神經網 路對於學習適當的文法有不錯的成效,可以見得遞迴式類神經網路建構出階層式 的網路,幫助了句法或文法上的學習。 時間進入到 2000 年,逐漸有學者應用類神經網路於語言模型上,其中 Xu 和 Rudnicky [Xu and Rudnicky, 2000]比較了類神經網路語言模型和傳統 N 連語言模 型,實驗結果顯示類神經網路的學習能力的確超越了傳統 N 連語言模型。雖然在 語言複雜度(Perplexity)上類神經網路語言模型有不錯的成效,但是花費在估測的 時間上仍較傳統 N 連語言模型來的高許多。 Bengio [Bengio et al., 2001]於 2001 年則是使用了前饋式類神經網路於固定長 度的上下文上,透過類神經網路將維度降低,達到比傳統統計式模型還要好的成 效,也發現到此方法有益於較長的上下文與有不錯的一般化成果。 Goodman [Goodman, 2001]則將類神經網路語言模型與其他語言模型做比較, 發現此模型比混合許多模型的結果來得佳,如快取模型(Cache Model)及類別模型 (Class-based Model),之後 Schwenk [Schwenk et al., 2004, 2005, 2007]將之應用在. 22.

(31) 語音辨識上,大幅改善了基礎實驗的結果。 但是類神經網路語言模型仍有幾個主要的缺點需要改進,首先是令人詬病的 運算複雜度。由於是以詞為單位來訓練模型,加上隱藏層(Hidden Layer)至輸出層 (Output Layer)之間的大量運算,造成時間複雜度較高。另外,對於詞的表示方式 沒有考慮到其他額外的資訊,如:詞性或聲調等。除此之外,面對 OOV 的問題 類神經網路語言模型也沒有一個有效的解決方法,因此,Alexandrescu 等學者 [Alexandrescu and Kirchhoff, 2006]將每個詞都各自對應到一個特徵向量,每個向 量的維度則代表許多特徵,像是詞性或大小寫等等。如此一來,面對未曾出現過 的詞也有辦法找出其特徵向量,並且做到正確的估測。 2009 年,Mikolov 等學者 [Mikolov et al., 2009]使用類神經網路語言模型於屈 折語(Inflective Language)的語言上,由於屈折語的詞綴具備有多種意思,因此此 種語言視為相當挑戰的任務;而此篇論文利用不同大小的神經元數目和後撤式 (Backoff)語言模型做比較,效果相當顯著。 同年,Zamora-Martínez 等學者[Zamora-Martínez et al., 2009]針對類神經網路 語言模型龐大的時間複雜度進行了改進。他們將可事先運算好的資料儲存起來, 以空間換取時間上的效率,並且提出了階層式(Hierarchy)的概念,將不同高階和 低階的類神經網路語言模型做結合,以達到類似快取(Cache)的概念。 隔年,Park 等學者[Park et al., 2010]將類神經網路語言模型做了一點改進,他 們將輸入層(Input Layer)加入一個維度來訓練遇到 OOV 之情形,並在估測機率時, 使用不同類型的平滑化技術來比較。此外,也加入了一層適應層(Adaptation Layer), 期望加強類神經網路語言模型的適應能力,實驗結果於大詞彙語音辨識有不錯的 提昇。. 23.

(32) 而 Mikolov 等學者[Mikolov et al., 2010]在 2010 年時遂結合語言模型與遞迴式 類神經網路,並發展了遞迴式類神經網路語言模型套件供學者下載,實驗結果發 現遞迴式類神經網路語言模型有顯著的成效,若結合 N 連語言模型則有更進一步 的提昇。 2011 年時,Mikolov 等學者[Mikolov et al., 2011]將前一年所提出的遞迴式類 神經網路語言模型做了延伸,引入了 Goodman 等學者[Goodman et al., 2001]所提 出的概念。將輸出層額外分解出一層類別層,使隱藏層和輸出層間的運算大幅減 少,另外也在架構中加入一層壓縮層(Compression Layer),雖然成效比之前稍差 了一點,但卻大幅提升了運算速度。此外 Le 等學者[Le et al., 2011]則在類神經網 路語言模型的輸出層做了結構上的改進,利用分群以及決策樹的概念去估測機率。 除了在輸出層做改進的研究外,Kang 等學者[Kang et al., 2011]對類神經網路語言 模型在輸入層改為由字和詞混合當作輸入做了改進,並應用於大詞彙連續語音辨 識。 另一部分,也有研究學者將現行的語言模型和類神經網路語言模型或遞迴式 類神經網路語言模型做結合,例如傳統的 N 連語言模型[Oparin et al., 2012]、最大 熵值法(Maximum Entropy)[Mikolov et al., 2011]與快取語言模型[Zamora-Martínez et al., 2012]等。 而除了 Mikolov,許多學者也將類神經網路語言模型作為比較標準,如 Sarikaya 等 日 本 學 者 [Sarikaya et al., 2010] 將 共 享 混 和 語 言 模 型 (Tie-Mixture Language Modeling)和類神經網路語言模型做比較以及 Mikolov 等學者[Mikolov et al., 2011]將常見的語言模型做逐一比較。因此,我們可以得知類神經網路語言模 型之研究越趨重要。 由文獻中我們發現傳統前饋式類神經網路語言模型與遞迴式類神經網路語 24.

(33) 言模型有下列缺點:無法有效地獲得長距離資訊、OOV 問題、欠缺適應能力、運 算的時間複雜度過高以及詞的表示方式缺少了詞的特性。而許多研究學者針對這 些問題進行改進,也可另外分成以下幾類[Oparin et al., 2012]: . 對架構進行改進 從微觀來看,可將輸入層或輸出層進行改進,或是新增加幾層來做延伸;巨 觀來看則是將整體的架構進行改進,如遞迴式或階層式的方式,抑或是和其 他語言模型做結合。. . 對演算法進行改進 由於類神經網路也是一種模型學習的方法,則可以利用不同的演算法來進行 改良,使模型更具有一般性能力或是適應性能力。. 在下一章中,將介紹類神經網路語言模型於自動語音辨識之使用。. 25.

(34) 第3章 類神經網路語言模型於自動語音辨 識之使用 本章將透過兩種較常見用於語言模型之類神經網路做介紹,分別是類神經網路語 言模型(Neural Network-based Language Modeling, NNLM)和遞迴式類神經網路語 言模型(Recurrent Neural Network-based Language Modeling, RNNLM)。. 輸入層. y j (t )  f (net j ). 隱藏層. 輸出層. netk (t )   vkj x j (t )   k. net j (t )   v ji xi (t )   j. j. i. 權重 W. ……. ……. ……. 權重 V. yk (t )  g (netk ). 圖 3-1:前饋式類神經網路架構. 3.1.1 3.1.1.1. 倒傳遞式類神經網路 架構. 將神經元彼此連結即可構成類神經網路,類神經網路主要有三層,分別是輸入層 (Input Layer)、隱藏層(Hidden Layer)和輸出層(Output Layer)。有時會額外加入一 層投影層(Projection Layer),用來將歷史詞序列的資訊投影至此連續空間,並降低 輸入層的維度。輸入層沒有具備運算能力,表示方式是以詞為單位由訓練資料來. 26.

(35) 給予,依照輸入的資料型態需先做前處理;隱藏層則是用來處理輸入單元傳遞進 來的資料;輸出層用來表現網路的輸出結果。層跟層之間的神經元靠著突觸 (Synapse)來傳遞訊息。轉化為圖 3-1 則可將各層以向量表示,層之間的突觸則以 矩陣來表示。圖 3-1 就是簡單的類神經網路架構,也是前饋式類神經網路。接下 來先介紹各層所代表的意義: . 輸入層與隱藏層. 輸入層、隱藏層及輸出層中包含了許多節點,輸入層中的節點以變數 i 表示,隱 藏層的節點以變數 j 表示,輸出層的節點則以變數 k 表示。各層的節點結合後可 形成一個向量,式(3-1)為各節點在向量中的表示方式。xi(t)表示輸入層中於 t 時間 點第 i 個節點,其中 i 為 1 到 N 之間表示輸入層大小,N 為詞彙的數量。.  1 if 為對應詞的ID xi (t )    0 其他. (3-1). 在倒傳遞式類神經網路裡,向量 x 則會透過權重 V 來傳遞,而權重 V 會以矩陣的 方式來表示,權重 V 中包含了許多輸入層節點和隱藏層節點間的鏈結權重值。式 (3-2)為輸入層各節點傳遞至隱藏層中的節點 j。vji 是第 j 個隱藏層節點對第 i 個輸 入層節點的鏈結權重值,θj 為第 j 個隱藏層節點的偏權值,netj(t)為第 j 個隱藏層 節點淨輸入值,yj(t)則為第 j 個隱藏層節點。. net j (t )   v ji xi (t )   j i. (3-2). y j (t )  f (net j ) 其中, f(netj)為網路的活化函數(Activation Function),而激發函數大致分為下列 幾種:雙彎曲函數(Sigmoid Function)、高斯主動函數(Gauss Action Function)、雙 曲 線 正 切 函 數 (Hyperbolic Tangent Function) 、 片 段 線 性 函 數 (Piecewise-Linear 27.

(36) Function)和雙極性函數(Bipolar Function)。為了保證輸出值能介於 0 到 1 之間,本 論文中所使用的是雙彎曲函數,如下面式子所表示:. f ( x)  . 1 1  ex. (3-3). 隱藏層與輸出層. 如同輸入層與隱藏層,隱藏層的各個節點會透過權重 W 傳遞給輸出層,可以透過 式(3-4)來表示:. net k (t )   wkj y j (t )   k j. (3-4). y k (t )  g (net k ) 其中,wkj 是第 k 個隱藏層節點對第 j 個輸入層節點的鏈結權重值,θk 為第 k 個隱 藏層節點的偏權值,netk(t)為第 k 個隱藏層節點淨輸入值,yk(t)為第 k 個輸出層節 點。為了使輸出層各節點的值總和為 1,最後的 g(netk)為軟化最大值活化函數 (Softmax Activation Function),也是轉移函數(Transfer Function)的一種。如下式來 表示:. g ( x) . 3.1.1.2. ex k e k. (3-5). 倒傳遞演算法推導. 在運算完輸出層的結果之後,便會由誤差函數(Error Function)計算出誤差向量 e (Error Vector) 以降低輸出值(Output Value)和期望值(Desired Value)間的差距,接著 使用梯度下降法求取錯誤函數之最小值傳遞到層跟層之間的權重。而求得誤差向 量的方法為期望向量 d (Desired Vector)減去輸出向量 y (Output Vector),其中期望 向量在類神經網路語言模型裡可視為下一個字所表示的向量。接著以下為使用梯 28.

(37) 度下降法求得隱藏層與輸出層間的權重更新量 W 之推導。. W (t  1)  W (t )  W. (3-6). 其中,W (t  1) 為隱藏層跟輸出層間且時間點為 t+1 的權重,W (t ) 為時間點 t 之權 重,而 W 則是我們想求得的。首先先介紹誤差函數的定義:. E (t ) . 1  ek2 (t ) 2 k. (3-7). ek (t )  d k (t )  yk (t ). (3-8). 其中, E 為誤差函數,其使用的是均方誤差(Mean-Squared Error), ek 表示誤差向 量中第 k 個維度、d k 表示期望向量中第 k 維個維度和 y k 表示輸出向量中第 k 個維 度。接著利用梯度下降法對權重 W 偏微分可求得[Boden, 2002]:. W    . E (t ) W E (t ) y k (t ) net k (t ) y k (t ) net k (t ) W.  ek (t ). y k (t ) net k (t ) net k (t ) W.  ek (t ) g ' (net k (t )). (3-9). net k (t ) W.  ek (t ) g ' (net k (t )) y j (t ) 同理,我們也可以推導出輸入層與隱藏層間的權重更新量 V 。 V (t  1) 為輸入層 跟隱藏層間且時間點為 t+1 的權重, V (t ) 為時間點 t 之權重。. V (t  1)  V (t )  V. (3-10). 29.

(38) V    . E (t ) V. E (t ) y k (t ) net k (t ) y j (t ) y k (t ) net k (t ) y j (t ) V.  ek (t ) g ' (net k (t )). net k (t ) y j (t ) y j (t ) V.  ek (t ) g ' (net k (t ))W. (3-11). y j (t ) V.  ek (t ) g ' (net k (t ))W  f ' (net j (t )) xi (t ) i.  ek (t ) g ' (net k (t ))W  net j (t )(1  net j (t )) xi (t ) i. 圖 3-2:類神經網路語言模型架構. 30.

(39) 3.1.1.3. 類神經網路語言模型. 將類神經網路與語言模型結合的話,則可表示成圖 3-2。輸入層則為欲預測詞的 歷史資訊,其中歷史資訊以h表示。如圖 3-2所示則代表前三個詞的歷史資訊,因 此,此語言模型可視為一個四連的類神經網路語言模型。而每個詞使用one-of-N 方式進行編碼,例如詞 wi 的表示方式為在長度為N的向量中,只有第i維是1其餘 為零。接著將歷史資訊映射到投影層內來進行降低維度的作用,透過圖 3-3可以 實際了解到投影層能從投影層權重矩陣有效取得詞的權重資訊。將詞wi-3、wi-2和 wi-1透過投影層權重矩陣轉換成投影層,這部份可以了解到,詞序列的結構如果相 似,則可使用相同的權重來予以估計。例如有兩段詞序列的語句結構相似,「狗 在臥室裡奔跑(The dog runs in the bedroom)」和「貓在房裡走動(A cat walks in the room) 」 。因此皆會使用到相同的權重,儘管未在訓練語料中出現,仍可獲得一個 較佳的機率預測值,而不須藉由平滑化方法來協助估測下一個詞發生的可能性 [Bengio et al. 2000]。不同於N連語言模型因為訓練語料有限,無法完整收集到所 有可能的N連詞出現的統計資訊,進而造成資料稀疏的問題,投影層可以接受所 有可能的詞序列組合,並且詞序列中的每個詞能獨立貢獻出權重值來估測下一個 詞出現的可能性。因此投影層的目的即是將歷史詞序列的資訊映射到連續空間表 示,另外,歷史詞序列中詞的順序關係不會改變,所以能讓隱藏層來學習。隱藏 層的設計則和原本一樣,而隱藏層中神經元的數目則視為一個參數,需要去自行 調整來獲得最佳的預測。輸出層設計也和原本一樣,其大小跟輸入層一樣,是詞 彙的數量,不同的是每一維都會有各自預測出來的機率,可表示成 P( xi | h) 。最 後取機率最大的當作預測結果,再進行倒傳遞演算法來調整權重。. 31.

(40) 輸入層. wi-3. h. wi-2. wi-1. 投影層. 1 0 0 0 0 1. w11 w21 w13 w23 w12 w22. w11 w12 w13 w21 w22 w23. 0 1 0. 投影層權重矩陣. 圖 3-3:輸入層映射至投影層過程. 輸入層. 輸出層. 隱藏層. 權重 V. 權重 W. ……. ……. …… 權重 U. ……. 複製 前一次時間點 之隱藏層. 圖 3-4:遞迴式類神經網路架構 32.

(41) 3.1.2 3.1.2.1. 遞迴式類神經網路 架構. 有別於傳統類神經網路,遞迴式的類神經網路更能帶來好的訓練能力,一般常見 的是於 1990 年由 Elman 所發展的艾爾曼網路(Elman Networks)[Elman, 1990]。其 概念是將隱藏層的輸出當作下一次時間點隱藏層的輸入,而根據不同的需求也有 許多不同的網路形成,如喬丹網路(Jordan Networks)[Jordan, 1986]是將輸出層的輸 出 再 傳 遞 給 下 一 時 間 點 的 隱 藏 層 以 及 雙 向 遞 迴 式 類 神 經 網 路 (Bi-directional RNN)[Schuster and Paliwal]利用歷史資訊和未來資訊來做預測,使用的是兩個遞 迴式類神經網路來做結合及階層遞迴式類神經網路(Hierarchical RNN)等。本論文 則是以艾爾曼網路來進行探討。 遞迴式類神經網路結構可參考圖 3-4,此部分結構是把輸入層加大,且將上 一時間點的隱藏層利用暫存複製起來,若以時間方式來階層展開的話,將會更清 楚看出其遞迴的概念,如圖 3-5 所示。輸入層、隱藏層和輸出層設計也與之前一 樣,但是在前一時間點和目前時間點的隱藏層間會多增加一個權重 U。由於遞迴 式類神經網路具有時序處理(Temporal Processing)的能力,一般來評估此類型的網 路 常 會 注 意 它 們 的 穩 定 性 (Stability) 、 可 控 性 (Controllability) 及 可 觀 察 性 (Observability)。穩定性注重的是隨著時間改變,網路輸出結果需是受侷限的且輸 出後的調整量不可過於劇烈,例如網路中輸出的部份或權重。可控性在意的是「是 否能夠控制的動態行為」,如果在有限的步驟中,一個初始狀態是可控制至任何 期望的狀態,則此遞迴式網路可被稱為具有可控性的。可觀察性關注的是「是否 可觀察出控制應用的結果」,如果網路的狀態可以確定從一組有限的輸入或輸出 測量,則稱做此網路有可觀察性。而與一般類神經網路不同之處,除了結構上的 改變外,演算法部分也有進行調整,接著就介紹時序性倒傳遞演算法 33.

(42) (Backpropagation Through Time)[Werbos, 1990]。. x(t) x(t-1) x(t-2). ……. ……. ……. 權重 V. 權重 V. 權重 V. 權重 V. ……. ……. ……. ……. ……. 權重 U. 權重 U s(t). 權重 U s(t-1) s(t-2). s(t-3). 圖 3-5:以時間階層式展開之遞迴式類神經網路架構. 3.1.2.2. 時序性倒傳遞演算法推導. 與倒傳遞演算法不同的地方,遞迴式類神經網路是利用時間的變化來調整權重值, 也就是說會調整不只一次且經由不同時間點上的隱藏層資訊來進行調整。如圖 3-5 所示,在時間點 t 所使用的權重是過去時間點所累積的,但利用此方法必須要 記錄所有歷史資訊及過去的網路狀態,這將造成記憶體不足和運算量倍增的問題。 因此需定義一個變數  當作遞迴的次數[Bengio et al., 1994],以此來決定想使用多 少的歷史資訊,並且忽略掉更早之前的資訊。如前述所提到,假使網路是穩定的 話,則權重的更新量將會隨著時間越來越小,這是因為網路倚靠有力的小幅度回 饋來增加強度。換句話說,將更早之前的資訊忽略掉並不會造成太大的問題,透 過多次的回饋則可彌補此缺點。 34.

(43) 其中,誤差函數則增加了時間上的累計,如式(3-12)所示。 Etotal (T    1, T ) 則 代表從時間點 T    1到 T 的誤差總和,T 為目前的時間點。 Etotal (T    1, T ) . T.  E (t ). (3-12). t T  1. 由於推導過程大致和類神經網路相似,在此就將兩者之間的差別點出。其中隱藏 層和輸出層間更新權重 W 的部分和類神經網路相同,式(3-13)則是表示權重 V 與 權重 U 在輸入層和隱藏層間的關係。. y j (t )  f ( v ji xi (t )   u jj y j (t  1)) i. (3-13). j. 因此權重 V 與權重 U 的更新量可以由式(3-14)和式(3-15)來求得。 V  . T Etotal (T    1, T ) E (t )    V t T  1 V. U  . T Etotal (T    1, T ) E (t )    U t T  1 U. (3-14). (3-15). 所以我們可以得到前  次的更新量,並用包含歷史資訊的權重來做預測。 3.1.2.3. 遞迴式類神經網路語言模型. 遞迴式類神經網路語言模型和類神經網路語言模型主要的差別除了少了投影層、 增加了前一時間點的隱藏層外,另一個差別就是輸入層部分。在訓練過程時,輸 入層這邊是一次以一個詞來表示並訓練,表示方法則與傳統前饋式類神經網路語 言模型相同。它期望透過遞迴的方式獲得長距離之資訊,來做更好的預測,但也 有研究學者[Bengio et al., 1993, 1994]指出透過梯度下降法對於學習長距離資訊有 一定的困難。我們對權重 V 來舉例,假設目前正計算詞序列中第 T 個詞要回饋給. 35.

(44) 權重 V 的誤差量,因此可以表示成如式(3-16)所示。t 為詞序列中位置的索引。 E (T ) E (T ) y j (t ) E (T ) y j (T ) y j (t )   V V V t T y j (t ) t T y j (T ) y j (t ). (3-16). 接著可藉由連鎖率將式(3-16)中,以 y j (t ) 對 y j (T ) 偏微分展開得到式(3-17)。 T y(T ) y(T ) y(T  1) y(t  1) y(m)    (t ) (T  1) (T  2) (t ) mt 1y (m  1). (3-17). 因此可以得知,由於式(3-17)等號右邊部份必定會小於 1,且當時間點 t 遠小於目 前時間點 T 時,鏈鎖率會不斷的延伸,最終連乘積則會趨近於零。推導結果說明 了,遠距離部份的權重更新量只有小幅度的改變,而近距離部份則會有較明顯的 影響。所以,遞迴式類神經網路仍然缺乏長距離資訊,但對於中短距離資訊部份, 尚可以有效地獲得,也因此許多研究顯示遞迴式類神經網路語言模型的效果好於 類神經網路語言模型。. 36.

(45) 第4章 探索遞迴式類神經網路語言模型之 改進 4.1. 結合關聯資訊於遞迴式類神經網路語言模型 輸入層. …… 輸出層. 隱藏層 權重 V. 權重 W. ……. ……. ……. 關聯向量. 權重 U. ……. 複製 s(t),前一次時 間點之隱藏層. 圖 4-1:關聯資訊遞迴式類神經網路架構 傳統統計式 N 連語言模型是容易使用且常見的方法之一,但此模型仍有缺乏長距 離資訊與資料稀疏之問題。而使用倒傳遞式類神經網路語言模型能有效解決資料 稀疏之問題,可惜在長距離資訊上仍稍嫌不足,因此遞迴式類神經網路語言模型 的發展希望能夠取得更多長距離資訊。許多國外研究也顯示遞迴式類神經網路語 言模型的確能比倒傳遞式類神經網路語言模型帶來更好的成效,這也是本論文使 用遞迴式類神經網路語言模型來探討之原因。遞迴式類神經網路語言模型中回饋 的方式是使用時序性倒傳遞演算法,然而,遞迴式類神經網路被證明出此模型無 法有效獲得長距離的資訊。因此,本論文透過加入關聯資訊(Relevance Information) 來輔助預測下一個詞,其示意圖可以見圖 4-1。而關聯資訊則以向量來表示,大 37.

(46) S1. w1. w3. w2. RS11. w1. w3. w5. RS21. w1. w3. w5. w1. w3. w2. 1. 0. 0. 0. 0. 1. 0. 1. 0. 0. 0. 0. 0. 0. 0. Rw1. Rw3. Rw2. 1. 1. 1. 0. 0. 0. 1. 1. 1. 0. 0. 0. 1. 1. 1. 圖 4-2:語句關聯資訊概念圖 小如同原本的輸入層一樣;因此,本論文將輸入層擴增為兩倍,前半段為原本訓 練資料的資訊,後半段為對應訓練資料的關聯向量。關聯向量主要又分為兩種, 一種為句子間的關聯,稱做語句關聯資訊(Sentence Relevance Information),另一 種為詞跟詞之間的關聯,稱為詞關聯資訊(Word Relevance Information)。語句關聯 資訊的產生,是將欲檢索的句子放進訓練語料中進行一次檢索,檢索完可得知對 所有訓練語句的關聯分數,根據此關聯分數我們可以決定要使用多少關聯語句來 當作關聯向量。圖 4-2 為語句關聯資訊的概念圖,以句子 S1 為例, S1 中包含了詞. w1 、 w3 和 w2 。 R1 則為對應 S1 的語句關聯資訊,但遞迴式類神經網路語言模型是 以詞為單位進行訓練,因此賦予每個詞的關聯資訊皆為此句的語句關聯資訊。 Rw1 、. Rw3 和 Rw2 則為詞 w1 、 w3 和 w2 所對應的關聯資訊。詞關聯資訊則是從訓練語料中 收集於左右相鄰文段中,相隔一定距離內詞出現的頻率,其結果會得知數個關聯 的詞,每個詞的關聯資訊長度也皆不同,其概念如圖 4-3 所示。從圖中可看到, 和語句關聯資訊不同之處,為每個詞擁有自己的關聯資訊,若在測試階段時遇到 38.

(47) S1. w1. w3. w2. Rw1. w1. w3. w4. w1. w2. w3. Rw3. Rw2. w1. w3. w5. w1. w3. w2. 1. 0. 0. 0. 0. 1. 0. 1. 0. 0. 0. 0. 0. 0. 0. Rw1. Rw3. Rw2. 1. 1. 1. 0. 1. 0. 1. 1. 1. 1. 0. 0. 0. 0. 1. 圖 4-3:詞關聯資訊概念圖 未曾看過的詞,則無法進行訓練,所以也不會有關聯資訊的部份。 另外,本論文將關聯資訊以三種不同方式來表示,分別為詞頻、正規化及設 定為 1 來進行探討,去看其關聯資訊帶來之影響。以詞頻表示則代表我們使用實 際的次數來增加詞與詞之間的關聯性,具有較真實的資訊;以正規化表示使所有 關聯資訊的總和為 1,此表示法以較公平的方式來給予值,貢獻大的,也就是次 數較多的則值越高,反之,貢獻低的則值較低;而以設定為 1 來表示,則是將有 次數出現的維度以 1 來表示,因此此種表示法代表詞與關聯詞之間,其關聯程度 均相同。 除此之外,也發展了動態詞關聯的方式,由於每個詞所對應的關聯資訊是固 定的,因此我們將歷史詞序列中的關聯資訊做結合,得到新的關聯資訊。其中, 因為每個詞的歷史詞序列大部分皆不同,所以結合歷史詞序列對應的關聯資訊不 易得到相同的關聯資訊。而根據歷史資訊的遠近,分別使用不同權重來做結合, 39.

(48) 越遠的歷史資訊則隨著時間越來越小,我們可以用遞迴的方式以式(4-1)來表示。  Rw' t  Rwt if t  0,  '  if 0  t  L, Rwt  (1   )  Rwt 1    Rwt. (4-1). Rwt 為在 t 時間點之原始關聯資訊, Rw' t 為新獲得的關聯資訊, L 為在該語句中的 詞數目,  則為可調控之參數。 一開始時,詞的關聯資訊為原始的關聯資訊;而當時間點大於 0 且小於等於 句子長度時,會與所有歷史詞的關聯資訊做線性結合。因此距離越遠的詞,其關 聯資訊的權重就越小,相反地,距離越近的詞,其關聯資訊的權重就越大,因而 達到動態效果的詞關聯資訊。本論文的  值為 0.6。以圖 4-4 為例,句子 S1 中含 有六個詞,假設我們需藉由詞 wt 的關聯資訊來做下一個詞發生的可能性,而詞 wt 的關聯資訊可以表示成歷史詞序列所對應的關聯資訊加總,權重部份則取決於詞 的距離。. S1. wt-3. wt-2. wt-1. wt. Rwt 3. Rwt 2. Rwt 1. Rwt. ?. ?. Rw' t  0.064 Rwt 3  0.096 Rwt 2  0.24 Rwt 1  0.6 Rwt. 圖 4-4:動態詞關聯資訊範例. 40.

(49) 語句相關之遞迴式類神經網路語言模型. 4.2. 基礎辨識器. xxx…… xxxxxx…. …. xx….. 訓練 語料. 測試 語料. K-means. M條最佳 辨識結果. … P群訓練語料. … P組RNNLM. xxx…… xxxxxx…. …. xx….. 組合係數. 重新排序 M條最佳 辨識結果. 圖 4-5:語句相關之遞迴式類神經網路語言模型流程圖. 本節希望藉由動態的語言模型調整方式來輔助估測,因此對於不同測試語句使用 不同的遞迴式類神經網路語言模型或是結合不同群的遞迴式類神經網路語言模 型。 由於所有測試語句皆使用相同訓練語料訓練出的遞迴式類神經網路語言模 41.

(50) 型,因此,本論文希望針對各句測試語句,以線性組合的方式,結合不同訓練語 料所訓練出的遞迴式類神經網路語言模型,期望找出較適合各句測試語句的遞迴 式類神經網路語言模型。其實作步驟如圖 4-5 所示。一開始,先將所有訓練語句 的正確轉寫語句以單連詞向量(Unigram Word Vector)表示,並進行分群(Clustering)。 本論文所使用的分群方法為 K 平均演算法(K-means)[MacQueen, 1967],在透過分 群過後,我們可用各群所分好的訓練語句來訓練各群的遞迴式類神經網路語言模 型,假設所有訓練語句可分為 P 群。接著,對 P 群中每一群訓練語句分別算出各 自的特徵權重向量,意即平均向量(Mean Vector),此部分可由每一群中各句訓練 語句的單連詞向量進行加總並取平均求得。可以用式(4-2)來表示: Lp. vp . v. p ,k. k 1. (4-2). Lp. 其中 v p ,k 為第 p 群中第 k 句的單連詞向量, v p 是第 p 群的平均向量,L p 為 p 訓練語句群中所含訓練語句之句數。 如此一來,當有一測試語句需要進行估測時,可以利用此測試語句之單連詞特徵 向量和所算好的各群特徵權重向量來求取相似度(Similarity),並選取欲使用的遞 迴式類神經網路語言模型或結合不同群的遞迴式類神經網路語言模型。由於我們 無法得知測試語句的正確轉寫語句,因此測試語句之單連詞特徵向量皆為各句中 M 條最佳辨識結果中的第一名。 本論文主要使用三種選取方式來選取,在計算相似度時,使用的是餘弦值來 計算:. cos(U k , RNNLM p ) . uk  v p uk. 2. vp. 2. 42. (4-3).

參考文獻

相關文件

蔣松原,1998,應用 應用 應用 應用模糊理論 模糊理論 模糊理論

F., “A neural network structure for vector quantizers”, IEEE International Sympoisum, Vol. et al., “Error surfaces for multi-layer perceptrons”, IEEE Transactions on

Ahmad, A Variable Block Size Motion Estimation Algorithm for Real-time H.264 Video Encoding,  Signal Processing: Image Communication,

D.Wilcox, “A hidden Markov model framework for video segmentation using audio and image features,” in Proceedings of the 1998 IEEE Internation Conference on Acoustics, Speech,

[16] Goto, M., “A Robust Predominant-F0 Estimation Method for Real-time Detection of Melody and Bass Lines in CD Recordings,” Proceedings of the 2000 IEEE International Conference

[7]Jerome M .Shapiro “Embedded Image Using Zerotree of Wavelet Coefficients”IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL,41,NO.12,DECEMBER 1993. [8 ]Amir Said Willam

Harma, “Automatic identification of bird species based on sinusoidal modeling of syllables,” in Proceedings of IEEE International Conference on Acoustics, Speech,

Kalker, “Speed-Change Resistant Audio Fingerprinting Using Auto-Correlation,” in IEEE International Conference on Acoustics, Speech, and Signal Processing, vol. Kalker,