• 沒有找到結果。

實驗結果

在文檔中 摘要 (頁 43-50)

8.  實驗

8.2.  實驗結果

41

42

的判斷來取得相對的速度。由於起音點的判斷可利用能量的特徵來取得,而 MDCT 和 MPEG-7 兩種特徵值皆具有能量上的特性,因此在判讀力度、速度都可以有不錯的結 果,而 MFCC 特徵值一般是用於分析頻譜上的特性,因此在力度和速度的判斷上,正 確率都較低。將各個特徵混和部分,由於其包含各種特徵的計算特徵,因此速度偵測的 正確率達到76.62%,而力度偵測的正確率為 88.54%。

表9、類神經網路分析結果

表10、樂理為基礎之規則式判讀結果

以樂理為基礎之規則式判讀來說,由圖 35 中可看出除了小調和速度慢以外其他特 徵準確率皆接近類神經網路分析的結果。速度偵測正確率較低的原因,主要是因為鋼琴 演奏時除主旋律外,一般會再加上左手的伴奏,造成了偵測的音符較主旋律音符為多 確,因此偵測速度慢的樂曲,正確率會大幅降低。而在調性偵測上,由於Temperley 提 出的音高側寫在大調的12 家族權重分數加總會略大於小調家族權重分數的加總。所以 當音樂片段的家族組成音出現較為平均的狀況時,就會優先判為大調,因此在大調的偵

43

測機率上會高於小調。圖35 為利用本論文所提出之兩種影響音樂表情之三種主要音樂 特性判讀(調性、速度、力度)的正確率結果比較圖,由結果我們可以知道使用三種混和 特徵後輔以樂理判斷可得到最佳結果。

圖35、音樂表情特徵正確率結果

取得音樂表情特徵後,緊接著我們進一步的透過類神經網路分析,以了解此音樂片 段給人的聆賞情緒分佈情況(如表 11)。由表 11,我們可以看出音樂片段給人的聆賞情緒 分佈情況,結果中負值之意義代表最不可能包含該情緒的程度。

表11、音樂聆賞情緒程度分佈表

44

因此當出現負值的情緒分類結果,我們便直接將其值視為0。利用音樂感知色彩模

型,將其視覺化呈現出每個樂曲所包含之不同情緒的程度。各代表性樂曲的聆賞情緒分 析示意圖如下(圖 36~圖 43 所示)。

圖36、蕭邦第 1 號練習曲 op10-1 之情感示意圖-熱情的

圖37、貝多芬-第 23 號奏鳴曲第二樂章之情感示意圖-雄偉的

圖38、貝多芬-第 10 號奏鳴曲第二樂章之情感示意圖-優美的

45

圖39、蕭邦第 18 號練習曲 op25-6 之情感示意圖-善感的

圖40、蕭邦第 23 號練習曲 op25-11 之情感示意圖-平靜的

圖41、貝多芬-第 8 號奏鳴曲第一樂章之情感示意圖-悲愴的

46

圖42、貝多芬-第 2 號奏鳴曲第一樂章第二主題之情感示意圖-高貴的

圖43、貝多芬-第 10 號奏鳴曲第一樂章第一主題之情感示意圖-快樂的

計算出一首樂曲音樂聆賞情緒分佈的資訊後,我們根據該音樂片段所包含之情緒最 高的分數,當作分類依據,並根據該片段所計算出之音樂表情影響因子,透過4.2 節所 提出之音樂感知情緒模型,加以對應比較統計後,表12 為情緒分類結果之混淆矩陣。

表12 中,較值得注意的是雄偉的情緒,主要是在強度強的情況下,由於能量相對的較 大,而此會造成偵測起音點的誤差,進一步的造成速度的音樂特性偵測嚴重誤差,因而 使雄偉的情緒被分類為熱情的情緒比例達到37.12%。由表 12 所示,可看出有 15 首雄 偉的樂曲片段被分類至熱情的。

除此之外我們亦針對以樂理為基礎所偵測出的音樂特性的結果,並對應至我們所提

47

出之音樂感知情緒模型,再透過原始樂理的標示和樂理解析取得之情緒描述,來判斷分 類結果的正確率,最後得到整體的正確率僅36.31%。而根據表 13,我們可以看出僅使 用MDCT 特徵值、MFCC 特徵值、MPEG-7 特徵值或三種混和特徵值分類音樂情緒時,

結果分別為38.81%、38.99%、36.64%以及 43.75%。但加入以樂理規則為基礎的音樂特 性偵測出之結果後,進一步的分類音樂情緒,可看出音樂情緒分類的正確率有很大幅度 的提高,主要是因為以樂理為基礎之音樂特徵分類結果,雖然僅僅只有 36.31%,但其 在影響音樂表情因子之分類正確的結果,對應音樂感知情緒模型時的正確的結果都很 高,因此可在最後分類的結果大幅提高正確率,可以使正確率從原來的 43.75%提昇至 58.33%。

表12、特徵值混和音樂特性+樂理規則為基礎的聆賞情緒分類情緒結果之混淆矩陣

表13、類神經網路根據不同特徵值分類之音樂聆賞情緒分類結果

48

在文檔中 摘要 (頁 43-50)

相關文件