• 沒有找到結果。

寬頻語音的多重敘述解碼實驗

第五章 實驗模擬與結果分析

5.4 寬頻語音的多重敘述解碼實驗

10 15 20 25 30

Channel SNR(dB)

Parameter SNR(dB)

iter 0 MDQS2-LOG iter 1 MDQS2-LOG iter 2 MDQS2-LOG iter 3 MDQS2--LOG iter 0 MDQS2-Prob iter 1 MDQS2-Prob iter 2 MDQS2-Prob iter 3 MDQS2-Prob

圖 5.10 機率與對數領域的索引層級合併解碼結果[(Q,M)=(32,3)]

5.3.2 結果分析

如同前述預期,對數式的解碼演算法可呈現如機率式演算法的 系統效能,從圖 5.9 與圖 5.10 可以看出這種效果。

5.4 寬頻語音的多重敘述解碼實驗

5.4.1 系統模擬之步驟說明

圖 2.6 為多重敘述系統的模擬架構。實驗設定是參考文章[11],

我們使用大量男聲與女聲的訓練語料經過 AMR-WB 的編碼過程得到 194881 組

ISF

索引集合,並記錄其個別的索引事前機率與 1 階事前

消息,以及

ISF

參數索引經由索引配置後得到的敘述索引之 0 階與 1 解碼效果,則可使用平均頻譜失真(Average Spectrum Distortion) 公式。對第 m 個音框而言,其頻譜失真為

( ) ( ( ) )

2

度,在通道環境漸佳時也是呈現最低的失真趨勢,且在-1dB 的環境 條件下就達到零失真的程度,而另外三種解碼曲線則要到 0dB 時才 能完全達到零失真。系統效能基本上大致呈現 MDQB1< MDQB2<

MDQS1<MDQS2。

log Q2

表 5.1 ISF 索引所配置的指定矩陣

SNR MDQB1 MDQB2 MDQS1 MDQS2

ISF_1 0.9106 1.691 1.8544 2.8973

ISF_2 0.96 1.8886 2.2183 3.7733

ISF_3 0.9772 2.0419 2.3735 3.8999

ISF_4 1.1858 2.0784 2.3028 4.1237

ISF_5 1.4918 2.3234 2.5841 4.5924

ISF_6 1.4144 2.2399 2.5624 4.217

ISF_7 1.5775 2.3019 2.5106 4.2659

ISF_8 1.0217 1.7025 1.8646 3.4707

ISF_9 1.0632 1.8126 2.0582 3.5223

ISF_10 1.782 3.2683 3.532 5.2868

ISF_11 1.9454 3.2639 3.1924 5.1508 ISF_12 2.0189 3.3322 3.2325 4.9065 ISF_13 1.8841 3.1626 3.2311 4.6514 ISF_14 1.7555 3.1591 3.4475 4.6192 ISF_15 1.4997 2.7278 3.3685 4.0553 ISF_16 1.7413 2.6524 2.9087 3.3398

表 5.2 各種疊代解碼機制的參數重建結果(iteration 1,-6dB AWGN)

SNR MDQB1 MDQB2 MDQS1 MDQS2

ISF_1 9.5111 11.3028 15.0131 19.521 ISF_2 10.015 12.5991 16.673 22.4493 ISF_3 10.2376 13.2688 17.4786 22.9295 ISF_4 10.3706 13.1011 17.1633 22.9445 ISF_5 10.65 13.1671 17.1061 23.4802 ISF_6 10.5061 13.0593 17.0186 22.1812 ISF_7 10.3288 12.5007 16.1361 21.963 ISF_8 10.075 12.0566 15.7149 21.4539 ISF_9 10.2545 12.6512 16.598 21.6076 ISF_10 11.9945 15.6287 20.8553 25.3414 ISF_11 12.2088 15.3599 19.7176 24.7681 ISF_12 12.201 15.1131 18.6924 23.5123 ISF_13 11.9416 14.788 18.753 23.0013 ISF_14 11.8129 15.1371 19.2865 23.0225 ISF_15 11.5337 14.3875 18.584 21.1498 ISF_16 11.9659 14.4901 18.0207 20.0448

表 5.3 各種疊代解碼機制的參數重建結果(iteration 1,-2dB AWGN)

SNR MDQB1 MDQB2 MDQS1 MDQS2 ISF_1 42.3956 45.3601 49.9757 56.0422 ISF_2 44.1926 48.0146 51.975 60.1518 ISF_3 44.3664 47.2766 52.5995 61.6378 ISF_4 45.0454 47.4923 52.6563 59.6475 ISF_5 45.0677 47.4717 53.0667 60.4514

ISF_6 44.804 47.197 53.2625 59.15

ISF_7 43.8996 46.74 51.9929 57.9917 ISF_8 44.1562 46.9985 52.4662 58.6164 ISF_9 44.7265 48.1009 53.7118 58.9691 ISF_10 46.9319 51.1037 59.2345 61.4033 ISF_11 46.5902 50.4927 58.0753 60.4886 ISF_12 46.3973 50.5752 55.6705 58.7718 ISF_13 45.9208 49.8443 57.84 58.3817 ISF_14 46.2341 50.8883 57.0689 58.372 ISF_15 45.9391 48.8297 55.8611 56.3752 ISF_16 45.6684 48.4673 53.7005 55.0338

表 5.4 各種疊代解碼機制的參數重建結果(iteration 1,2dB AWGN)

SNR MDQB1 MDQB2 MDQS1 MDQS2

ISF_1 0.9626 1.8919 1.9491 4.4158

ISF_2 1.0027 2.1119 2.3346 5.6881

ISF_3 1.0178 2.2593 2.5025 5.9353

ISF_4 1.2196 2.2835 2.4134 6.1181

ISF_5 1.5276 2.5337 2.6876 6.6005

ISF_6 1.4546 2.4589 2.6634 6.0044

ISF_7 1.6122 2.532 2.6088 6.1587

ISF_8 1.0611 1.9111 1.9545 5.2721

ISF_9 1.1027 2.0155 2.1487 5.2044

ISF_10 1.8578 3.4703 3.7924 6.7091 ISF_11 2.0184 3.4843 3.4402 6.5603

ISF_12 2.0889 3.569 3.469 6.2519

ISF_13 1.9494 3.3863 3.4572 5.9406 ISF_14 1.8106 3.3661 3.6499 5.8914 ISF_15 1.5576 2.9316 3.5436 5.1689 ISF_16 1.7882 2.8583 3.0885 4.3841

表 5.5 各種疊代解碼機制的參數重建結果(iteration 3,-6dB AWGN)

SNR MDQB1 MDQB2 MDQS1 MDQS2 ISF_1 10.548 15.8068 15.6839 28.6691 ISF_2 11.1258 17.254 17.3828 31.9567 ISF_3 11.4038 18.0575 18.2345 33.5826 ISF_4 11.5168 17.7221 17.9359 31.7132 ISF_5 11.7612 17.7755 17.8821 32.1191 ISF_6 11.6116 17.5788 17.7586 30.8066 ISF_7 11.4696 17.1176 16.8983 29.5394 ISF_8 11.1698 16.579 16.4298 29.2682 ISF_9 11.3296 17.0034 17.2658 29.3872 ISF_10 14.082 20.705 22.4727 32.5194 ISF_11 14.3037 20.4543 21.2624 31.6674 ISF_12 14.3121 20.18 20.2447 30.5018 ISF_13 14.1095 19.9363 20.3079 30.4339 ISF_14 13.91 20.0763 20.7274 30.061 ISF_15 13.5517 19.2586 19.8775 27.9437 ISF_16 13.7585 19.1804 19.1744 26.8451

表 5.6 各種疊代解碼機制的參數重建結果(iteration 3,-2dB AWGN)

SNR MDQB1 MDQB2 MDQS1 MDQS2

ISF_1 43.2561 52.7065 50.2398 62.7487 ISF_2 45.3566 55.5958 52.3132 65.2597 ISF_3 45.7871 56.0317 53.0455 66.8739 ISF_4 46.2872 56.3912 53.116 64.7589 ISF_5 45.9181 56.3005 53.5136 65.3525 ISF_6 45.9322 55.6945 53.7048 64.7216 ISF_7 44.8761 54.5963 52.3293 62.5586 ISF_8 45.2731 54.4853 52.741 61.9843 ISF_9 45.9608 56.0527 53.8112 62.732 ISF_10 49.7514 60.0964 59.6156 64.7507 ISF_11 49.3106 59.6623 58.6961 64.3005 ISF_12 49.0774 59.4549 56.4633 63.1424 ISF_13 48.6054 58.4647 57.9431 63.4353 ISF_14 49.3953 58.0347 57.6186 64.2589 ISF_15 47.7727 55.3074 56.2325 60.9002 ISF_16 47.6215 54.7702 54.6831 59.3123

表 5.7 各種疊代解碼機制的參數重建結果(iteration 3,2dB AWGN)

-6 -5 -4 -3 -2 -1 0 1 2

Average Spectrum Distortion(dB)

iter 0 MDQB1 iter 1 MDQB1 iter 2 MDQB1 iter 3 MDQB1 iter 0 MDQB2 iter 1 MDQB2 iter 2 MDQB2 iter 3 MDQB2

圖 5.11 位元層級疊代解碼器的平均頻譜失真結果

Average Spectrum Distortion(dB)

iter 0 MDQS1 iter 1 MDQS1 iter 2 MDQS1 iter 3 MDQS1 iter 0 MDQS2 iter 1 MDQS2 iter 2 MDQS2 iter 3 MDQS2

圖 5.12 索引層級疊代解碼器的平均頻譜失真結果

-6 -5 -4 -3 -2 -1 0 1 2 0

1 2 3 4 5 6

Channel SNR(dB)

Average Spectrum Distortion(dB)

iter 0 MDQB1 iter 1 MDQB1 iter 2 MDQB1 iter 0 MDQB2 iter 1 MDQB2 iter 2 MDQB2 iter 0 MDQS1 iter 1 MDQS1 iter 2 MDQS1 iter 0 MDQS2 iter 1 MDQS2 iter 2 MDQS2

圖 5.13 各種疊代解碼器的平均頻譜失真結果

第六章 結論與未來展望

本論文先提出位元層級的疊代訊源通道解碼演算法,分成平行式 與交叉式兩種架構。平行式解碼架構對其所接收的雙敘述資訊是採用 分開獨立解碼的方式,亦即每個敘述是個別採用傳統的疊代解碼演算 法;交叉式解碼架構則考量到雙敘述之間的相關特性,並引入另一敘 述的通道資訊提供訊源解碼器解碼之用,可有效提升系統效能。此 外,考量到位元層級後驗機率推導所採用的位元獨立假設並不符合實 際情況,因此提出索引層級的疊代解碼演算法,其架構又可分為平行 式與合併式兩種。平行式解碼架構改良自位元層級平行式解碼演算 法,其通道解碼器使用索引層級之 BCJR 演算法,而訊源解碼器採用 軟性位元解碼演算法。而合併式解碼架構,其訊源解碼器同時使用收 到的雙敘述資訊作解碼,以及考量相關性較強的量化索引一階事前消 息,較平行式解碼而言,更能有效地運用雙敘述的接收資訊以達到高 解碼效能。

在機率領域的解碼演算法有其運算複雜度與精準度有限的問 題,因此我們特別針對性能最佳的索引層級合併式解碼架構,提出其 對數領域的解碼演算法,以解決硬體設計與即時製作的困難度。實驗 模擬中採用的訊號源包括有仿語音的一階自迴歸模型以及真實語料

經寬頻語音編碼後的資訊,兩者驗證皆符合理論預期。實驗結果顯示 索引層級解碼演算法優於位元層級解碼演算法,索引層級中的合併式 解碼架構優於平行式解碼架構,而位元層級之交叉式架構優於平行式 架構。此外,在索引層級之合併式解碼架構中,對數與機率不同領域 的實驗模擬驗證了對數式模型不僅可簡化運算複雜度,且無資訊呈現 的失真問題。

目前提出的演算法架構皆基於通道無記憶性的假設前提,但現實 的通訊環境是無法以此簡單的機率模型模擬之,以致應用在實際通道 的傳輸效能將會有一定程度的衰減。為了解決此應用層面的問題,未 來研究必須基於記憶性通道模型來設計解碼器,或者使用更近似於實 際通道特性的模型來推導解碼演算法。此外,傳輸架構中的交錯器也 扮演影響整體系統效能的關鍵角色,將來可進一步比較不同大小的區 塊交錯器與偽隨機交錯器(Pseudo random interleaver)效能上的差 異,以便找出最佳的交錯器設定。

參考文獻

[1] V.A. Vaishampayan, “ Design of multiple description scalar

quantizers, ” IEEE Transactions on Information Theory, vol. 39, pp.

821-834, May 1993.

[2] N. Görtz, and P. Leelapornchai, “ Optimization of the index

assignment for multiple description vector quantizers,” IEEE Trans.

Commun., vol.51, no.3, pp.336-340, Mar. 2003.

[3] C. Berrou, A. Glavieux, and P. Thitimajshima, “ Near Shannon limit error correcting coding:turbo codes, ” in Proc. IEEE International Conference on Communication(ICC), pp. 1064-1070, 1993.

[4] Chi-Shung Tseng, Wen-Whei Chang, “ Channel-Matched Index Assignment Design In Multiple Description Quantization, ” Master thesis, National Chiao Tung University, June 2008.

 

[5]  B. Bessette, R. Salami, R. Lefebvre, M. Jelinek, J. Rotola-Pukkila, J.

Mikkola, H. Vainio, and K. Jarvinen, “ The Adaptive Multirate Wideband Speech Codec(AMR-WB). ” IEEE Transcations on speech and audio processing, vol.10, no.8, pp.620-636, Nov. 2002.

[6] Yen-Chang Pan, Wen-Whei Chang, “ Index-Based Iterative

Source-Channel Decoding, ” Master thesis, National Chiao Tung University, June 2008.

[7] J. Barros, J. Hagenauer, and N. Görtz, “ Turbo cross decoding of multiple descriptions, ” in Proc. IEEE ICC, vol. 3, 2002, pp.

1398–1402.

[8] M. Srinivasan, “ Iterative decoding of multiple descriptions, ” in Proc.

IEEE DCC, March 1999, pp. 3–22.

[9] M. Adrat, “ Iterative Source-Channel Decoding for Digital Mobile Communications, ” PhD thesis, Aachen University of Technology,

July 2003.

[10] J. Max, ” Quantizing for minimum distortion, ” IRE Trans. Inform Theory, vol. IT-6, pp. 7-12, Mar 1960.

[11] Chih-Chien Tsai, Wen-Whei Chang, “ A Study of robust wideband speech coding, ” Master thesis, National Chiao Tung University, June 2007.

相關文件