• 沒有找到結果。

系統環境

在文檔中 中 華 大 學 (頁 43-56)

第四章 實驗結果

4.1 系統環境

31

32

𝑇𝑀𝐸(𝑃𝑀𝑉) = 𝑇𝑀1 + 𝑇𝑀𝑉 𝑃𝑟𝑒𝑑𝑖𝑐𝑡𝑜𝑟2 + 𝑇𝑆𝑢𝑏𝑀𝐸2 + ⋯ + (𝑇𝑀𝑉 𝑃𝑟𝑒𝑑𝑖𝑐𝑡𝑜𝑟𝑓 + 𝑇𝑆𝑢𝑏𝑀𝐸𝑓 ) (4-3)

由於 (𝑇𝑀𝑉 𝑃𝑟𝑒𝑑𝑖𝑐𝑡𝑜𝑟𝑙 + 𝑇𝑆𝑢𝑏𝑀𝐸𝑙 ) ≪ 𝑇𝑀𝑙 ,考慮總和起來花掉的時間本演算法將會相 當接近單一參考幀(Single Reference) 所花費的時間:

𝑇𝑀𝐸(𝑆𝑖𝑛𝑔𝑙𝑒 _𝑅𝑒𝑓 ) ≈ 𝑇𝑀𝐸(𝑃𝑀𝑉)≪ 𝑇𝑀𝐸(𝑀𝑢𝑙𝑡𝑖 _𝑅𝑒𝑓 ) (4-4)

( 𝑇𝑀𝐸(𝑆𝑖𝑛𝑔𝑙𝑒 _𝑅𝑒𝑓 ) 是只對前一張做移動預估(ME) 所需的時間,𝑇𝑀𝐸(𝑀𝑢𝑙𝑡𝑖 _𝑅𝑒𝑓 ) 是對 f 張做全域搜尋(full search) 所需的時間,𝑇𝑀𝐸(𝑃𝑀𝑉) 是本演算法做 f 張移動預估

(ME)所需的時間。)

選出了涵蓋各種特性的影片共十段來進行實驗,影片分別有 akiyo_qcif.yuv (300 frames) , carphone_qcif.yuv (382 frames) , claire_qcif.yuv (494 frames) , coastguard_qcif.yuv (300 frames),container_qcif.yuv (300 frames),foreman_qcif.yuv (300 frames),mobile_qcif.yuv (300 frames),mother-daughter_qcif (300frames).yuv,

news_qcif.yuv (300 frames),silent_qcif.yuv (300 frames),實驗參數簡列如下:

33

.參考張數(REF) = 5

.量化參數(QP) = 30

.搜尋範圍(Search Range) = 16

.所有參考片段(sequence)皆是 QCIF(176x144) 解析度

.流量控制(Rate Control) 關閉

.快速移動預估(FME) 開啟

.模式選擇(Mode Decision) 關閉 (基本區塊為 16x16 大小)

.所有的片段(sequence) 皆以第一張為 I 幀其他為 P 幀的方式來編碼

使用的軟體是 JM11.0[6],此為 H.264 環境下最具公信力之參考軟體,在 Visual Studio® 6 環境下編譯,使用的 OS 為Microsoft® Windows XP SP2,於Pentium® 4

2.4GHz CPU 上進行實驗。

34

表 I. 不同演算法間的 PSNR 值比較.

( PSNR 採用“Average Y PSNR”,Diff = PSNR(Method) – PSNR(JM ref1) ) PSNR Y (dB)

JM reference

(ref=1)

JM reference

(ref=5)

PMV

Avg PSNR Avg PSNR Diff Avg PSNR Diff

akiyo 36.282 36.371 0.089 36.345 0.063 carphone 34.447 34.744 0.297 34.737 0.29

claire 37.719 37.804 0.085 37.752 0.033 coastguard 32.275 32.343 0.068 32.318 0.043 container 34.117 34.159 0.042 34.171 0.054 foreman 33.919 34.167 0.248 34.096 0.177 mobile 30.774 31.031 0.257 30.952 0.178 M & D 35.508 35.649 0.141 35.65 0.142 news 34.719 34.734 0.015 34.746 0.027 silent 33.957 33.985 0.028 33.982 0.025

由表 I.可以發現使用全域搜尋(full Search) 的多參考幀(MREF) 方法(JM ref=5) 有大幅度的PSNR 品質提升,與之相較起來我們提出的快速演算法(PMV) 品質雖 然不及使用全域搜尋(full Search) 的多參考幀(MREF) 方法,但仍保有相當程度的 PSNR 品質提升。

35

表 II. 不同演算法間的 Bit-Rate 值比較.

( Variation = BitRate (Method ) − BitRate (JM ref 1)

BitRate (JM ref 1) x 100% ) Bit-Rate (bits/secnod)

JM reference

(ref=1)

JM reference

(ref=5)

PMV (by load mem)

Avg Bit-Rate

Avg Bit-Rate

Variation (%)

Avg Bit-Rate

Variation (%)

akiyo 21198 20905 -1.4 20978 -1.04 carphone 133834 126072 -6.15 126442 -5.84 claire 26686 26451 -0.88 26568 -0.44 coastguard 160021 159409 -0.38 160050 0.01 container 32527 30928 -5.17 30782 -5.66 foreman 119410 115931 -3.0 117066 -2.0

mobile 341616 312798 -9.21 319159 -7.03 M & D 34639 34771 0.37 34877 0.68 news 66896 66874 -0.03 66830 -0.09 silent 75468 74669 -1.07 74633 -1.11

和表 I.的情況相似,由表 II.可以得知使用全域搜尋(full Search) 的多參考幀 (MREF) 方法(JM ref=5) Bit-Rate 品質也有所提升,我們提出的快速演算法(PMV) 品質提升雖然略差於使用全域搜尋(full Search) 的多參考幀(MREF) 方法,但仍然 擁有一定的品質提升。

36

表 III. 不同演算法間移動預估(ME)花費時間的比較.

( Increase Ratio = MEtime (Method ) MEtime (JM ref 1) ) ME Time (ms) JM

reference (ref=1)

JM reference

(ref=5)

PMV (by load mem)

ME Coding

Time

ME Coding

Time

Increase Ratio

ME Coding

Time

Increase Ratio

akiyo 96609 488609 5.05 109781 1.13 carphone 127378 634947 4.98 145425 1.14 claire 158319 807658 5.1 181779 1.14 coastguard 97109 492688 5.07 113768 1.17 container 96886 485783 5.01 106989 1.1

foreman 98655 493806 5.0 111909 1.13 mobile 96556 490269 5.07 112090 1.16 M & D 95576 487995 5.1 110454 1.15 news 96837 486617 5.02 108322 1.11 silent 95336 488798 5.12 112901 1.18

如同時間複雜度分析中所描述的,我們提出的快速演算法(PMV) 花費的計算時 間近似於單一參考幀(Single Reference) 的計算時間;由表 III.可發現我們提出的 方法(PMV) 僅花去單一參考幀(Single Reference) 所需時間的一倍多,相較起來全 部使用全域搜尋(full Search) 的多參考幀(MREF) 方法(JM ref=5)花費時間則是單 一參考幀(Single Reference) 的五倍,此處視參考張數的不同時間會呈現線性成長,

然而我們提出的方法(PMV) 必定保持在一點多倍左右,因此參考張數越多對我們 提出的方法(PMV) 時間節省幅度越大。在品質方面我們提出的方法(PMV) 雖然有 些略差於使用全域搜尋(full Search) 的多參考幀(MREF) 方法,但是實驗上表現出

37

來的結果(請參考表 I.及表 II.)並沒有太大的落差,我們提出的方法(PMV) 仍然保 有一定程度的品質提升。

以下分別列出各個樣本的 RD 曲線圖(RD-curve),此為一種檢驗品質的方式,任 一條線段代表某一種方法在各種狀況下表現出來的品質,若線段和線段間距離相 當接近則表示兩者品質相近,若兩者間保持距離則表示兩者的品質上有差距。以 下的圖 4-1.到圖 4-10.每張圖皆有四條線,分別是使用單一參考幀(Single Reference

Frame)的方法(參考張數=1)、使用全域搜尋(full Search) 的多參考幀(MREF) 方法 (參考張數=5)、對照用的 Weighted Average 法(參考張數=5) 以及我們提出的快速 演算法(PMV)(參考張數=5)。以圖 4-1.為例,四條線皆相當靠近,表示四個方法在 此測詴片段上得到的品質上相差無幾,另一方面也代表多參考幀(MREF) 方式對 此測詴片段沒有明顯效果;以圖 4-2.為例,使用單一參考幀(Single Reference Frame) 方法的線段與其他三條線保持了相當的距離,表示在此測詴影片上使用多參考幀

(MREF) 演算法可以得到不錯的品質提升,至於其他三條線接近重疊的現象,則 表示 Weighted AVG 法及我們提出的快速演算法(PMV) 在品質上並不會和使用全 域搜尋(full Search) 的多參考幀(MREF) 方法相差太多。進一步觀察圖 4-3.到圖

4-10.可以發現我們提出的快速演算法(PMV)其曲線皆相當貼近使用全域搜尋(full Search) 多參考幀(MREF) 方法的曲線,表示我們提出的快速演算法(PMV) 並沒有 因為時間的縮短而犧牲品質,除了觀察表I.到表 III.之外,也可以藉由觀察 RD 曲 線圖(RD-curve)來確定此一事實。

38

圖 4-1. akiyo 的 RD 曲線圖.

圖 4-2. carphone 的 RD 曲線圖.

39

圖 4-3. clair 的 RD 曲線圖.

圖 4-4. coastguard 的 RD 曲線圖.

40

圖 4-5. container 的 RD 曲線圖.

圖 4-6. foreman 的 RD 曲線圖.

41

圖 4-7. mobile 的 RD 曲線圖.

圖 4-8. mother-daughter 的 RD 曲線圖.

42

圖 4-9. news 的 RD 曲線圖.

圖 4-10. silent 的 RD 曲線圖.

43

表 Ⅳ. 加權平均法(Weighted AVG)及提出的多參考幀演算法(PMV) 間的移動 預估(ME)花費時間比較.

( Ratio = MEtime (full search )

MEtime (Proposed _Method ) ) ME Time(s) Weighted Average

(ref=5)

Proposed Method (PMV) (ref=5)

full search

Weighted

AVG Ratio full search PMV Ratio carphone 55.8s 28.7s 1.94 634s 145s 4.36 mobile 354.2s 133.5s 2.65 490s 112s 4.37

在與其他方法的比較上,我們拿以全域搜尋(full Search) 做了五張(ref=5) 的原 始多參考幀(Multiple Reference Frame) 方法為基準,來和加權平均法(Weighted

AVG) 做效能上的比較。礙於兩個方法實驗環境上的不同,使用相對的時間比值 來做為比較的依據會比較適當。由表Ⅳ可以發現到我們提出的快速演算法(PMV) 比加權平均法(Weighted AVG) 更接近理想的結果(請參照公式 4-3),Ratio 值越接 近 5 表示估算其他四張所花費的時間更少,更接近本演算法的原意(請參考 4.1

節的時間複雜度分析)。另外在品質方面(請參考圖 4-1 到 4-10),我們提出的方法 與原始多參考幀(Multiple Reference Frame) 方法的線段幾乎重疊,顯示出我們的 方法並沒有因為快速演算法的效益而造成太多品質上的耗損。至於加權平均法 (Weighted AVG) 在時間節省上效率不彰的原因,我們推論為該演算法為了保持品 質不會過於太差,在演算法中花了較多時間在前處理的部份;就移動預估(ME) 在 整個編碼時間裡佔有大量時間的立場來看,在每次的移動預估(ME) 之前增加的

44

前處理時間必定使得編碼時間連帶增加,此為一種加權平均法(Weighted AVG)並 未達到預期時間節省目標的推論。又或者加權平均法(Weighted AVG) 實驗時做的 張數太少,或許實驗時編碼的幀數需要更多才能顯現出加權平均法(Weighted

AVG) 的特性,此為另一種並未達到預期時間節省目標的推論。

在文檔中 中 華 大 學 (頁 43-56)

相關文件