• 沒有找到結果。

第四章 數值分析與模擬結果

4.2 模擬結果與討論

在蜂巢式網路之下的MUE 用戶為滿載且在 D2D 所產生的干擾抑制區 (式 3-4)之內採用資源不共享的方式來達到消除干擾的目的。

根據本研究模擬設定環境中,將分別比較暴力法(brute-force)的位置推 薦方法(LR)以及我們所提出基於粒子群位置推薦方法(PSO-LR)的不同迭 代次數中的數據,在資源分配的機制(干擾抑制區域)部分,以 5pairs 的 D2D 情 境 , 並 且 在 Case1(map size 1000m*1000m) 及 Case2(map size 2000m*2000m)兩種地圖環境來模擬-120dBm、-130dBm、-140dBm 及-150dBm 的資源分配機制,本碩論模擬結果以平均一千次的數據來呈現。

在Case 1 及 Case2 的地圖中,採用-120dBm 的情形下推薦距離之比較 結果,如表 4-3 及圖 4-1 所示,在我們所提出的方法中,呈顯的推薦距離 是大幅低於暴力法(brute-force)的位置推薦方法,並且不管是在 Case1 或 Case2 的情況下,迭代次數越多,推薦距離相對可以得到越短的結果,並 且從迭代1400 次開始的提升比例十分相近,有逐漸收斂的趨勢,而 Case2 因為地圖較大,相對收斂速度較Case1 慢。

表4-3、在-120dBm 情形下平均推薦距離之比較表

brute-force20 200 400 600 800 1000 1200 1400 1600 1800 2000 40

A ve ra g e r e co m m e n d e d d ist a n ce (m e te r)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

時間都是遠低於暴力法(brute-force)的位置推薦方法(LR),並且在 Case2 地

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

1000

A ve ra g e e xe cu ti o n t im e (se c)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

整體系統容量提升率表現的部分,如表 4-5 及圖 4-3 所示,在我們所

圖 4-3、在-120dBm 情形下的平均平均系統容量提升率之比較圖 在-120dBm 情形下的資源複用率表現部分,如表 4-6 及圖 4-4 所示,

在我們的方法中,可以發現雖然在 Case1 地圖較小的環境中,略差於暴力 法(brute-force)的位置推薦方法(LR),但在 Case2 地圖較大的環境中,其資 源複用率表現不相上下。

brute-force1.01 200 400 600 800 1000 1200 1400 1600 1800 2000 1.02

1.03 1.04 1.05 1.06 1.07

A ve ra g e ca p a ci ty in cr e a se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-6、在-120dBm 情形下資源複用率之比較表

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

0.988

A ve ra g e r e so u rce r e u se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

在-120dBm 情形下,我們把上述的推薦距離、時間、系統容量提升率、

資源利用率經由式 3-10 的成本公式來分析證明 PSO-LR 的優勢所在,其結 果如表 4-7 及圖 4-5 所示,在我們的方法中,在迭代 2000 次的時候,不管 在 Case1 及 Case2 其成本與暴力法(brute-force)的位置推薦方法(LR)表現是 最佳的,在總和所有數值之後的成本分析結果,可以看出我們所提出的方 法,以成本的觀點來看,比暴力法(brute-force)的位置推薦方法(LR)來的優 秀,尤其是在地圖較大的 Case2 我們的方法有顯著的成本降低。

表4-7、在-120dBm 的情形下的推薦成本之比較表 迭代

次數

brute

force 200 400 600 800 1000 1200 1400 1600 1800 2000

Case1

成本 1352.2 385.7 387.6 372.8 373.4 342.5 366.9 352.9 350.2 322.7 312.6

Case2

成本 10739.7 3424.7 3056.7 3325.2 3174.1 3517.0 2803.5 2449.8 2632.6 2456.9 2416.6

Case1 與 brute

Force 相差(%)

71.5% 71.3% 72.4% 72.4% 74.7% 72.9% 73.9% 74.1% 76.1%

76.9%

Case2 與 brute

Force 相差(%)

68.1% 71.5% 69.0% 70.4% 67.3% 73.9% 77.2% 75.5% 77.1%

77.5%

*紅色字體代表相差最大之數值

圖 4-5、在-120dBm 的情形下之成本比較圖

在採用-130dBm 的情形下推薦距離之比較結果,如表 4-8 及圖 4-6 所 示,在我們所提出的方法中,呈顯的推薦距離是大幅低於暴力法(brute-force) 的位置推薦方法,並且不管是在 Case1 或 Case2 的情況下從迭代 1000 次 開始的提升比例十分相近,有逐漸收斂的趨勢,迭代次數越多,推薦距離 相對可以得到越短的結果,而Case2 因為地圖較大,相對收斂速度較 Case1 慢。

brute-force0 200 400 600 800 1000 1200 1400 1600 1800 2000 2000

4000 6000 8000 10000 12000

A ve ra g e co st

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-8、在-130dBm 情形下平均推薦距離之比較表

brute-force20 200 400 600 800 1000 1200 1400 1600 1800 2000 40

A ve ra g e r e co m m e n d e d d ist a n ce (m e te r)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

時間都是遠低於暴力法(brute-force)的位置推薦方法(LR),並且在 Case2 地

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

1000

A ve ra g e e xe cu ti o n t im e (se c)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

整體系統容量提升率表現的部分,如表 4-10 及圖 4-8 所示,在我們所 提出的方法中,Case1 及 Case2 迭代 400 次的時候,系統容量與暴力法 (brute-force)僅分別差異 3%及 2.6%,是所有迭代次數中較佳的結果,雖然 其提升率都不及暴力法(brute-force)的位置推薦方法(LR),但我們所提出的

圖 4-8、在-130dBm 的情形下平均系統容量提升率之比較圖

在-130dBm 情形下的資源複用率表現部分,如表 4-11 及圖 4-9 所示,

在我們的方法中,可以發現雖然在 Case1 地圖較小的環境中,略差於暴力 法(brute-force)的位置推薦方法(LR),但在 Case2 地圖較大的環境中,其資 源複用率僅不到 1%的差距,表現不相上下。

brute-force1.01 200 400 600 800 1000 1200 1400 1600 1800 2000 1.015

1.02 1.025 1.03 1.035 1.04 1.045 1.05 1.055

A ve ra g e ca p a ci ty in cr e a se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-11、在-130dBm 情形下資源複用率之比較表

brute-force0.97 200 400 600 800 1000 1200 1400 1600 1800 2000 0.975

A ve ra g e r e so u rce r e u se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

在-130dBm 情形下,我們把上述的推薦距離、時間、系統容量提升率、

資源利用率經由式 3-10 的成本公式來分析證明 PSO-LR 的優勢所在,其結 果如表 4-12 及圖 4-10 所示,在我們的方法中,在迭代第 1800~2000 次的 時候,不管在 Case1 及 Case2 其成本與暴力法(brute-force)的位置推薦方法 (LR)表現是最佳的,在總和所有數值之後的成本分析結果,可以看出我們 所提出的方法,以成本的觀點來看,是大幅度的比暴力法(brute-force)的位 置推薦方法(LR)來的優秀。

表4-12、在-130dBm 的情形下的推薦成本之比較表 迭代

次數

brute

force 200 400 600 800 1000 1200 1400 1600 1800 2000

Case1

成本 1342.0 438.8 442.6 434.4 379.1 359.6 355.3 346.7 358.3 289.1 339.4

Case2

成本 10994.4 3341.4 3427.1 3386.3 3076.9 2886.7 2963.9 2702.4 2668.0 2781.0 2655.2

Case1 與 brute

Force 相差(%)

67.3% 67.0% 67.6% 71.8% 73.2% 73.5% 74.2% 73.3%

78.5% 74.7%

Case2 與 brute

Force 相差(%)

69.6% 68.8% 69.2% 72.0% 73.7% 73.0% 75.4% 75.7% 74.7%

75.8%

*紅色字體代表相差最大之數值

圖 4-10、在-130dBm 的情形下之成本比較圖

在採用-140dBm 的情形下推薦距離之比較結果,如表 4-13 及圖 4-11 所示,在我們所提出的方法中,呈顯的推薦距離是大幅低於暴力法(brute-force)的位置推薦方法,並且不管是在 Case1 或 Case2 的情況下,迭代次 數越多,推薦距離相對可以得到越短的結果,並且從迭代1600 次開始的 提升比例十分相近,有逐漸收斂的趨勢,而Case2 因為地圖較大,相對收 斂速度較Case1 慢。

brute-force0 200 400 600 800 1000 1200 1400 1600 1800 2000 2000

4000 6000 8000 10000 12000

A ve ra g e co st

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-13、在-140dBm 情形下平均推薦距離之比較表

brute-force10 200 400 600 800 1000 1200 1400 1600 1800 2000 15

A ve ra g e r e co m m e n d e d d ist a n ce (m e te r)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

時間都是遠低於暴力法(brute-force)的位置推薦方法(LR),並且在 Case2 地

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

1000

A ve ra g e e xe cu ti o n t im e (se c)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

整體系統容量提升率表現的部分,如表 4-15 及圖 4-13 所示,在我們 所提出的方法中,Case1 的迭代 200 次及 Case2 的迭代 400 次的時候系統 容量與暴力法(brute-force)僅分別差異 3%及 2.6%,雖然其提升率都不及暴 力法(brute-force)的位置推薦方法(LR),但我們所提出的方法,以系統容量 提升率的觀點來看,是暴力法(brute-force)位置推薦方法(LR) 的次佳解。

表4-15、在-140dBm 的情形下平均系統容量提升率之比較表

圖 4-13、在-140dBm 的情形下平均系統容量提升率之比較圖

在-140dBm 情形下的資源複用率表現部分,如表 4-16 及圖 4-14 所示,

在我們的方法中,可以發現雖然在 Case1 地圖較小的環境中,略差於暴力 法(brute-force)的位置推薦方法(LR),但在 Case2 地圖較大的環境中,其資 源複用率相對比 Case1,且 Case2 在不同迭代次數下,其表現不相上下。

brute-force1.01 200 400 600 800 1000 1200 1400 1600 1800 2000 1.015

1.02 1.025 1.03 1.035 1.04 1.045 1.05 1.055

A ve ra g e ca p a ci ty in cr e a se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-16、在-140dBm 情形下資源複用率之比較表

brute-force0.92 200 400 600 800 1000 1200 1400 1600 1800 2000 0.93

A ve ra g e r e so u rce r e u se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

在-140dBm 情形下,我們把上述的推薦距離、時間、系統容量提升率、

資源利用率經由式 3-10 的成本公式來分析證明 PSO-LR 的優勢所在,其結 果如表 4-17 及圖 4-15 所示,在我們的方法中,在迭代 1600 次開始,不管 在 Case1 及 Case2 其成本與暴力法(brute-force)的位置推薦方法(LR)表現是 最佳的,在總和所有數值之後的成本分析結果,可以看出我們所提出的方 法,以成本的觀點來看,是大幅度的比暴力法(brute-force)的位置推薦方法 (LR)來的優秀。

表4-17、在-140dBm 的情形下的推薦成本之比較表 迭代

次數

brute

force 200 400 600 800 1000 1200 1400 1600 1800 2000

Case1

成本 1424.1 487.1 436.4 429.3 475.8 421.6 414.0 448.0 373.8 327.9 335.4

Case2

成本 11457.2 4131.1 3477.7 3330.7 3236.8 2747.9 3184.0 2916.3 2751.0 2497.9 2570.1

Case1 與 brute

Force 相差(%)

65.8% 69.4% 69.9% 66.6% 70.4% 70.9% 68.5% 73.8%

77.0% 76.4%

Case2 與 brute

Force 相差(%)

63.9% 69.6% 70.9% 71.7% 76.0% 72.2% 74.5% 76.0%

78.2% 77.6%

*紅色字體代表相差最大之數值

brute-force 2000 400 600 800 1000 1200 1400 1600 1800 2000 2000

4000 6000 8000 10000 12000

A ve ra g e co st

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

圖 4-15、在-140dBm 的情形下之成本比較圖

在採用-150dBm 的情形下推薦距離之比較結果,如表 4-18 及圖 4-16 所示,在我們所提出的方法中,呈顯的推薦距離是大幅低於暴力法(brute-force)的位置推薦方法,並且不管是在 Case1 或 Case2 的情況下,迭代次 數越多,推薦距離相對可以得到越短的結果,並且有逐漸收斂的趨勢,

而Case2 因為地圖較大,相對收斂速度較 Case1 慢。

表4-18、在-150dBm 情形下平均推薦距離之比較表

brute-force20 200 400 600 800 1000 1200 1400 1600 1800 2000 40

A ve ra g e r e co m m e n d e d d ist a n ce (m e te r)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

時間都是遠低於暴力法(brute-force)的位置推薦方法(LR),並且在 Case2 地

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

1000

A ve ra g e e xe cu ti o n t im e (se c)

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

整體系統容量提升率表現的部分,如表 4-15 及圖 4-13 所示,在我們 所提出的方法中,Case1 的迭代 200 次及 Case2 的迭代 800 次的時候系統 容量與暴力法(brute-force)僅分別差異 1.6%及 2.3%,是所有迭代次數中較 佳的結果,雖然其提升率都不及暴力法(brute-force)的位置推薦方法(LR),

圖 4-18、在-150dBm 的情形下平均系統容量提升率之比較圖

在-150dBm 情形下的資源複用率表現部分,如表 4-16 及圖 4-14 所示,

在我們的方法中,可以發現雖然在 Case1 地圖較小的環境中,略差於暴力 法(brute-force)的位置推薦方法(LR),但在 Case2 地圖較大的環境中,其資 源複用率表現不相上下。

brute-force 200 400 600 800 1000 1200 1400 1600 1800 2000

1.015 1.02 1.025 1.03 1.035 1.04 1.045 1.05

A ve ra g e ca p a ci ty in cr e a se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

表4-21、在-150dBm 情形下資源複用率之比較表

brute-force0.78 200 400 600 800 1000 1200 1400 1600 1800 2000 0.8

A ve ra g e r e so u rce r e u se u ti liza ti o n r a ti o

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

*紅色字體代表相差最大之數值

在-150dBm 情形下,我們把上述的推薦距離、時間、系統容量提升率、

資源利用率經由式 3-10 的成本公式來分析證明 PSO-LR 的優勢所在,其結 果如表 4-17 及圖 4-15 所示,在我們的方法中,在迭代 1800~2000 次的時 候,不管在 Case1 及 Case2 其成本與暴力法(brute-force)的位置推薦方法(LR) 表現是最佳的,在總和所有數值之後的成本分析結果,可以看出我們所提 出的方法,以成本的觀點來看,是大幅度的比暴力法(brute-force)的位置推 薦方法(LR)來的優秀。

表4-22、在-150dBm 的情形下的推薦成本之比較表 迭代

次數

brute

force 200 400 600 800 1000 1200 1400 1600 1800 2000

Case1

成本 1544.2 680.8 518.6 507.6 483.2 539.8 579.4 491.4 501.8 488.7 454.8

Case2

成本 11741.9 3921.0 3808.4 3761.2 3791.6 3297.6 3370.2 3299.0 3208.4 2845.5 2948.8

Case1 與 brute

Force 相差(%)

55.9% 66.4% 67.1% 68.7% 65.0% 62.5% 68.2% 67.5% 68.4%

70.5%

Case2 與 brute

Force 相差(%)

66.6% 67.6% 68.0% 67.7% 71.9% 71.3%

71.9% 72.7%

75.8% 74.9%

*紅色字體代表相差最大之數值

brute-force 2000 400 600 800 1000 1200 1400 1600 1800 2000 2000

4000 6000 8000 10000 12000

A ve ra g e co st

Iterations

Case1(map size 1000m*1000m) Case2(map size 2000m*2000m)

圖 4-20、在-150dBm 的情形下之成本比較圖

第五章 結論

由模擬結果顯示,Case 1(Map size 1000*1000m)及 Case 2(Map size 2000*2000m)環境中,5 組 D2D 用戶在-120dBm~-150dBm 不同資源分配機 制中,採用 PSO-LR 方法,在不同迭代次數所提供的位置推薦資訊與暴力 法(brute-force)的位置推薦方法相比,我們所提出的方法,在-120dBm 時,

不同迭代次數的推薦距離,在 Case1 的地圖中,大約平均下降 70.1%~77.4%

的推薦距離而 Case2 的地圖中,大約平均下降 65.6%~75.6%,計算時間平 均下降 2%~8%而 Case2 的地圖中,大約平均下降 5%~11.2%,整體系統容 量提升率平均略下降 3.5%~4.2%而 Case2 的地圖中,大約平均略下降 2.6%~3.1%,資源複用率平均略下降 0.1%~0.3%而 Case2 的地圖中,大約 平均略下降 0%~0.1%,而所花費成本平均下降 71.5%~76.9%而 Case2 的地 圖中,平均下降 67.3%~77.5%。當-130dBm 時,不同迭代次數的推薦距離,

在 Case1 的地圖中,大約平均下降 65.9%~79.2%的推薦距離而 Case2 的地 圖中,大約平均下降 66.5%~74.2%,計算時間平均下降 1%~7.7%而 Case2 的地圖中,大約平均下降 8.2%~10.5%,整體系統容量提升率平均略下降 3%~3.6%而 Case2 的地圖中,大約平均略下降 2.6%~3.2%,資源複用率平 均略下降 0.7%~1%而 Case2 的地圖中,大約平均略下降 0.1%~0.2%,而所 花費成本平均下降 67%~78.5%而 Case2 的地圖中,平均下降 68.8%~75.8%。

當-140dBm 時,不同迭代次數的推薦距離,在 Case1 的地圖中,大約平均

當-140dBm 時,不同迭代次數的推薦距離,在 Case1 的地圖中,大約平均

相關文件