高目標演化演算法中參考點之探究
全文
(2) 中文摘要 多目標最佳化問題是近年演化計算領域裡熱門的研究主題,我們的日常生 活周遭也充滿了多目標最佳化的問題:想要吃得好又想要錢花得少、想用較少 的次數搬完東西但是又不想太費力,許多事都可以用多目標最佳化的角度來思 考,其中目標數更多更複雜的高目標最佳化問題在近年獲得了許多關注,如何 設計出有效率並且效能良好的高目標最佳化演化演算法已經成為了近年重要的 課題。 近年發表的 NSGA-III 與 VaEA 在高目標最佳化問題都有優秀的表現,本 論文對這二個演算法進行分析與討論,並嘗試不同的參考點策略來進行改良: 使用 IPBI 函數改變搜尋行為,使其能在參考點分布與問題前緣形狀不符合的 時候仍然有能力搜尋到最佳解;改變 VaEA 演算法的初始參考點策略,使其能 夠 獲 得 更 佳 的 極 限 值 ; 將 VaEA 的 動 態 參 考 點 概 念 與 環 境 選 擇 機 制 與 NSGA-III 結合成新的混合演算法。實驗結果也顯示我們嘗試的各種參考點策 略能夠根據問題有效改善演算法的效能。. 關鍵字:演化式多目標最佳化,高目標最佳化,演化演算法,參考點。. i.
(3) 誌. 謝. 能夠順利地完成研究所學業最要感謝的果然還是父母,同意讓我繼續往碩 士進修,再來就是我的指導教授蔣宗哲老師,不論研究過程遇到任何不順利與 困難,感謝老師總是非常有耐心以及細心地教導我研究的方法與態度,讓我能 夠順利的完成這篇論文。 三年多的碩士班生活雖然比起一般人長了一些,但是對我來說還是稍縱即 逝,這幾年很感謝實驗室的學長跟同學以及學弟妹,實驗室的氣氛總是愉快又 溫馨。 最後要感謝從大學陪我到現在的摯友們,雖然你們平常都沒過問,但是我 知道你們心裡都很關心,有你們的陪伴我才能挺過最後的關鍵時期,真的非常 感謝!. ii.
(4) 目. 錄. 中文摘要……………………………………………………………………………..i 目錄…………………………………………………………………………………iii 附表目錄……………………………………………………………………………iv 附圖目錄…………………………………………………………………………….v 第一章 緒論……………………………………………………………………….1 1.1 研究動機…………………………………………………………………1 1.2 背景知識…………………………………………………………………1 1.2.1 多目標最佳化問題定義………………………………………….1 1.2.2 演化演算法……………………………………………………….3 1.3 研究目的與方法…………………………………………………………5 1.4 論文架構…………………………………………………………………6 第二章 文獻探討………………………………………………………………….7 2.1 多目標最佳化演化演算法………………………………………………7 2.2 求解高目標最佳化問題面臨的挑戰與方向.………………………….10 2.3 基於參考點的高目標演化演算法……………………………………..14 第三章 基於參考點的高目標演化演算法與探討……………………………...16 3.1. NSGA-III.……………………………………………………………….16 3.1.1 初始化階段……………………………………………………...17 3.1.2 繁殖階段………………………………………………………...19 3.1.3 環境選擇………………………………………………………...20. 3.2. VaEA…………………………………………………………………….21 3.2.1 初始化階段……………………………………………………...22 3.2.2 繁殖階段………………………………………………………...22 3.2.3 環境選擇………………………………………………………...23 3.3 演算法探討……………………………………………………………..26 3.3.1 NSGA-III 的待改進處…………………………………………..26 3.3.2 VaEA 的待改進處………………………………………………27 3.4 參考點生成策略之探究與改良………………………………………..28. 第四章. 3.4.1 NSGA-III………………………………………………………...28 3.4.2 VaEA…………………………………………………………….30 實驗結果與分析………………………………………………………...31. 4.1 測試問題………………………………………………………………..31 4.2 參數設定………………………………………………………………..31 4.3 效能指標………………………………………………………………..32 4.4 結果與討論……………………………………………………………..33 第五章 結論與未來研究方向…………………………………………………...46 參考文獻…………………………………………………………………………...47 iii.
(5) 附表目錄 表 1:測試問題終止條件的演化代數……………………………………………32 表 2:NSGA-III 與 NSGA-III-IPBI (適應性正規化)的 IGD 平均值和標準差 34 表 表 表 表 表 表. 3:NSGA-III-IPBI 使用不同正規化方法的 IGD 平均值和標準差…………35 4:NSGA-III 與 NSGA-III-IPBI (一般正規化)的 IGD 平均值和標準差….37 5:VaEA 不同起始參考點產生方法的 IGD 平均值和標準差……………..38 6:NSGA-III 與 NSGA-III+VaEA 的 IGD 平均值和標準差………………41 7:NSGA-III-IPBI 與 NSGA-III-IPBI+VaEA 的 IGD 平均值和標準差….42 8:VaEA、NSGA-III+VaEA 與 NSGA-III-IPBI+VaEA 的 IGD 平均值和標. 準差…………………………………………………………………………………44. iv.
(6) 附圖目錄 圖 圖 圖 圖 圖 圖 圖 圖 圖 圖 圖 圖 圖. 1:凌越關係示意圖……………………………………………………………..2 2:演化演算法流程圖…………………………………………………………..3 3:m = 3, H = 4 所產生的 15 個參考點……………………………………..18 4:兩層式參考點產生法,外層 H1 = 2,內層 H2 = 1………………………19 5:VaEA 在 DTLZ1 問題上挑選的 2m 個解……………………………….27 6:VaEA 在 Minus-DTLZ1 問題上挑選的 2m 個解……………………….28 7:PBI 函數的搜尋方向及與柏拉圖前緣的交點……………………………29 8:IPBI 函數的搜尋方向及與柏拉圖前緣的交點……………………………29 9:三種指標函式 (最小化) …………………………………………………..33 10:Minus-DTLZ1(10) 問題三個演算法最小目標值的折線圖…………….39 11:Minus-DTLZ2(10) 問題三個演算法最小目標值的折線圖…………….39 12:Minus-DTLZ3(10) 問題三個演算法最小目標值的折線圖…………….40 13:Minus-DTLZ4(10) 問題三個演算法最小目標值的折線圖…………….40. v.
(7) 第一章 緒論 1.1 研究動機 求解多目標最佳化問題 (multiobjective optimization problems, MOPs) 的演化 式多目標最佳化 (evolutionary multiobjective optimization, EMO) 在演化計算的領 域中一直都是熱門的研究議題。其中目標數四個以上的多目標最佳化問題,我們 稱其為高目標最佳化問題 (many-objective optimization problems, MaOPs) [1]。 現存知名的多目標最佳化演化演算法. (evolutionary multiobjective. optimization algorithms, EMOAs),在求解問題目標數為二或三的問題時大多都能 獲得品質不錯的解,然而當問題的目標數增加時,這些演算法的效能表現都有明 顯的降低;除此之外,現實生活中的多目標最佳化應用也有許多高目標最佳化問 題,例如土地使用規劃問題 [2]、送水系統 [3],其中有些問題的求解目標數甚至 達到十個或十五個以上。考量到以上因素,如何設計一個有效率並且效能好的高 目標最佳化演化演算法,已經成為近年演化式多目標最佳化的一個重要課題。. 1.2 背景知識 1.2.1 多目標最佳化問題定義 一般的情況下,多目標最佳化問題可以定義成下面的形式: Mimimize (or Maximize) 𝐹(𝑥) = (𝑓1 (𝑥), … , 𝑓𝑚 (𝑥)) Subject to 𝑥 ∈ Ω.. T. (1). 1.
(8) Ω 代表決策空間 (decision space),x = (x1, …, xn)T 為決策空間中的候選 解,包含 n 個決策變數 (decision variable), F:Ω → Rm 由 m 個實數目標函式 構成,Rm 代表目標空間 (objective space)。 假設問題是將目標值最小化,存在兩組解 x1 與 x2,對應到 Rm 中的目標向 量分別為 F(x1) = (f1(x1), … , fm(x1))、F(x2) = (f1(x2), … , fm(x2)),若滿足所有的 i = 1, … , m 使得 fi(x1) fi(x2),並且至少存在一個 j 屬於 {1, …, m} 使得 fj(x1) fj(x2),這種情況我們稱為 x1 凌越 (dominate) x2。如果有一組解 x*,不存在任何 解 x 使得 F(x) 凌越 F(x*),則我們稱此 x* 為柏拉圖最佳解 (pareto optimal) 或非凌越解 (non-dominated solution)。由所有柏拉圖最佳解所形成的集 合稱為柏拉圖解集合 (Pareto set, PS),而柏拉圖解集合中的所有解對應到 Rm 中 的目標向量所形成的集合稱為柏拉圖前緣 (Pareto front, PF),兩者的定義如下: 𝑃𝑆 = {𝑥 ∗ ∈ Ω | !∃ 𝑥 ∈ Ω, 𝐹(𝑥) dominates 𝐹(𝑥 ∗ )}.. (2). 𝑃𝐹 = {𝐹(𝑥) ∈ 𝑅 𝑚 | 𝑥 ∈ 𝑃𝑆}.. (3). 圖 1 說明凌越關係,假設其為多目標最小化問題中解在目標空間上的分布 狀況,則點 A 凌越點 C 與點 D,點 B 凌越點 D 與點 E,點 A 與點 B 沒有 其它點凌越它們,所以由這兩點構成此問題的柏拉圖前緣。. f2. C D A E B 圖 1:凌越關係示意圖 2. f1.
(9) 1.2.2 演化演算法 演化演算法是模擬大自然中生物演化過程的一種搜尋演算法,演算法會維持 一個族群,族群中的每一個個體都代表問題的一個可能的解,每一個個體都擁有 自己的基因 (決策變數或根據問題而決定的特定編碼),透過親代之間互相進行交 配 (crossover)、突變 (mutation) 來產生下一輪帶有不同基因的子代,再經由環境 選擇 (environmental selection) 挑選可以存活到下一代的個體,反覆執行這些步驟 直到演算法到達設定的終止條件。演化演算法的基本流程如圖 2 所示:. 族群初始化. 評估族群. 累加演化代數. 親代選擇. 繁殖. 否 到達終止條件. 評估族群. 是 環境選擇 結束 圖 2:演化演算法流程圖 族群初始化 (population initialization):演化演算法需要先產生初始的族群, 普遍的方法是隨機產生,或者是使用與求解的問題相關的知識與經驗法則來產生, 也有利用區域搜尋方法 (local search),先對隨機產生的解進行一段時間的搜尋演 算法,將得到的解作為初始解的作法。 3.
(10) 評估族群 (population evaluation):為了判斷族群中個體的優劣,演化演算法 會對個體計算適應值 (fitness),在單目標的情況下我們可以直接使用個體的目標 函數值作為適應值;多目標的情況下,需要較為複雜的方法來賦予個體適應值。 常見的計算適應值方法有凌越關係以及將各目標函數值進行合併計算的聚合函 數 (aggregation function) 等。 親代選擇 (mating selection):親代選擇的目的在於選擇優秀的親代來產生優 秀的子代,常見的選擇方法有依照個體適應值分配被選為親代機率的輪盤法 (roulette wheel selection),以及透過隨機挑選數個個體互相比較優劣,由最優秀者 擔任親代的競賽法 (tournament selection)。 繁殖 (reproduction):繁殖經由親代選擇所選出的親代進行交配與突變來產生 子代。交配與突變的方法根據不同的問題與個體的編碼方式有多種不同的方法, 若編碼方式為二進位編碼,交配方式有單點交配 (1-point crossover) 與雙點交配 (2-point crossover) 等,突變方式有交換突變 (swap mutation) 等;如果為實數編 碼,常用的交配方法為模擬二進制交配法 (simulated binary crossover, SBX),搭配 的突變方法為多項式突變法 (polynomial mutation) [4]。 環境選擇:產生完所有子代之後,演化演算法使用多種環境選擇機制來保留 族群中優秀的個體或淘汰較差的個體,基本的作法有整個子代替換掉整個親代的 成代替換 (generational model) ,以及產生幾個子代就替換掉幾個適應值最差的親 代的穩態替換 (steady-state model)。 終止條件:演化演算法的終止條件通常為進行過的演化代數或者產生過的子 代的數量。. 4.
(11) 求解多目標最佳化問題時,如果我們使用精確的演算法來求問題的最佳解, 演算法會花費相當多的時間,然而我們或許沒有那麼多的時間可以等待,這個時 候能夠控制計算時間的演化演算法能夠讓我們在設定的終止條件內得到可以接 受的相對好的最佳解,因此演化演算法被認為是求解多目標最佳化問題時較有效 率的方法。. 1.3 研究目的與方法 NSGA-III (non-dominated sorting genetic algorithm III) 演算法 [5] 是由 Deb 與 Jain 發 表 於 2014 年 , 為 了 能 夠 求 解 高 目 標 最 佳 化 問 題 , 以 NSGA-II (non-dominated sorting genetic algorithm II) 演算法 [6] 作為基礎進行改良,加入 一組參考點 (reference points) 幫助族群演化,並且在環境選擇機制中使用利基保 存 機 制 (niche-preservation operation) 取 代 NSGA-II 的 擁 擠 距 離 (crowding distance) 機制來維持族群的分散程度 (diversity),在其論文的實驗結果顯示 NSGA-III 對高目標問題有良好的表現。 然而 NSGA-III 的環境選擇機制,主要在強調族群的分散程度,族群的收斂 程度 (convergence) 仍舊依靠凌越關係來控制,但是在高目標的情況下,族群中 的解容易皆為非凌越解,只依靠凌越關係對於族群收斂程度的幫助有限;除此之 外,使用參考點幫助族群進行演化也代表族群的演化過程中的搜尋方向受參考點 的影響甚大,Ishibuchi 等人的研究 [7] 中便指出了 NSGA-III 等使用參考點輔助 演化的此類型演算法在其提出的 Minus-DTLZ 問題組上會遭遇困難。 近 期 Xiang 等 人 [8] 發 表 了 求 解 高 目 標 最 佳 化 問 題 的 VaEA (vector angle-based evolutionary algorithm) 演算法,每一代的環境選擇會先從族群中挑選. 5.
(12) 出數個個體組成被選出的族群,根據已經被選出的族群與剩餘個體之間的夾角和 個體的適應值,依照最大角度優先原則 (maximum-vector-angle-first principle) 以 及較差淘汰原則 (worse-elimination principle) 來挑選進入下一代的個體,藉此控 制族群的收斂程度和分散程度。每當有新的個體被挑選出來就會更新已經被選出 的族群與剩餘個體之間的夾角,將已被挑選的族群作為動態的參考點,如此可以 避免設定的參考點不適當以及節省設定參考點的工夫。 我們將 NSGA-III 的固定式參考點結合 VaEA 的動態式參考點構想進行改 良,並且在 Ishibuchi 等人所提出的 Minus-DTLZ 問題組上進行測試,結果明顯 地改善 NSGA-III 在該問題組上的表現;另外我們也發現在 Minus-DTLZ 問題 組上 VaEA 雖然在族群的分散程度上有著優秀的表現,在各個目標方向上的極限 值 (最小值) 卻無法穩定求得。為了瞭解參考點對搜尋能力在測試問題上的影響, 我們在 NSGA-III、VaEA 以及兩者的混合演算法上嘗試不同的參考點機制,藉由 觀察實驗結果來分析與尋找更有效率的設計方法。. 1.4 論文架構 本論文接下來的章節中,第二章為文獻的探討,首先介紹各種類型的多目標 最佳化演化演算法,以及近年研究所發現的多目標最佳化演化演算法在求解高目 標最佳化問題時遭遇的難題,和學者們提出的可能的改進方向,然後介紹近幾年 發表的高目標最佳化演化演算法;接著第三章我們將詳細介紹 NSGA-III 演算法 以及 VaEA 演算法的流程,並且對此二演算法進行探討與一些改良;第四章透過 實驗進行各種驗證與實驗結果的分析討論;最後第五章為本論文的總結與未來研 究方向。. 6.
(13) 第二章 文獻探討 2.1 多目標最佳化演化演算法 多目標最佳化演化演算法大致上可以分為以下三種: (1) 凌越關係型多目標最佳化演化演算法 (Pareto-dominance-based EMOAs): 此類型演化演算法直接使用族群中解之間的凌越關係作為解的適應值, 以此判斷解的優劣,由於凌越關係無法判斷出族群的分布狀況,通常會 需要次要策略來維持分散程度。本類型的代表性演算法有 NSGA-II [6] 及 SPEA2 [9] 等。NSGA-II 透過非凌越排序 (non-dominated sorting) 將 親代與子代組合成的族群排序成多個階層,從優先度最高的階層開始依 序加入下一代的族群中,一次加入一個階層,當加入某一階層會超過需 要的族群數量時,轉為使用重視分散程度的擁擠距離機制從要被加入的 階層中挑選進入下一代的解,直到填滿需要的族群數目為止;SPEA2 計 算每一個解所凌越的解的數量作為解的強度 (strength),接著對每一個解 將凌越該解的所有其他解的強度加總作為基本適應值,另外使用最近鄰 居法 (k-th nearest neighbor) 作為分散程度的適應值,最後將兩種適應值 加總作為最終適應值,根據此最終適應值來挑選存活到下一代的解。 (2) 指標函式型多目標最佳化演化演算法 (indicator-based EMOAs):指標函 式 (indicator) 通 常 用 來 作 為 多 目 標 最 佳 化 演 算 法 的 效 能 指 標 (performance metric),因此指標函式本身即具有能同時表現收斂程度與 分散程度的性質,有些多目標最佳化演化演算法便直接利用指標函式來 幫助適應值的計算,即為指標函式型多目標最佳化演化演算法。此類型 7.
(14) 的演算法有 IBEA [10] 及 SMS-EMOA [11] 等。IBEA 將一個解對於整 個族群形成的多維體積 (hypervolume) [12] 的貢獻度作為解的適應值, 在環境選擇過程中刪除適應值 (貢獻度) 最小的解,重新計算多維體積, 更新所有剩下解的適應值 (貢獻度),重複直到剩餘的解的數量達到設定 的族群數目;SMS-EMOA 使用非凌越排序把親代與子代組成的族群排 序成多個階層,從優先度最低的階層開始刪除被最多解凌越的解,直到 族群數量達到設定的數目,如果經過非凌越排序後產生的階層數只有一 個,則刪除對族群形成的多維體積貢獻度最小的解,直到達到設定的族 群數量為止。 (3) 分解型多目標最佳化演化演算法 (decomposition-based EMOAs):分解型 多目標最佳化演化演算法利用權重向量 (weight vector) 將原本的多目 標最佳化問題分解成多個單目標的子問題同時進行最佳化,解的適應值 透過子問題的權重向量與聚合函數算出。這類型演算法的代表性演算法 之一為 MOEA/D [13],由 Zhang 與 Li 在 2007 年提出,利用均勻分 布的權重向量與聚合函數將多目標最佳化問題分解成多個單目標的子 問題,每一個權重向量代表該搜尋方向上的子問題,每個子問題對應族 群中的一個解,由於每個子問題的最佳解必然存在於柏拉圖前緣上,所 以求得所有子問題的最佳解就可求得問題的近似柏拉圖前緣。用來分解 多目標問題的聚合函數有加權總合法 (weighted sum approach)、柴比雪 夫法. (Tchebycheff approach) 以 及 基 於 懲 罰 量 的 邊 界 交 叉 法. (penalty-based boundary intersection approach, PBI) 等,其中較被廣為使 用的為柴比雪夫法;假設一組均勻分布的權重向量 λ1, λ2, … , λN,使用 8.
(15) 柴比雪夫法將多目標問題分解成多個單目標子問題,可表示成以下算 式: 𝑗. 𝑗. 𝑔𝑡𝑒 (𝑥|𝜆𝑗 , 𝑧 ∗ ) = max {𝜆𝑘 |𝑓𝑘 (𝑥) − 𝑧𝑘∗ |} , 𝑗 = 1, 2, … , 𝑁. 𝑘=1…𝑚. (4). * * z * = ( z1 , …, z m ) 為參考點,由 m 個目標方向上最小的值所組成。. MOEA/D 運用鄰居 (neighborhood) 的概念來幫助演化,演算法在 完成初始化族群與權重向量後會計算每一個權重向量與其他權重向量 之間的距離,取 T 個最近的權重向量設定為該權重向量的鄰居,演算 法中親代選擇與環境選擇的部分皆會利用到鄰居的資訊。在達到終止條 件前,演算法的每一代,所有子問題都會進行繁殖的動作,在進行親代 選擇的時候,子問題會從鄰居當中隨機挑選親代進行交配產生子代;進 行環境選擇的時候,子代會與子問題的所有鄰居的解進行比較,如果子 代的適應值較佳就取代該鄰居中的解。 過去十年間,MOEA/D 受到相當大的關注,以其作為基礎的許多研 究和論文被發表,大致上有以下幾種分類: 根據每個子問題在過去一段時間內解的改善程度來動態分配子問 題的演算資源 (dynamic resource allocation),例如 MOEA/D-DRA [14]、 MOEA/D-GRA [15] 等。MOEA/D-DRA 每隔一定的演化代數會檢查各 子問題中的解在過去一段時間中改善了多少,如果已經停止改善便不會 再對該子問題進行最佳化,藉此將演算資源分配給還能繼續改善的子問 題;MOEA/D-GRA 除了有根據每個子問題過去一段時間的改善程度來 設定參與演化機率的線上演算資源分配 (online resource allocation) 之 9.
(16) 外,另外有事先透過其他演算法來評估子問題難度,依此決定子問題分 配多少演算資源的離線演算資源分配 (offline resource allocation)。 隨著演化過程動態調整子問題的權重向量,這方面的有 paλ-MOEA/D [16] 、 DMOEA/D [17] 及 MOEA/D-AWA [18] 等 。 paλ-MOEA/D 和 DMOEA/D 皆為隔一段時間就利用演算法目前求得的 柏拉圖最佳解產生一組新的權重向量取代舊權重向量;MOEA/D-AWA 則是會偵測擁擠區域的子問題,將擁擠區域的子問題 (權重向量) 刪除 然後在稀疏區域產生新的子問題 (權重向量),藉此調整演算法的搜尋方 向使其均勻分布。 研究環境選擇機制,針對權重向量與解之間的配對關係進行改良的 有 MOEA/D-STM [19]、MOEA/D-STM2L [20]、MOEA/D-AGR [21] 等。 MOEA/D-STM 使用穩定配對法 (stable-matching) 取代 MOEA/D 原本 的選擇機制,將子問題與解之間進行配對,藉此取得收斂程度和分散程 度之間的平衡;MOEA/D-STM2L 將穩定配對法改良為雙層穩定配對法 (two-level stable-matching),限制解的喜好子問題,避免出現距離過遠的 配對;MOEA/D-AGR 的選擇機制為全域取代法 (global replacement), 新產生的子代不是與鄰居而是與所有子問題進行比較,取代能夠獲得最 佳適應值的子問題中的解。. 2.2 求解高目標最佳化問題面臨的挑戰與方向 Li 等人 [22] 提到了多數現存的多目標最佳化演化演算法在處理高目標最 佳化問題時會遇到的六個難題:. 10.
(17) (1) 族群中的解大部分皆為非凌越解:Ishibuchi 等人 [1] 提到,隨著目標數 的增加,族群中的每一個解之間變得很難有明確的凌越關係,這使得以 凌越關係作為主要適應值的演算法很難以此判斷解之間的優劣,導致演 算法的搜尋能力下降。例如 NSGA-II 以凌越關係將族群排序出階層, 從最靠近柏拉圖前緣的階層開始加入下一代的族群,而當目標數很高的 時候,族群可能只能分出一個階層,此時 NSGA-II 只能依靠擁擠距離 來判斷解的好壞,無法有效的幫助族群進行收斂。 (2) 分散程度維護機制的效果變差:考量到演化演算法的計算效率,演算法 的族群大小通常不會設定得太大,當目標數為二或三的時候,在目標空 間中的柏拉圖前緣通常為線性或者平面,要維持族群均勻分布在上面並 不困難,但是當問題的目標數上升的時候,族群在目標空間中的分布會 變得很分散,使常用的分散程度維護機制的效果變差;另外 Purshouse 與 Fleming [23] 提到,收斂程度與分散程度本身即為互相衝突的兩個目 標,而這個衝突也會隨著問題目標數的增加變得更為嚴重。另外由於現 存常見的分散程度維護機制例如擁擠距離,傾向於選擇收斂程度較差的 解,這在高目標的情況下對族群的收斂程度會有不利的影響。 (3) 交配變得沒有效率:同第 (2) 點,在高目標最佳化問題的目標空間中, 數量不大的族群其解在目標空間中相互之間的距離可能會很遠,在這情 況下交配產生的子代通常也會距離親代很遠,無法產生靠近 (相似於) 親代的解讓交配的搜尋功能變得很不可靠。 (4) 效能指標的計算變得昂貴:計算效能指標的時候,需要比較解在所有目 標方向上的目標值,因此當目標數增加的時候,比較目標值的計算成本 11.
(18) 就會變得很高,例如多維體積的計算量便是隨著目標數增加而呈現指數 成長 [24],使得指標函式型多目標演化演算法的效能受到嚴重的影響。 (5) 不容易呈現折衷平面 (trade-off surface) :與 (2)、(3) 點類似,在高目 標空間中族群的分布非常分散,代表要呈現出完整的平面需要數量龐大 的族群,但是族群數量增加會使演化演算法的效率變差,除此之外數量 過於龐大的族群也會使決策者 (decision maker) 不容易從中挑選出偏好 的解。 (6) 演化結果不易視覺化:承第 (5) 點,高目標最佳化問題的目標空間要視 覺化非常困難。 針對前述所提及的困難點,Li 等人 [22] 提出了五個可能的研究方向: (1) 使用新的凌越關係:對於凌越關係型多目標最佳化演化演算法來說,最 直接有效的改善方法就是修改凌越關係的規則,使其能夠適應高目標的 情況。這個改善方向已經有 ϵ-dominance [25] 以及 grid-dominance [26] 等論文被發表,其中 grid-dominance 不只能夠增加族群的收斂程度同時 也能維持分散程度。 (2) 將多目標問題分解:使用一組均勻分布的權重向量或者參考點搭配聚合 函 數 將 多 目 標 問 題 分解 成 多 個 單 目 標 的 子問 題 同 時 進 行 最 佳 化 , MOEA/D 即為此類方法的代表;雖然 MOEA/D 原本不是設計來求解高 目標最佳化問題的演算法,但是分解多目標問題的作法本身就有利於求 解高目標問題,均勻分布的權重向量也可以幫助族群維持在目標空間裡 的分散程度。其中 MOEA/D 的衍生演算法 MOEA/D-M2M [27] 將多目. 12.
(19) 標問題分割成多個較為簡單的多目標子問題,每一個多目標子問題擁有 自己的目標子空間與族群分別各自進行演化,由於每個子問題的目標空 間較小,使得子問題中的族群較容易透過凌越關係來分出解的優劣。另 外由於權重向量或參考點均勻分布在目標空間中,可以均勻引導族群在 目標空間中的搜尋方向,藉此提升族群的分散程度;NSGA-III 便是透 過加入均勻分布的參考點來幫助維持族群的分散程度。 (3) 改良分散程度維護機制:此研究方向為改善分散程度維護機制對於演算 法收斂程度的影響。Adra 與 Fleming [28] 使用一種分散程度控制機制 來開啟與關閉 NSGA-II 中的擁擠距離機制;Li 等人 [29] 提出了基於 移動量的密度評估策略 (shift-based density estimation strategy, SDE) 作 為新的分散程度維護機制,SDE 會給予收斂程度較差的解一個較高的密 集值 (density values) 使其被分類到擁擠區域後遭到淘汰,在保持族群分 散程度的同時也能增進族群的收斂程度;NSGA-III 的利基保存機制也 是使用類似改良分散程度維護機制的方法來降低對收斂程度的影響。 (4) 多準則決策 (multi-criteria decision making, MCDM) 方法:此研究方向的 演算法將目標空間的搜尋限制在特定方向上以求得柏拉圖解集合中被 決策者優先選擇的子集合,由於搜尋空間被縮小,目標數過大所造成的 影響也被降低 [30]。 (5) 降低問題的目標數 (objective reduction):此方法假設高目標最佳化問題 中有多餘的目標,透過找出問題中無用的目標方向並將其去除來降低問 題的目標數,例如 principal component analysis [31],若能將目標數降到 夠低的程度,就可以使用多目標最佳化演化演算法來進行求解。 13.
(20) 2.3 基於參考點的高目標演化演算法 在前一節提到的各個研究方向中,利用權重向量 (參考點) 分解多目標問題 的方法在近年來有不錯的成果,許多使用此類型方法的演算法被相繼發表。 NSGA-III [5] 由 Deb 與 Jain 於 2014 年提出,以 NSGA-II 作為基礎為了 求解高目標最佳化問題進行改良,演算法的基本架構與 NSGA-II 相同,加入了 分解多目標問題的概念,為使用凌越關係與多目標分解的混合演算法 (hybrid algorithm),使用一組均勻分布於目標空間的參考點來輔助族群的搜尋方向,並且 透過利基保存機制幫助增強族群的分散程度。 Li 等人在 2015 年發表了 MOEA/DD [22],MOEA/DD 同樣也是結合了原 本 MOEA/D 分解多目標問題與使用凌越關係的混合演算法。演算法流程如下: 初始化族群與權重向量,族群數量與權重向量的數目皆為 N,與 MOEA/D 略有 不同的是,在 MOEA/DD 中,權重向量除了代表該方向的子問題外,也對應一 個目標子空間,族群中的解各自與最接近的權重向量關連 (associate),接著與 MOEA/D 相同,每一個權重向量計算出自己的鄰居權重向量,進行繁殖的時候, 子問題從與自己的鄰居關連的解中隨機挑選出親代進行交配,每產生一個子代就 進行環境選擇,將產生的子代與親代合併為 N + 1 的族群進行非凌越排序,接著 依序按照凌越關係、族群密集度以及 PBI 函數值作為適應值進行環境選擇,並 且加入一個偵測機制幫助位於孤立區域的個體能夠存活以增加族群的分散程 度。 Xiang 等人 [8] 於 2017 年發表了 VaEA,不同於 NSGA-III 以及 MOEA/D 系列的演算法,VaEA 不使用事先設定好的參考點來維護族群的分散程度以及引. 14.
(21) 導族群搜尋的方向,而是將已經被挑選的族群和等待被選擇的族群之間進行關連, 把已經被挑選進入下一代的族群作為參考點使用;如果族群皆為非凌越解,無法 先挑選出解作為參考點時,VaEA 使用特定的機制選擇 2m 個解作為參考點。隨 著選擇機制挑選進入下一代的解的過程,更新的族群發揮如同動態調整的參考點 的作用。利用此動態參考點的概念配合最大角度原則與較差淘汰原則的選擇機制, VaEA 在收斂程度以及分散程度之間取得了平衡。 Liu 等人 [32] 近期發表了 MOEA/D-AM2M,與 MOEA/D-M2M 相同利用 K 個方向向量將目標空間分割成 K 個目標子空間,每個子空間有專屬的族群與 一組權重向量,不同的是 MOEA/D-AM2M 在演化的過程中會藉由族群的分布來 動態調整子空間的方向向量。動態調整方向向量的流程為:演化每經過 G 代, 演算法會將親代與子代組成 2N 的族群,首先隨機挑選一個解,計算剩下所有解 與其之間的夾角,將夾角最大的解加入下一代的族群,這個解的向量即為第一個 新的子空間的方向向量,接著更新剩下的解與被選出的方向向量之間的夾角,選 出下一個夾角最大的解加入族群,重複直到族群中有 K 個解,此 K 個解的向量 即為新的 K 個子空間的方向向量;K 個子空間中也使用相同的方法挑選出該子 空間所需的一組權重向量,最後使用這些權重向量進行環境選擇。 MOEA/D-AM2M 雖然與 VaEA 使用同樣動態參考點的概念,但是 AM2M 不需 要先決定一群解當作開始的參考點。. 15.
(22) 第三章 基於參考點的高目標演化演算法與探 討 在這章節中我們將詳細介紹 NSGA-III 演算法與 VaEA 演算法,對這兩種演 算法進行探討並提出可能的改良方法。. 3.1 NSGA-III NSGA-III 的基本流程如演算法 1 所示,首先進行族群與參考點的初始化, 族群數量與參考點的數目皆為 N,在演算法的終止條件滿足之前,每一代都由親 代交配產生 N 個子代,由親代與子代組成大小為 2N 的族群。接著對其進行非 凌越排序,從優先度最高的階層開始加入下一代的族群,最後一個有機會加入的 階層為 Fl 。Fl 透過利基保存機制從中挑選存活到下一代的解,為了幫助利基保 存機制進行比較,NSGA-III 用族群建構超平面 (hyperplane) 來對解進行適應性 正規化 (adaptive normalization),正規化完成之後將 Fl 中的所有解與參考點進行 關連,最後在利基保存機制的過程中會優先考慮關連的解數量,即利基計數 (niche count) 最少的參考點,如果利基計數的值為零,從 Fl 裡與該參考點關連 的解中挑選離該參考點垂直距離最小的解加入 S;如果利基計數的值不為零,則 從 Fl 裡與該參考點關連的解中隨機挑選一個解加入下一代的族群,若 Fl 中已經 沒有與該參考點關連的解,則排除此參考點,重複此動作直到族群的數量達到 N 為止,底下將詳細介紹演算法的各個步驟。. 16.
(23) 3.1.1 初始化階段 (1) 族群初始化 初始族群 P 使用均勻分布 (uniform distribution) 的隨機取樣產生 N 個隨機 的初始解,每一個解的決策變數都必須滿足問題的下邊界 (lower bound) 與上邊 界 (upper bound) 的方塊限制 (box constraints)。. 演算法 1. NSGA-III 基本流程. 1: Initialize population P, reference points Z 2: Gen = 1 3: While Gen Genmax do 4:. Q = Reproduction(P). 5:. U=P ∪ Q. 6:. S = Non_dominated_sort(U). 7:. Adaptive_Normalization(S). 8:. Association(S, Z). 9:. P = Environmental_selection(S, Z). 10:. Gen = Gen + 1. 11: End While 12: Return P (2) 參考點初始化 參考點 Z 的生成使用 Das 與 Dennis [33] 的對稱法 (symmetric approach), 在目標數為 m 時,此方法從 m1 維的單位單形 ((m1)-dimensional unit simplex) 中均勻取樣產生參考點,得出的參考點數目如下: 𝐻+𝑚−1 ). 𝑚−1. 𝑁= (. (5). 17.
(24) H > 0 代表在每一個目標方向上的分割數,每一份分割的大小皆為 1/H,以 4+3−1 ) = 15,總共會生成 15 個參考 3−1. 目標數為 3 且分割數為 4 為例:𝑁 = (. 點,圖 3 為這個例子所產生的參考點的分布狀況。. 圖 3:m = 3, H = 4 所產生的 15 個參考點. 這種一層式參考點的方法為了使中央區域 (以圖 3 為例就是中央區域的三 個點) 能夠有參考點分布在此,H 的數值必須大於等於 m,但是當目標數多的時 候算式 (5) 所求得的參考點數目會變得很大,使得演化演算法的計算負擔大幅增 加;然而將 H 的數值設定得比 m 小的話,中央區域部分就不會有參考點產生, 除此之外,每一個目標方向上的間距過大也會影響到族群的分散程度的維護。一 種解決方法是使用兩層式參考點產生法,分為外層 (boundary layer) 參考點 B = {b1, … , bN1} 與內層 (inside layer) 參考點 I ={i1, … , iN2},使得 N1 + N2 = N。外 層的 N1 個參考點與內層的 N2 個參考點產生方法與一層式參考點相同,但是內 層 N2 個參考點 的值還會經過一個收縮 (shrink) 的計算 。假設內層 參考點 𝑇. 𝑘 𝑖 𝑘 = (𝑖1𝑘 , … , 𝑖𝑚 ) , 𝑘 ∈ {1, … , 𝑁2 },則 𝑖 𝑘 第 j 項的數值會被重新計算如下:. 18.
(25) 𝑖𝑗𝑘 =. 1 − 𝜏 + 𝜏 × 𝑖𝑗𝑘 , 𝑗 ∈ {1, … , 𝑚}. 𝑚. (6). τ [0, 1] 為一個收縮因子 (shrinkage factor),這裡不失一般性將其設定為 0.5,最後將 B 與 I 合併起來即為最後得到的參考點 Z;兩層式參考點生成法可 以在 H 值小的情況下依然不失去中央區域的參考點,可以避免參考點數量過於 龐大並且同時產生均勻的參考點,圖 4 為兩層式參考點的示意圖。. Boundary layer. Inside layer. 圖 4:兩層式參考點產生法,外層 H1 = 2,內層 H2 = 1. 3.1.2 繁殖階段 此階段會進行親代選擇以及交配與突變,反覆執行直到產生 N 個子代,再 由親代與子代組成數量 2N 的族群 U。 (1) 親代選擇 NSGA-III 的親代選擇為隨機挑選兩個親代解進行交配。 (2) 交配與突變 交配方法使用模擬二進制交配法與多項式突變法 [4],如同第二章所提到的, 為了避免產生的子代距離親代太遠,NSGA-III 將模擬二進制交配法的分布指數 (distribution index) 設成很大的數值,如此可以讓產生的子代較為靠近其親代。 19.
(26) 3.1.3 環境選擇 (1) 非凌越排序 對族群 U 進行非凌越排序,根據凌越關係將 U 分成多個階層 Fi,從最靠 近柏拉圖前緣的階層開始逐一加入族群 S 中,一次加入整個階層,如果在某一 階層的解加入之後 S 的數量剛好為 N,直接輸出 S 作為下一代的族群,除此之 外繼續直到某一階層的解加入後使 S 的數量超過 N (│S│ N),這個最後被加入 的階層 Fi 稱為 Fl。 (2) 適應性族群正規化 NSGA-III 使用適應性的正規化方法,首先由族群 S 裡面的解在各目標方向 𝑚𝑖𝑛 𝑇 𝑚𝑖𝑛 上最小的目標值組成理想點 (ideal point) 𝑍 𝑚𝑖𝑛 = {𝑧1𝑚𝑖𝑛 , 𝑧2𝑚𝑖𝑛 , … , 𝑧𝑚 } , 𝑧𝑖 =. min𝑗=1~2𝑁 𝑓𝑖 (𝑥𝑗 ) , 𝑥𝑗 ∈ 𝑆 , 接 著 從 S 中 找 出 在 m 個 目 標 方 向 上 的 極 限 點 (extreme points) 𝑍𝑖𝑚𝑎𝑥 , 𝑖 = 1, … , 𝑚,極限點為使 m 個目標方向的向量 (1, 0, … , 0)、(0, 1, … , 0) … (0, 0, … , 1) 上成就標量化函數 (achievement scalarizing function, ASF) 值最小的解,ASF 函數的計算式如下:. ASF(𝑥, 𝑤) = max { 𝑘=1:𝑚. (𝑓𝑘 (𝑥) − 𝑧𝑘𝑚𝑖𝑛 )⁄ 𝑤𝑘 } , 𝑘 = 1, 2, … , 𝑚.. (7). 由此 m 個極限點構成一個超平面,接著可以計算出此超平面在各目標方向 上到原點的截距 ak。有了以上資訊,便可將 S 裡的解 xj 經由以下算式進行正規 化:. 𝑓𝑘′ (𝑥𝑗 ). =. 𝑓𝑘 (𝑥𝑗 ) − 𝑧𝑘𝑚𝑖𝑛 𝑎𝑘 − 𝑧𝑘𝑚𝑖𝑛. , 𝑘 = 1, 2, … , 𝑚.. 20. (8).
(27) (3) 關連 經過正規化之後,為了在環境選擇中讓參考點輔助進行環境選擇,NSGA-III 將族群 S 與 Fl 中的解與參考點 Z 進行關連的動作。首先將參考點與原點連線 形成參考線,接著計算每一個解到每一條參考線的垂直距離,若有一個解 xi 到 某條參考線的垂直距離為最短,代表解 xi 與形成該參考線的參考點相關連,同 時若 xi S 且 xi Fl ,則將該參考點的利基計數加一。 (4) 選擇 此步驟要挑選出 N 個解進入下一代,在非凌越排序的階段因為最後 Fl 的加 入使得 S 的數量超過 N,所以需要從 Fl 中挑選出 │S│ N 個解進入下一代。 NSGA-III 的選擇機制為利基保存機制,首先從 S 中去除 Fl 為 S',接著檢查每 個參考點的利基計數 j, j = 1, … , N,找出 j 值最小的參考點,如果有複數個存 在則隨機挑選其中之一,選定參考點之後按照以下規則挑選要加入的解:j = 0 的 情況,察看 Fl 中是否有解與這個參考點關連,有的話將與此參考點垂直距離最 小的解加入,將 j 的數目加一;沒有任何解與此參考點關連的話接下來的挑選 便不再考慮此參考點。j 1 的情況,一樣察看 Fl 中是否有解與此參考點關連, 有的話從中隨機選擇一個解加入;沒有的話接下來的挑選不再考慮此參考點。重 複以上步驟直到從 Fl 挑出 │S│ N 個解與 S' 組成下一代的族群 P。. 3.2 VaEA VaEA 的基本流程如演算法 2,首先初始化數量為 N 的族群,每一代交配 產生 N 個子代之後,與親代組成 2N 的族群,對其進行非凌越排序,依照凌越 關係分成多個階層,從優先度最高的階層開始加入下一代的族群,最後有機會加. 21.
(28) 入的階層 Fl 會將前面所有已經加入下一代族群的解作為參考點進行關連的動作, 並且計算 Fl 中的解與最近的參考點之間的夾角;如果所有的解皆為非凌越解, 意即 Fl 的大小為 2N 時,VaEA 會挑選出 m 個與各目標方向上的向量夾角最 小的解以及 m 個適應值最小的解加入下一代的族群,同時此 2m 個解也成為參 考點,接著計算 Fl 中解與最近的參考點之間的夾角。最後依照最大角度優先原 則以及較差淘汰原則從 Fl 中挑選剩餘所需的解,最大角度優先原則挑選經過關 連之後在 Fl 之中與參考點之間夾角最大的解;較差淘汰原則檢查所有已經加入 下一代族群的解與 Fl 中解的夾角,如果小於設定的閥值則依據解的適應值來刪 除較差的解。每當有新的解進入族群,演算法就會將更新後的族群作為新的參考 點與 Fl 關連,使族群發揮相當於動態參考點的作用,藉由最大角度優先原則與 較差淘汰原則,VaEA 在收斂程度與分散程度之間取得平衡,接下來將詳細介紹 演算法的各個階段。. 3.2.1 初始化階段 VaEA 只需要初始化族群,初始族群 P 使用均勻分布的隨機取樣產生 N 個 隨機的初始解,並且滿足問題的方塊限制。. 3.2.2 繁殖階段 此階段會進行親代選擇以及交配與突變,反覆執行直到產生 N 個子代,由 親代與子代組成數量 2N 的族群 U。 (1) 親代選擇 VaEA 的親代選擇為隨機挑選兩個親代進行交配。. 22.
(29) 演算法 2. VaEA 基本流程. 1: Initialize population P 2: Gen = 1 3: While Gen Genmax do 4:. Q = Reproduction(P). 5:. U=P ∪ Q. 6:. Normalization(U). 7:. P = Environmental_selection(U). 8:. Gen = Gen + 1. 9: End While 10: Return P (2) 交配與突變 交配方法使用模擬二進制交配法與多項式突變法 [4],與 NSGA-III 同樣為 了避免產生的子代距離親代太遠,將模擬二進制交配法的分布指數設為大的數值, 使產生的子代較為靠近其親代。. 3.2.3 環境選擇 (1) 族群正規化 VaEA 採用一般的正規化方法,首先對族群 U 進行目標向量 (objective vector) 的正規化,由 U 裡面的解在各目標方向上的最小目標值組成理想點 𝑚𝑖𝑛 𝑇 𝑚𝑖𝑛 𝑍 𝑚𝑖𝑛 = {𝑧1𝑚𝑖𝑛 , 𝑧2𝑚𝑖𝑛 , … , 𝑧𝑚 } , 𝑧𝑖 = min𝑗=1~2𝑁 𝑓𝑖 (𝑥𝑗 ) , 𝑥𝑗 ∈ 𝑈,以相同的方法將. 解 在 各 目 標 方 向 上 最 大 的 目 標 值 組 成 天 底 點. (nadir point). 𝑚𝑎𝑥 𝑇 𝑍 𝑚𝑎𝑥 = {𝑧1𝑚𝑎𝑥 , 𝑧2𝑚𝑎𝑥 , … , 𝑧𝑚 } ,有了這二個參考點之後,所有在 U 裡的解 xj 的. 目標向量中每個目標方向的目標值可以經由以下算式正規化:. 𝑓𝑖′ (𝑥𝑗 ). =. 𝑓𝑖 (𝑥𝑗 ) − 𝑧𝑖𝑚𝑖𝑛 𝑧𝑖𝑚𝑎𝑥 − 𝑧𝑖𝑚𝑖𝑛. , 𝑖 = 1, 2, … , 𝑚. 23. (9).
(30) 在正規化的過程中也一併計算解的適應值,計算方式如下: 𝑚. 𝑓𝑖𝑡(𝑥𝑗 ) = ∑ 𝑓𝑖 ′(𝑥𝑗 ) .. (10). 𝑖=1. (2) 非凌越排序 經由非凌越排序將族群 U 分成多個階層 Fi,從最靠近柏拉圖前緣的階層開 始逐一加入族群 S 中,一次加入整個階層,如果在某一階層的解加入之後 S 的 數量剛好為 N,直接輸出 S 作為下一代的族群,除此之外繼續,直到某一階層 的解加入後 S 的數量超過 N (│S│ N),這個最後被加入的階層 Fi 稱為 Fl。 (3) 關連 由於沒有事先設定的參考點,VaEA 的關連方法與 NSGA-III 不同,是將已 經加入下一代的族群 S 作為參考點與 Fl 中的解進行關連。對 Fl 中的每一個解 xj 找出在 S 中與其夾角最小的解 xk,將兩個解建立關連並且記錄此最小夾角的 數值,對於解 xk 我們稱其為解 xj 的目標解 (target solution),標示為 T(xj)。夾角 的計算可經由以下算式求得:. 𝑎𝑛𝑔𝑙𝑒(𝑥𝑗 , 𝑥𝑘 ) ≜ arccos |. 𝑚. 𝐹 ′ (𝑥𝑗 ) ∙ 𝐹 ′ (𝑥𝑘 ) 𝑛𝑜𝑟𝑚(𝑥𝑗 )𝑛𝑜𝑟𝑚(𝑥𝑘 ). 2. 𝑛𝑜𝑟𝑚(𝑥𝑗 ) ≜ √∑ 𝑓𝑖′ (𝑥𝑗 ) .. |.. (11). (12). 𝑖=1. 𝑚 ′. 𝐹 (𝑥𝑗 ) ∙. 𝐹 ′ (𝑥𝑘 ). = ∑ 𝑓𝑖′ (𝑥𝑗 ) ∙ 𝑓𝑖′ (𝑥𝑘 ) . 𝑖=1. 24. (13).
(31) 如果非凌越排序的結果只有一個階層,即 Fl = U 的情況下,VaEA 會從 Fl 裡面挑出 m + m 個解形成族群 S ,前 m 個解選擇與 m 個目標方向的向量 (1, 0, … , 0)、(0, 1, … , 0) … (0, 0, … , 1) 擁有最小夾角的解,後 m 個選擇族群中適 應值最小的 m 個解,後 m 個解不與前 m 個解重複,大小為 2m 的 S 形成之 後同樣將這個族群 S 當作參考點與 Fl 中剩餘的解進行上述的關連操作。 (4) 選擇 此步驟需要從 Fl 中挑選出 │S│ N 個解,每一輪都會執行最大角度優先原 則演算法與較差淘汰原則演算法各一次,最大角度優先原則會將一個新的解加入 S,較差淘汰原則有機會取代 S 中一個解,重複執行直到 │S│ = N 為止。 最大角度優先原則會檢查 Fl 中所有解 xj 與其在 S 中關連的目標解 T(xj) 之間的最小夾角,選出擁有最大的最小夾角的解 x 加入 S 並且將其從 Fl 刪除。 當 S 與 Fl 各自被更新之後,需要重新計算兩邊的關連,由於這裡 S 只加入了 一個新的解 x,所以只需要計算 Fl 中解 xj 對於 x 的夾角,檢查這個新的夾角 angle(xj, x) 是否比 angle(xj, T(xj)) 小,如果比較小就將 xj 的目標解更新為 x 並且記錄新的最小夾角的數值。 較差淘汰原則會檢查所有 Fl 中的解 xj 與其在 S 中的目標解 T(xj) = xk 的 最小夾角數值,如果小於演算法設定的閥值 = ((/2)N+1),代表這二個解 x 與 T(x) = xr 在目標空間當中位於非常接近的搜尋方向上,這個情況下演算法會檢查 x 的適應值是否比 xr 好,如果比較好則讓 x 取代 xr,並將 x 從 Fl 移除。 取代結束之後需要對 S 與 Fl 進行關連的更新,更新的動作分為兩種情況:Fl 中 的解 xj 的目標解為被取代的 xr,此時由於 x 取代了 xr 的位置,目標解直接置. 25.
(32) 換成 x,所以只要計算 xj 與 x 的夾角數值並且更新最小夾角即可;如果 Fl 中 的解 xj 的目標解不為被取代的 xr,這種情況下需要檢查 xj 與 x 的夾角數值是 否小於 xj 與其目標解 T(xj) = xk 的夾角數值,如果比較小則需要將 xj 的目標解 更新為 x 並且記錄夾角數值。. 3.3 演算法探討 3.3.1 NSGA-III 的待改進處 NSGA-III 使用參考點來輔助族群的搜尋方向,藉由族群與參考點進行關連 的步驟來幫助選擇存活至下一代的族群。由此可以得知演化過程中族群的分布與 參考點的分布有很大的正相關,當問題的柏拉圖前緣形狀與設定的參考點分布相 符合的時候,NSGA-III 可以獲得非常出色的結果,但是不符合的時候就只有一部 份的參考點能夠發揮輔助搜尋的作用,使得族群分布的分散程度變差。 在環境選擇機制中,利基保存機制會從利基計數最小的參考點所關連的解開 始挑選加入到下一代的族群,如果該參考點的利基計數為零,會挑選與其關連的 解當中與其垂直距離最小的解,如果利基計數不為零,接下來加入的解會是從關 連的解裡面隨機挑選。選擇垂直距離最小的作法在於增進族群的分散程度,對於 收斂度的幫助有限;另外在利基計數不為零之後的隨機選擇對族群收斂程度與分 散程度沒有幫助,理想狀態下一個參考點只會對應一個解,但是如果問題的柏拉 圖前緣形狀與設定的參考點分布不符合,就會有參考點對應不到任何解,同時代 表會有參考點對應到不只一個解,此時隨機挑選的解數量太多,會對整體的演化 造成影響。. 26.
(33) 3.3.2 VaEA 的待改進處 我們在 Minus-DTLZ 問題組上測試 VaEA 時發現,雖然 VaEA 在分散程度 還有指標函式的數值上表現良好,但是在求得各目標方向的極值的表現並不穩定, 推測其原因與其選定的初始參考點有關,VaEA 在族群裡所有解互相不凌越的時 候,會挑選出 m 個與各目標方向夾角最小的解以及 m 個適應值最小的解作為初 始的參考點,其中 m 個與各目標方向夾角最小的解實際上還是依賴於問題的柏 拉圖前緣的形狀;以圖 5 為例,當問題的柏拉圖前緣與目標方向吻合的時候, 起始選取的 2m 個解可以輕易的找到貼近目標方向上的解;但是當柏拉圖前緣的 形狀與目標方向不合的時候,原本的選取機制沒有辦法順利找到位於柏拉圖前緣 邊角的解,以圖 6 為例,一開始選取的 2m 的點無法順利選取邊角的解,除此 之外,由於處於邊角的紅色解 A 已經與夾角較小的解 B 關連,根據最大角度原 則的運作機制,接下來的演化過程中被選取的機會就下降了。. 圖 5:VaEA 在 DTLZ1 問題上挑選的 2m 個解. 27.
(34) B A. 圖 6:VaEA 在 Minus-DTLZ1 問題上挑選的 2m 個解. 3.4 參考點生成策略之探究與改良 3.4.1 NSGA-III NSGA-III 原本的參考點所設定的搜尋方向與大部分的聚合函數相似,是把 解往理想點拉近。Sato 在 [34] 中提出了 Inverted PBI 函數,原本的 PBI 函數 也是將解往理想點拉近,而 IPBI 函數則是採取讓解遠離天頂點的作法,提供與 PBI 函數不同的搜尋行為,IPBI 函數的計算式如下: Maximize 𝑔𝑖𝑝𝑏𝑖 (𝑥|𝜆) = 𝑑1 − 𝜃𝑑2 .. (14). 𝑇. 𝑑1 =. ‖(𝑤 − 𝑓(𝑥)) 𝜆‖ ‖𝜆‖. .. 𝑑2 = ‖(𝑤 − 𝑓(𝑥)) − 𝑑1. (15) 𝜆 ‖. ‖𝜆‖. (16). 圖 7 與 圖 8 分別為 PBI 函數與 IPBI 函數在二維目標空間裡的搜尋方向 以及搜尋方向在柏拉圖前緣上的交點。從圖 7 我們可以看出 PBI 函數的搜尋方 向與凹形 (concave) 的柏拉圖前緣所形成的交點呈現出均勻的分布,但是與凸形 (convex) 的柏拉圖前緣所形成的交點呈現出集中在中央的趨勢;圖 8 的 IPBI 函 28.
(35) 數則呈現出相反的傾向,在凸形的柏拉圖前緣上的交點為均勻分布,凹形的柏拉 圖前緣的交點集中在中央。. f2. f1 圖 7:PBI 函數的搜尋方向及與柏拉圖前緣的交點 f2. f1 圖 8:IPBI 函數的搜尋方向及與柏拉圖前緣的交點 Ishibuchi 等人 [7] 的實驗將 IPBI 函數使用在 MOEA/D 上進行測試,但是 並沒有對 NSGA-III 也進行類似的操作。在這裡我們嘗試將 IPBI 函數加入 NSGA-III 當中實作 NSGA-III-IPBI,將解的目標值與參考點向量代入 IPBI 函數. 29.
(36) 中,將原本 NSGA-III 關連時使用的垂直距離替換成 IPBI 函數求得的 d2 ,在 不改變參考點設定的情況下,藉由改變搜尋方向觀察在實驗問題上產生的結果。 接著我們嘗試改良 NSGA-III 在環境選擇過程中的隨機挑選,在參考點的 niche count 皆不為零之後不使用隨機挑選而是利用 VaEA 的最大角度優先原則 來挑選要加入族群的解,去除原本的隨機性,並且藉由最大角度優先原則來獲得 更好的分散程度;除此之外也加入較差淘汰原則幫助刪除收斂程度不佳的解,增 進 整 體 的 收 斂 程 度 , 除 了 NSGA-III 外 , 我 們 也 將 相 同 的 操 作 套 用 在 NSGA-III-IPBI 上。. 3.4.2 VaEA 從前面章節的探討我們可以發現,VaEA 使用的動態參考點方法並不是完全 沒依靠問題的柏拉圖前緣的形狀,演算法的表現還是可能受到初始選定的參考點 的影響。我們嘗試改變選出初始參考點的作法,其中一種方法改為選取 m 個在 目標方向上擁有最小目標值的解,再加上原本的 m 個適應值最佳的解來組成起 始的族群即參考點,由於直接選取目標值小的解,可以減少問題的柏拉圖前緣形 狀的影響進而直接選取擁有目標方向上極值的解,這個演算法我們稱為 VaEA-minObj;另外一種是使用 MOEA/D-AM2M 中動態選出方向向量的作法, 隨機挑選一個解 a,找出與這個隨機解之間角度最大的解 b 作為唯一的初始參考 點,接著同樣利用最大角度優先原則和較差淘汰原則選擇剩下的解,我們將這個 修改後的演算法稱為 VaEA-AM2M。. 30.
(37) 第四章. 實驗結果與分析. 本章節我們對第三章所提出的演算法進行測試,觀察在不同測試問題上的行 為表現。. 4.1 測試問題 我們使用 DTLZ [35] 問題組中的 DTLZ1 到 DTLZ4 以及 Minus-DTLZ [7] 問題組中的 Minus-DTLZ1 到 Minus-DTLZ4 作為演算法的測試問題,DTLZ 與 Minus-DTLZ 問題組的目標數 m 為 3、5、8、10。. 4.2 參數設定 根據 [7] [35] 我們將 DTLZ 與 Minus-DTLZ 問題的決策變數值設定為 n = m r 1,其中 DTLZ1、Minus-DTLZ1 的 r 設定為 5,DTLZ2 到 DTLZ4 還 有 Minus-DTLZ2 到 Minus-DTLZ4 的 r 設定為 10。演算法的各項參數跟隨 NSGA-III [5] 以及 VaEA [8] 中的設定,參考點數目設定為 m = 3 時 91 個 (H = 13)、m = 5 時 210 個 (H = 6)、m = 8 時 156 個 (h1 = 3, h2 = 2) 以及 m = 10 的 時候 275 個 (h1 = 3, h2 = 2);所有演算法的族群大小設定從 3、5、8、10 依序為 92、212、156 以及 276 個;模擬二進制交配法的交配率設定為 1,多項式突變 法的突變機率設定為 1∕n,模擬二進制交配法的分布指數設定為 30,多項式突 變法的分布指數設定為 20;每個測試問題都執行 20 次,各問題終止條件的演化 代數請參閱表 1。. 31.
(38) 表 1:測試問題終止條件的演化代數 測試問題. 3. 5. 8. 10. DTLZ1, Minus-DTLZ1. 400. 600. 750. 1000. DTLZ2, Minus-DTLZ2. 250. 350. 500. 750. DTLZ3, Minus-DTLZ3. 1000 1000 1000 1500. DTLZ4, Minus-DTLZ4. 600. 1000 1250 2000. 4.3 效能指標 多目標演化演算法的目標為求得靠近柏拉圖前緣的一組近似解集合 (approximation set),這一組近似解集合有以下兩個目標: (1) 在集合中的所有解必須盡可能接近柏拉圖前緣。 (2) 在集合中的所有解在目標空間當中必須盡可能的分散。 由這兩點可以看出,近似解集合的品質好壞決定於其與柏拉圖前緣的距離, 意即收斂度,以及在目標空間中解相互之間的距離,即分散度。 多目標最佳化演算法使用指標函式來評估近似解集合的品質,較為常見的有 generational distance (GD) [36]、inverted generational distance (IGD) [37] 以及多維 體積。GD 與 IGD 的計算式表示如下:. 𝐺𝐷(𝑃∗ , 𝑃) =. 𝐼𝐺𝐷(𝑃∗ , 𝑃) =. ∑𝑢 ∈ 𝑃 𝑑(𝑢, 𝑃 ∗ ) . |𝑃|. (17). ∑𝑣 ∈ 𝑃∗ 𝑑(𝑣, 𝑃) . |𝑃∗ |. (18). P 代 表 演 算 法 所 求 得 的 近 似 解 集 合 , P* 代 表 柏 拉 圖 前 緣 或 參 考 前 緣 (reference front),d (u, P*) 代表近似解集合中各點 u 到柏拉圖前緣 P* 的最短距. 32.
(39) 離,d (v, P) 代表柏拉圖前緣中各點 v 到近似解集合 P 的最短距離。GD 只能 測量出收斂程度而 IGD 則可以同時測量出收斂程度與分散程度 (圖 9)。. 柏拉圖前緣或參考前緣 f2. 近似解集. f2. GD. f1. Z f2. IGD. f1. HV. f1. 圖 9:三種指標函式 (最小化) 多維體積的計算方式為:取出目標空間中各個目標方向最差的值組成參考點 Z,再將所有由近似解集合中各點與 Z 所形成的超方形 (hypercubes) 的面積 (體 積) 結合起來而得。多維體積也可以同時測量出收斂程度與分散程度 (圖 9)。 我們的實驗結果使用 IGD 作為效能評估的指標,各實驗問題用來計算 IGD 的近似前緣如下:DTLZ1 到 DTLZ4 的參考前緣使用與 [8] 相同的設定, Minus-DTLZ1 到 Minus-DTLZ4 則是在各問題的柏拉圖前緣上隨機取一萬個點 形成參考前緣。. 4.4 結果與討論 所有實驗數據都會經過 Wilcoxon 排序和檢定,數據表格中粗體代表與其它 數據差異顯著且較為優異,皆為粗體代表之間無明顯差異。. 33.
(40) 表 2:NSGA-III 與 NSGA-III-IPBI (適應性正規化) 的 IGD 平均值和標準差 Problem DTLZ1. DTLZ2. DTLZ3. DTLZ4. Minus-DTLZ1. Minus-DTLZ2. Minus-DTLZ3. Minus-DTLZ4. M 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10. NSGA-III (adaptive) 2.068E-02 (1.196E-04) 5.365E-02 (1.415E-04) 9.451E-02 (3.246E-04) 1.093E-01 (4.384E-04) 5.244E-02 (7.707E-06) 1.658E-01 (1.138E-04) 3.420E-01 (1.954E-03) 4.213E-01 (8.910E-05) 5.307E-02 (2.411E-03) 1.664E-01 (1.319E-03) 3.489E-01 (6.046E-04) 4.236E-01 (3.661E-03) 2.221E-01 (3.430E-01) 1.658E-01 (1.754E-04) 3.401E-01 (6.435E-05) 4.210E-01 (1.315E-04) 3.164E+01 (1.610E+00) 8.868E+01 (4.165E+00) 1.979E+02 (2.023E+01) 2.189E+02 (1.339E+01) 2.359E-01 (7.543E-03) 7.236E-01 (4.636E-03) 1.626E+00 (1.920E-01) 1.797E+00 (7.029E-02) 1.525E+02 (9.334E-01) 4.531E+02 (1.035E+01) 1.015E+03 (1.075E+02) 1.082E+03 (6.767E+00) 2.411E-01 (4.432E-03) 7.484E-01 (3.019E-02) 1.448E+00 (2.045E-01) 1.607E+00 (4.136E-02). NSGA-III-IPBI (adaptive) 3.009E-02 (8.950E-04) 3.398E-01 (8.263E-03) 4.249E+01 (2.143E+01) 5.739E+01 (2.425E+00) 7.196E-02 (1.114E-03) 2.472E-01 (4.308E-03) 2.621E+00 (1.252E-02) 2.595E+00 (7.271E-02) 7.300E-02 (9.098E-04) 3.071E+00 (2.819E+00) 1.616E+03 (1.334E+02) 5.687E+02 (1.652E+01) 2.117E-01 (3.259E-04) 2.626E-01 (1.805E-02) 2.444E+00 (2.513E-02) 2.504E+00 (1.307E-02) 3.526E+01 (3.173E+00) 8.517E+01 (1.017E+01) 2.069E+02 (3.684E-01) 2.244E+02 (1.519E+01) 2.982E-01 (1.151E-02) 7.509E-01 (1.233E-02) 1.614E+00 (8.516E-02) 1.764E+00 (5.176E-03) 1.848E+02 (1.133E+01) 4.626E+02 (1.864E+01) 9.933E+02 (5.158E+01) 1.088E+03 (4.135E+01) 2.957E-01 (1.058E-02) 8.109E-01 (1.706E-02) 1.441E+00 (2.428E-02) 1.603E+00 (7.077E-02). (1) NSGA-III 與 NSGA-III-IPBI 的比較 表 2 為 NSGA-III 與 NSGA-III-IPBI 的 IGD 數據,根據 IPBI 函數從天頂 點往柏拉圖前緣推進的特性,NSGA-III-IPBI 應該能夠在擁有凸形柏拉圖前緣的 Minus-DTLZ2 到 Minus-DTLZ4 有好的效能表現,然而 NSGA-III-IPBI 卻沒能 有預期中的表現,推究其原因在於族群正規化上。NSGA-III 的適應性正規化方 法使用族群建構的超平面來進行正規化,然而 Minus-DTLZ 問題的柏拉圖前緣為 34.
(41) 倒轉的 DTLZ 問題的柏拉圖前緣,倒轉的形狀除了讓 NSGA-III 的多數參考點 無法發揮效果之外,也會使建構出的超平面的規模不正確,進而使得正規化的效 果產生問題。 表 3:NSGA-III-IPBI 使用不同正規化方法的 IGD 平均值和標準差 Problem DTLZ1. DTLZ2. DTLZ3. DTLZ4. Minus-DTLZ1. Minus-DTLZ2. Minus-DTLZ3. Minus-DTLZ4. M 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10. NSGA-III-IPBI (adaptive normalization) 3.009E-02 (8.950E-04) 3.398E-01 (8.263E-03) 4.249E+01 (2.143E+01) 5.739E+01 (2.425E+00) 7.196E-02 (1.114E-03) 2.472E-01 (4.308E-03) 2.621E+00 (1.252E-02) 2.595E+00 (7.271E-02) 7.300E-02 (9.098E-04) 3.071E+00 (2.819E+00) 1.616E+03 (1.334E+02) 5.687E+02 (1.652E+01) 2.117E-01 (3.259E-04) 2.626E-01 (1.805E-02) 2.444E+00 (2.513E-02) 2.504E+00 (1.307E-02) 3.526E+01 (3.173E+00) 8.517E+01 (1.017E+01) 2.069E+02 (3.684E-01) 2.244E+02 (1.519E+01) 2.982E-01 (1.151E-02) 7.509E-01 (1.233E-02) 1.614E+00 (8.516E-02) 1.764E+00 (5.176E-03) 1.848E+02 (1.133E+01) 4.626E+02 (1.864E+01) 9.933E+02 (5.158E+01) 1.088E+03 (4.135E+01) 2.957E-01 (1.058E-02) 8.109E-01 (1.706E-02) 1.441E+00 (2.428E-02) 1.603E+00 (7.077E-02). 35. NSGA-III-IPBI (simple normalization) 8.520E-02 (1.569E-02) 3.601E+01 (9.726E+01) 4.618E+01 (2.821E+01) 5.838E+01 (9.325E-01) 7.197E-02 (6.296E-04) 3.568E-01 (1.341E-02) 2.617E+00 (2.060E-02) 2.588E+00 (3.708E-02) 3.258E-01 (2.723E-02) 5.655E+02 (2.371E+02) 1.620E+03 (1.304E+02) 6.114E+02 (8.748E+01) 1.159E-01 (3.384E-03) 1.015E+00 (8.627E-03) 2.440E+00 (7.679E-03) 2.489E+00 (1.599E-02) 2.255E+01 (1.027E-01) 5.354E+01 (4.670E-01) 2.009E+02 (1.068E+01) 2.409E+02 (5.502E+00) 2.033E-01 (8.563E-04) 6.410E-01 (4.979E-03) 1.131E+00 (3.231E-03) 1.594E+00 (7.909E-02) 1.289E+02 (7.071E-03) 4.068E+02 (7.085E-01) 7.428E+02 (1.354E+01) 1.364E+03 (9.100E+00) 2.049E-01 (3.041E-05) 6.493E-01 (1.676E-04) 1.125E+00 (7.566E-04) 1.557E+00 (1.204E-01).
(42) (2) 使用不同正規化方法的 NSGA-III-IPBI 根據 (1) 的實驗結果,我們決定測試 NSGA-III-IPBI 分別在適應性正規化方 法 與 一 般 的 正 規 化方法 上 的 表 現 , 結 果如表 3 。 從 表 3 我 們可 以 看 出 對 Minus-DTLZ 問題來說,使用一般正規化方法的 NSGA-III-IPBI 相對於適應性正 規化方法有著較好的表現,並且在 DTLZ 問題上的表現與使用適應性正規化方 法的差距不大。從這裡可以映證在 Minus-DTLZ 問題上,適應性正規化方法的效 果不佳,為了方便之後的實驗比較,接下來的實驗全部都採用一般的正規化方法 來進行比較。 (3) NSGA-III 使用 IPBI 函數的效果 將正規化方法固定為一般正規化方法之後,我們將同樣使用一般正規化方法 的 NSGA-III 與 NSGA-III-IPBI 進行比較。表 4 為兩邊的 IGD 數據,從表中 可以看出在利用 IPBI 函數改變了參考點的搜尋方向之後,NSGA-III-IPBI 在 Minus-DTLZ 問題上的表現都勝過 NSGA-III,然而在 DTLZ 問題上面的表現都 不如 NSGA-III,這是因為 IPBI 函數的搜尋方向有利於在凸形的柏拉圖前緣上找 出均勻分布的解而不利於在凹形的柏拉圖前緣上找出均勻的解。. (4) VaEA 與不同的起始參考點設定 表 5 為 VaEA、VaEA-minObj 以及 VaEA-AM2M 的 IGD 數值。在這三者 當中 VaEA 與 VaEA-minObj 在 DTLZ 問題上表現較佳而 VaEA-AM2M 在 Minus-DTLZ 問題上有著稍微優異的表現,原因可能在於 VaEA 與 VaEA-minObj 所選出的初始參考點符合 DTLZ 問題的柏拉圖前緣形狀,而 AM2M 的完全動 態式參考點的搜尋方式較不容易受到柏拉圖前緣形狀的影響。這三者的比較還有. 36.
(43) 另外一個目的是檢證能否求得問題中目標方向的極限值 (最小值) 。圖 10 到 圖 13 為 Minus-DTLZ1 到 Minus-DTLZ4 由這三者求得的各目標方向的平均最小 目標值所形成的折線圖,縱軸為目標值大小,橫軸為各目標。由這四張圖可以看 出 VaEA-minObj 直接利用擁有各目標方向上最小目標值的解作為初始參考點對 於找到極限值非常有效,而 AM2M 的作法可能是過於強調分散程度,反而導致 族群無法順利收斂,原始 VaEA 的表現介於兩者之間。 表 4:NSGA-III 與 NSGA-III-IPBI (一般正規化) 的 IGD 平均值和標準差 Problem DTLZ1. DTLZ2. DTLZ3. DTLZ4. Minus-DTLZ1. Minus-DTLZ2. Minus-DTLZ3. Minus-DTLZ4. M 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10 3 5 8 10. NSGA-III 2.565E-02 (3.415E-05) 5.638E-02 (5.561E-04) 1.071E-01 (1.793E-03) 1.114E-01 (6.859E-05) 5.294E-02 (2.044E-05) 1.654E-01 (6.576E-05) 3.418E-01 (1.669E-04) 4.216E-01 (1.838E-05) 6.774E-02 (2.726E-03) 1.747E-01 (4.130E-04) 3.959E-01 (4.632E-04) 4.242E-01 (3.748E-03) 6.467E-02 (1.136E-04) 1.654E-01 (9.051E-05) 3.402E-01 (7.071E-06) 4.207E-01 (2.814E-04) 3.194E+01 (5.763E-01) 7.431E+01 (3.505E+00) 2.231E+02 (8.924E-01) 2.509E+02 (2.186E+00) 2.351E-01 (1.348E-03) 7.584E-01 (2.951E-03) 1.749E+00 (9.744E-03) 1.972E+00 (1.614E-02) 1.537E+02 (5.344E+00) 4.887E+02 (1.366E+01) 1.094E+03 (6.739E+00) 1.214E+03 (1.526E+01) 2.409E-01 (6.312E-03) 7.637E-01 (7.548E-03) 1.418E+00 (2.181E-02) 1.594E+00 (1.782E-03) 37. NSGA-III-IPBI 8.520E-02 (1.569E-02) 3.601E+01 (9.726E+01) 4.618E+01 (2.821E+01) 5.838E+01 (9.325E-01) 7.197E-02 (6.296E-04) 3.568E-01 (1.341E-02) 2.617E+00 (2.060E-02) 2.588E+00 (3.708E-02) 3.258E-01 (2.723E-02) 5.655E+02 (2.371E+02) 1.620E+03 (1.304E+02) 6.114E+02 (8.748E+01) 1.159E-01 (3.384E-03) 1.015E+00 (8.627E-03) 2.440E+00 (7.679E-03) 2.489E+00 (1.599E-02) 2.255E+01 (1.027E-01) 5.354E+01 (4.670E-01) 2.009E+02 (1.068E+01) 2.409E+02 (5.502E+00) 2.033E-01 (8.563E-04) 6.410E-01 (4.979E-03) 1.131E+00 (3.231E-03) 1.594E+00 (7.909E-02) 1.289E+02 (7.071E-03) 4.068E+02 (7.085E-01) 7.428E+02 (1.354E+01) 1.364E+03 (9.100E+00) 2.049E-01 (3.041E-05) 6.493E-01 (1.676E-04) 1.125E+00 (7.566E-04) 1.557E+00 (1.204E-01).
(44) 表 5:VaEA 不同起始參考點產生方法的 IGD 平均值和標準差 Problem DTLZ1. M 3 5 8 10. DTLZ2. 3 5 8 10. DTLZ3. 3 5 8 10. DTLZ4. 3 5 8 10. Minus-DTLZ1. 3 5 8 10. Minus-DTLZ2. 3 5 8. VaEA 2.355E-02 (2.986E-04) 5.649E-02 (2.367E-04) 1.051E-01 (2.694E-03) 1.143E-01 (3.635E-04) 5.699E-02 (9.497E-04) 1.682E-01 (3.762E-04) 3.770E-01 (1.645E-03) 4.186E-01 (1.963E-03) 5.940E-02 (1.033E-03) 1.700E-01 (2.943E-03) 5.607E-01 (3.284E-02) 4.254E-01 (3.328E-03) 5.694E-02 (4.972E-04) 1.691E-01 (9.157E-04) 3.733E-01 (1.119E-03) 4.168E-01 (1.049E-03) 2.428E+01 (9.863E-01) 5.380E+01 (5.420E-01) 9.649E+01 (3.596E-01) 9.698E+01 (6.273E-01) 2.251E-01 (1.148E-03) 6.007E-01 (6.411E-03) 1.282E+00 (1.706E-02). VaEA-minObj 2.371E-02 (8.506E-04) 5.646E-02 (6.773E-04) 1.070E-01 (3.444E-03) 1.168E-01 (2.597E-03) 5.739E-02 (1.518E-03) 1.692E-01 (5.883E-04) 3.787E-01 (8.415E-05) 4.192E-01 (4.009E-04) 5.950E-02 (6.599E-04) 1.708E-01 (9.369E-04) 6.621E-01 (6.314E-01) 4.233E-01 (1.409E-03) 5.692E-02 (3.193E-04) 1.709E-01 (8.641E-04) 3.788E-01 (3.810E-03) 4.232E-01 (4.721E-03) 2.467E+01 (1.496E-01) 5.394E+01 (3.992E-01) 9.545E+01 (1.791E+00) 9.893E+01 (2.025E+00) 2.279E-01 (5.296E-03) 6.024E-01 (3.435E-03) 1.316E+00 (3.465E-04) 38. VaEA-AM2M 2.357E-02 (9.617E-05) 5.689E-02 (2.169E-03) 2.429E-01 (9.864E-04) 2.291E-01 (2.319E-02) 5.607E-02 (3.260E-04) 1.694E-01 (1.103E-04) 3.800E-01 (8.768E-04) 4.394E-01 (1.386E-02) 5.814E-02 (7.050E-05) 1.699E-01 (5.657E-05) 3.960E+00 (1.582E+00) 3.448E+00 (4.584E-01) 5.625E-02 (8.994E-04) 1.712E-01 (2.889E-03) 3.911E-01 (9.166E-03) 4.530E-01 (1.042E-03) 2.443E+01 (3.187E-01) 5.361E+01 (6.133E-01) 9.390E+01 (3.347E-01) 9.697E+01 (1.917E+00) 2.213E-01 (9.232E-03) 5.938E-01 (6.347E-03) 1.235E+00 (4.214E-03).
(45) 10 Minus-DTLZ3. 3 5 8 10. Minus-DTLZ4. 3 5 8 10. 1.383E+00 (1.370E-02) 1.448E+02 (2.529E+00) 3.830E+02 (1.561E+00) 8.154E+02 (7.113E+00) 8.819E+02 (6.508E+00) 2.290E-01 (2.934E-03) 6.134E-01 (2.082E-03) 1.325E+00 (1.798E-02) 1.410E+00 (6.732E-03). 1.375E+00 (8.280E-03) 1.447E+02 (1.649E+00) 3.825E+02 (6.095E-01) 8.332E+02 (5.869E-02) 8.711E+02 (9.659E-01) 2.335E-01 (8.379E-04) 6.102E-01 (7.220E-04) 1.343E+00 (3.097E-03) 1.393E+00 (3.543E-03). 1.389E+00 (1.513E-02) 1.409E+02 (3.338E-01) 3.831E+02 (1.706E+00) 7.773E+02 (9.397E-01) 8.729E+02 (1.809E+01) 2.246E-01 (1.328E-02) 6.046E-01 (9.537E-03) 1.247E+00 (2.855E-02) 1.394E+00 (2.630E-03). 圖 10:Minus-DTLZ1(10) 問題三個演算法平均最小目標值的折線圖. 圖 11:Minus-DTLZ2(10) 問題三個演算法平均最小目標值的折線圖 39.
(46) 圖 12:Minus-DTLZ3(10) 問題三個演算法平均最小目標值的折線圖. 圖 13:Minus-DTLZ4(10) 問題三個演算法平均最小目標值的折線圖 (5) NSGA-III 混合 VaEA 在第三章中提到由於 Minus-DTLZ 問題會使 NSGA-III 有許多參考點失去 作用,進而產生許多隨機解使得族群的演化受到影響,所以我們將 VaEA 的最大 角度優先原則以及較差淘汰原則加入取代 NSGA-III 的挑選隨機解的部分。表 6 為 NSGA-III 與混合了 VaEA 選擇機制的 NSGA-III 的實驗數據,結果顯示不管 是在 DTLZ 問題還是 Minus-DTLZ 問題上效能都獲得提昇。由於最大角度優先 原則與較差淘汰原則取代了隨機挑選,在 DTLZ 問題上發揮了增強族群分散程 40.
相關文件
Wang, Solving pseudomonotone variational inequalities and pseudo- convex optimization problems using the projection neural network, IEEE Transactions on Neural Network,
Abstract Based on a class of smoothing approximations to projection function onto second-order cone, an approximate lower order penalty approach for solving second-order cone
Qi (2001), Solving nonlinear complementarity problems with neural networks: a reformulation method approach, Journal of Computational and Applied Mathematics, vol. Pedrycz,
Since the generalized Fischer-Burmeister function ψ p is quasi-linear, the quadratic penalty for equilibrium constraints will make the convexity of the global smoothing function
Taking second-order cone optimization and complementarity problems for example, there have proposed many ef- fective solution methods, including the interior point methods [1, 2, 3,
This kind of algorithm has also been a powerful tool for solving many other optimization problems, including symmetric cone complementarity problems [15, 16, 20–22], symmetric
Non-projective Dependency Parsin g using Spanning Tree Algorithm.. R98922004 Yun-Nung Chen 資工碩一
• view from reference: one compatible reference can point to many advanced contents. • view from method: one compatible method “contract”, many different