• 沒有找到結果。

中 華 大 學

N/A
N/A
Protected

Academic year: 2022

Share "中 華 大 學"

Copied!
71
0
0

加載中.... (立即查看全文)

全文

(1)

中 華 大 學 碩 士 論 文

比較進化演算與類神經網路應用於預測 德基水庫入流量之研究

系 所 別:土木與工程資訊學系碩士班 學號姓名:M09304048 賴裕宗

指導教授:陳 莉 博士

中華民國 95 年 7 月

(2)
(3)
(4)
(5)
(6)

摘要

近年來,由於氣候改變,對於極端事件之乾旱及洪水發生也均會產生影 響,使得在水資源的調配及防災上,更增添了許多挑戰,而水庫對於水資 源的豐枯調節為不可或缺的角色,因為台灣的特殊環境,使得水庫操作就 顯的格外重要,若以水庫之旬入流建立預測模式,得知每年第一旬之入流 量,則能預測其他 35 旬入流量,將對於水庫即時操作有莫大幫助,本研究 嘗試以類神經網路(ANN),以及進化演算法中之語法式進化與遺傳演算法,

作為德基水庫中之流量預測模式(簡稱 GEGA),並比較 GEGA 和類神經之 模式優缺點。

關鍵字:類神經網路、進化演算法、語法式進化、遺傳演算法

(7)

謝誌

本論文得以完成, 要 感 謝 的 人 真 的 很 多 , 僅 以 此 文 表 達 我 的 誠 摯 謝 意 , 首 先 感謝恩師 陳教授莉兩年來的悉心指導與諄諄教誨。不論在生 活以及課業上都給予許多寶貴意見,口試期間承蒙葉怡成教授、周文杰教 授、譚智宏博士對論文提供諸多的指導及寶貴的意見,令學生拓展了新的 視野,看待問題深度與廣度的能力皆有顯著提升,論文更加充實完整,研 究能往前更進一步。

研究期間,感謝傳授模式的江柏寬學長及貓老大何智超和簡大為學長 吃喝玩樂上的幫助、郭彥良學長的提攜、大師兄王泰盛學長經驗之傳承以 及指導。同儕上山下河拼生死的仁文、學術研討好友國矩、研究室大姊頭 文娟一同努力完成研究計畫以及論文和陳慶龍大哥的精神上支持給予莫大 向前之動力。研究室同儕安哥、定中、胖子哲、皓博、柏愷、啟立、宥任、

可愛小師妹梁惠儀與學弟吳明銘在生活上的協助,我的好朋友建良、朝偉、

豪貝以及所有關心我的人再此一並致謝。

最後本論文要獻給我最敬愛的父母,最疼愛我的姐姐於論文撰寫期間 給予最大的關懷與寄託,使我能順利完成碩士學位,在此致上最由衷的感 激與謝意。

(8)

目 錄

摘要

I

謝誌

II

目錄

圖目錄

表目錄

第一章 緒論 01

1.1 研究動機 01

1.2 研究目的 02

1.3 研究架構與內容 02

第二章 文獻回顧 03

2.1 類神經網路 03

2.2 進化演算法 05

2.2.1 語法式進化 05

2.2.2 遺傳演算法 06

第三章 研究方法 09

3.1 類神經網路模式 09

3.1.1 倒傳遞網路 10

3.1.2 多層函數連結網路 11

3.1.3 通用迴歸網路 12

3.1.4 學習向量量化網路 12

3.1.5 分析調整綜合網路 13

3.2 語法式進化之演算架構 17

(9)

3.2.1 語法規則及相關專有名詞介紹 17

3.2.2 語法式進化之演算架構 18

3.3 遺傳演算法原理 21

3.3.1 GA 基本特性介紹 21

3.3.2 遺傳演算法之運算程序 22

第四章 研究區域 28

4.1 水系概況 28

第五章 案例結果分析 30

5.1 水庫入流量資料分析 30

5.1.1 旬流量變化趨勢線 30 5.1.2 類神經網路 AASN 建立流量預測模式 32 5.1.3 以語法式進化建立流量預測模式 33

5.1.4 模式評鑑指標 35

5.2 流量預測模式之運算結果 37

5.2.1 類神經網路模式(AASN) 37

5.2.2GEGA 模式 44

5.2.3 模式結果分析 53

第六章 結論與建議 55

6.1 結論 55

6.2 建議 56

參考文獻 57

(10)

圖目錄

圖 3.1 人工神經元模型 ... 9

圖 3.2 倒傳遞網路架構 ... 10

圖 3.3 AASN分析調整綜合網路模型... 13

圖 3.4 分析次網路轉換函數 ... 15

圖 3.5 綜合次網路轉換函數 ... 15

圖 3.6 八位元密碼子經解碼為整數值之個體 ... 19

圖 3.7 遺傳演算法演算流程圖 ... 23

圖 3.8 複製輪盤圖... 24

圖 3.9 單點交換... 26

圖 3.10 多點交換... 26

圖 3.11 均一交換... 27

圖 3.12 第四個位元突變 ... 27

圖 4.1 大甲溪流域水系圖 ... 29

圖 5.1 德基水庫 42 年旬計總入流量變化趨勢圖 ... 31

圖 5.2 AASN模式建立流量預測模式之流程圖 ... 32

圖 5.3 GEGA模式建立流量預測模式之流程圖 ... 34

圖 5.4 類神經預測模式第一旬收斂圖 ... 38

圖 5.5 民國 79 年AASN模式旬入流量預測圖 ... 39

圖 5.6 民國 80 年AASN模式旬入流量預測圖 ... 39

圖 5.7 民國 81 年AASN模式旬入流量預測圖 ... 40

圖 5.8 民國 82 年AASN模式旬入流量預測圖 ... 40

圖 5.9 民國 83 年AASN模式旬入流量預測圖 ... 41

圖 5.10 民國 84 年AASN模式旬入流量預測圖 ... 41

圖 5.11 民國 85 年AASN模式旬入流量預測圖... 42

圖 5.12 民國 86 年AASN模式旬入流量預測圖 ... 42

圖 5.13 民國 87 年AASN模式旬入流量預測圖 ... 43

圖 5.14 民國 93 年AASN模式旬入流量預測圖 ... 43

圖 5.15 民國 94 年AASN模式旬入流量預測圖 ... 44

圖 5.16 民國 79 年GEGA模式旬入流量預測圖 ... 44

圖 5.17 民國 80 年GEGA模式旬入流量預測圖 ... 46

圖 5.18 民國 81 年GEGA模式旬入流量預測圖 ... 46

圖 5.19 民國 82 年GEGA模式旬入流量預測圖 ... 47

圖 5.20 民國 83 年GEGA模式旬入流量預測圖 ... 47

圖 5.21 民國 84 年GEGA模式旬入流量預測圖 ... 48

圖 5.22 民國 85 年GEGA模式旬入流量預測圖 ... 48

圖 5.23 民國 86 年GEGA模式旬入流量預測圖 ... 49

圖 5.24 民國 87 年GEGA模式旬入流量預測圖 ... 49

圖 5.25 民國 93 年GEGA模式旬入流量預測圖 ... 50

圖 5.26 民國 94 年GEGA模式旬入流量預測圖 ... 50

(11)

表目錄

表 3-1 比較BPN、AASN神經網路異同 ... 16

表 5-1 實際流量與前旬流量間之相關係數表 ... 31

表 5-2 類神經模式之相關參數設定 ... 37

表 5-3 GEGA模式之相關參數設定 ... 45

表 5-4 GEGA模式所求解之 36 旬函數式 ... 51

表 5-5 民國 93 年各模式之評鑑指標表 ... 53

表 5-5 民國 94 年各模式之評鑑指標表 ... 54

(12)

第一章 緒論

1.1 研究動機

台灣地區屬於亞熱帶海島型氣候溫暖潮溼,年平均雨量達兩千五 百一十毫米,也是台灣水資源的主要來源,台灣雨量雖然豐沛,約為 世界平均值的二點六倍,但因為地狹人稠,每人每年所分配的雨量僅 及世界平均值的七分之一。由於雨量在時間及空間上的分佈極不均 勻,五月至十月的雨量佔全年的七十八%,為河川流量之豐水期;於 空間的分佈上,則受地勢高低以及緯度的影響,造成山區與平地、北 部與南部之降雨情形迥異,再加上台灣地形陡峻、河川坡短流急,乃 致暴雨過後的逕流迅速流入大海,地表逕流因而無法充分有效利用。

因此在台灣地區,水庫的興建對調配下游地區之用水是十分重要的方 法,水庫對於水資源的豐枯調節亦佔有不可或缺的角色。但是目前台 灣地區優良壩址大多已被利用,目前現有大小水庫約四十座,密度相 當高,但是因為台灣河谷狹窄,水庫庫容均不大,未來興建之水庫,

其成本將十分昂貴,開發水資源的困難度也相對地提高。因此在地 形、氣候及水資源開發都極為不易的情形下,除了靠水庫之興建外,

還必須由水庫的適當調配來克服問題。水庫之蓄水操作乃採取旬資料 進行操作,故本研究將採用旬流量資料來進行模擬與預測,以提高區 域性的整體效益。

(13)

1.2 研究目的

因台灣的特殊環境,使得水庫操作就顯的格外重要,若以水庫之 旬入流建立預測模式,得知每年第一旬之入流量,則能預測其他35 旬入流量,將對於水庫即時操作有莫大幫助,本文嘗試以類神經網路

(Artificial Neural Network, ANN)中的分析調整綜合網路 (AASN),以及進化演算法(Evolutionary Algorithms、簡稱EAs)中之 語法式進化(Grammatical Evolution、簡稱GE)與遺傳演算法

(Genetic Algorithms、簡稱GAs),作為德基水庫中之流量預測模式 (簡稱GEGA),並比較GEGA和類神經模式之優缺點。

1.3 研究架構與內容

本論文共分為七章:第一章為緒論,將分別說明研究動機與目 的、研究方法與流程、研究架構與內容;第二章為文獻回顧,將分別 說明,本研究所用類神經網路(ANN)、本研究所用到之兩種進化演算 法模式—語法式進化(GE)與遺傳演算法(GAs);第三章為理論分析,

介紹類神經網路以及語法式進化與遺傳演算法之相關專有名詞及其 演算架構;第四章為大甲溪流域基本資料,將分別說明大甲溪水系概 況;第五章為模式之應用,類神網路建立之旬入流預測模式與語法式 進化建立水庫旬入流量預測模式做比較;第六章為結論與建議,將針 對本研究之分析結果與探討後之結論,對未來提供可研究之建議與方 向。

(14)

第二章 文獻回顧

2.1類神經網路

類神經網路(artificial neural network, ANN)是研究人類自身思 考模式的演算方法;它是一種計算系統,使用大量且簡單的相連人工 神經元(artificial neural)來模擬生物神經的功能。類神經網路最早是 由McCulloch & Pitts(1943)所提出的神經元數學模型(MP 模型)

開始發展,並不具有學習能力;Rosenblatt(1958) 結合M-P 模型及 Hebbian 學習法則,提出具學習能力的感知機,直到1987 年第一次 召開國際類神經網路研討會(International Conference on Neural Networks)時,才逐漸發展成熟。類神經網路具有高度學習能力、平 行的資料傳輸方式以及良好的準確度,且具有分類(classification)、

聯想(associative)、識別recognition)、普遍化(generalization)的 能力,故其應用範圍相當寬廣,也引起各種領域學術人士極大的研究 興趣,除了在模糊理論(fuzzytheory)及人工智慧(artificial intelligence)

方面已有諸多的研究,目前也被廣泛的應用於商業分析與自然現象之 預測。

近年來類神經網路應用在土木工程上的研究日益增加,劉新達 (1996)以石門水庫為對象,利用類神經網路之學習能力,以過去石門 水庫歷年操作紀錄為訓練資料建立一個類神經網路水庫即時操作模 式。首先架構一個三層神經網路,含一個輸入層、一個隱藏層和一個 輸出層的倒傳遞神經網路(BPN),以水庫容量、入流及下游需求作 輸入值,水庫放水量作為輸出值。最後再利用倒傳遞網路推論的結果 進行水庫之演算分析;黃義銘(1997)利用類神經網路模式,學習區域 水資源的供水特性做為未來系統的供水策略,並取南高屏地區的水資 源供水系統進行實例分析;吳青俊(2001)以啟發規劃模式中之類神

(15)

經網路,建立一具有即時流量預測能力之遞迴式類神經網路,經過系 統模式的不斷學習與修正,針對烏溪流域集水區內的流量作推估。遞 迴式類神經網路使用線上學習法來更新權重值,因此對於新資訊能夠 做一即時反應,在講求時效性的水庫操作上,提供一個流量即時預測 的方法;陳伶姮 (2001) 分析時間序列理論應用在繁衍流量及預測流 量的優劣情況,藉以協助水庫有效率的操作以及石門水庫入流量分 析;張大元 (2003) 以石門水庫集水區及大漢溪為演算實例,建立「雨 量─逕流」模式,利用倒傳遞類神經網路模擬流域特性,以雨量為網 路輸入,流量為網路輸出,建立即時流量預測系統,以推算未來六小 時流量;其次模擬「水庫放流─水位」的關係,以雨量、水庫放流、

河口潮汐為輸入,下游河道水位為輸出,模擬各種輸入值對水位增量 之影響,所得之「水庫放流對河川水位增量三維立體圖」可推算在各 種雨量及潮汐下,水庫放流與河川水位的關係;黃冠傑 (2003) 有效 率及友善度高之類神經網路軟體,可以對使用類神經網路建立高度非 線性模型的研究者提供幫助。

(16)

2.2 進化演算法

進化演算法中包含了遺傳程式(Genetic Programming、簡稱 GP)、

語法式進化(Grammatical Evolution、簡稱 GE)、遺傳演算法(Genetic Algorithms、簡稱 GAs)、進化策略(Evolution Strategy、簡稱 ES)等,

以下分別就研究中使用之兩種模式作一說明。

2.2.1 語法式進化

進化演算法目前已成功應用於程式之自動生成。其中,Koza 所 發展之遺傳程式(GP)深受專家學者們所推廣與使用。Koza 使用被廣 泛應用於人工智慧之高階程式語言—Lisp,作為程式開發之設計語 言。然而卻有許多經驗人士表示,若以自己慣用的程式語言作開發,

常會對問題造成特殊性。

因此,GE 便將語法的概念應用於遺傳程式之進化研究中,目前 已有不少專家學者將語法代入GP 中,更廣泛地克服了所謂的「閉合」

(closure)問題。Wong(1997)與 Leung 以及(1996)Horner 的研究中,說 明Whigham(1996)利用演化樹作為基因型的表現,而演化樹正可明確 地說明如何在映射的過程中,將規則(production rules)轉為表現型。

在Horner 的研究中,已有大量的研究成果可用來完成第一代的演化 樹及維持終結程式所需設計的基因運算子。Freeman (1998)及 Peterson (1994)則傾向引用修補機制(repair mechanism),用來克服第一代演化 樹的產生問題,其機制乃使用原始設定值於非節點上,至於節點文中 則並未詳加說明。每個長度固定的整數陣列皆被視為基因型的表現,

而每個整數也正代表著Backus-Naur Form(簡稱 BNF)裡的規則,當系 統無法應用這些規則時,這些規則將被忽略,卻也因此造成介入子 (introns)的擴散。Keller and Banzhaf (1996)則使用不同類型的修補機

(17)

制,其機制乃根據 LALR 語法,以合法的節點符號取代程式碼中非法 的節點符號,且每個節點符號皆代表一個獨特的二位元編碼,至於非 法符號則會被最靠近的合法符號之程式碼所取代。

2.2.2 遺傳演算法

Holland(1975)以達爾文進化論為基礎,提出了遺傳演算法,它是 一種模擬生物機制─複製、交換和突變的優選方法,而且Holland 也 以模板理論(schema theorm)證明了遺傳演算法具有高效率的隱平行 性(implicit parallelism)性質,可有效地節省搜尋最佳解的時間。之後 De Jong(1975)分析遺傳調適類型的表現,其中結合了 Holland 的模板 理論與自己設計的五大測試函數,且加入了菁英策略,提高優選的效 率。

Foo 和 Bosworth(1972)提出了五種不同的突變運算元,包括均勻 隨機以及二次、三次方高斯漸進等方式的突變;Brindle(1981)分析了 數 個 不 同 的 選 取 親 代 程 序 , 將 複 製 元 中 的 輪 盤 法 加 以 改 進 ; Booker(1982)比較數種交換運算元,並對何者適用於何類問題加以描 述;Wright(1991)與 Eshelman 及 Schaffer(1992)研究編碼方式,嘗試 以 實 數 代 替 二 位 元 的 編 碼 方 式 。 在 理 論 方 面 ,Horn(1996) 和 Suzuki(1996)朝向以馬可夫鏈(Markov chain)的觀點來解釋其最佳化 的能力與過程。

遺傳演算法在國外有關於水資源的研究論文有: Goldberg 和 Kuo(1987)首次應用 GAs 在水資源問題上,他們應用 GAs 解決了一個 管渠最佳化的問題。East 和 Hall(1994)應用 GAs 於四個水庫資源 上,他們推斷出GAs 在水資源最佳化具有潛力,並且它能顯著地節 省記憶體搜尋及執行之時間。Oliveira 和 Loucks(1997)使用 GAs 發展

(18)

多水庫操作系統方針,且推斷出GAs 是一個有實用價值且強健的方 法,而GAs 更可引領有效率的操作策略。Chang 和 Chen(1998)應用 實數編碼的GAs 於水庫防洪規則管理,結果顯示實數編碼比二進位 編碼更具效率與精確,GAs 的概要回顧可由 Wardlaw 和 Sharif(2000) 的成果看出。Sharif 和 Wardlaw(2000)發表以 GAs 作最佳化之多水庫 系統,他們並與間斷微分動態規劃劃(Discrete Differential dynamic programming,DDDP )作比較,結果顯示 GAs 非常接近最佳效果且 方法強健。

國內應用遺傳演算法於水資源工程的相關論文報告有:

Wang(1991)應用於降雨入滲模式的參數檢定;張斐章與陳莉(1993)將 GAs 應用於水庫防洪操作中參數之優選,可有效降低洪峰並使水庫蓄 水平緩變化;陳莉(1995)以 C++物件導向程式撰寫模擬石門水庫操作 之模擬模式,並以GAs 優選石門水庫之運轉規線,使該區之缺水情 況得以舒緩,並提高水資源利用效率;石明輝(1999)以遺傳演算法進 行多目標優選翡翠水庫及石門水庫並聯系統之每旬放水量;陳莉 (2000)以遺傳演算法優選翡翠水庫運用規線之研究;蔡宗志(2000)以 模糊理論結合遺傳演算法應用於水庫防洪操作之研究;郭蒼霖(2000) 結合HEC-5 以遺傳演算法優選水庫月操作規線;鄭蔚辰(2000)以濁水 溪為例,應用遺傳演算法搜尋濁水溪流域中,霧社水庫、日月潭水庫 與集集攔河堰聯合營運之最佳營運規則;何智超(2000)應用遺傳演算 法優選下水道初步規劃之最佳尺寸及坡度,以達最經濟之設計成本,

並實際應用於複雜之下水道系統,結果顯示遺傳演算法為一高效率之 優選方法。由上述GAs 之相關研究均證明遺傳演算法在求解最佳化 問題上頗具效率;江博寬(2001)以進化演算法中的「語法式進化」及

「遺傳演算法」,作為建立德基水庫即時操作之優選模式。研究中先

(19)

以語法式進化結合遺傳演算法建立旬流量預測模式,並於水庫系統進 行模擬操作時,應用遺傳演算法優選最佳之放水量,進而決定最佳之 即時操作策略。研究中並選定德基水庫在豐水年、平水年、枯水年之 三種流況進行測試並與現行規線操作作比較,發現本研究之即時操作 系統除了可改善下游之缺水情形外,更能在供水與發電效益間取得平 衡。

(20)

第三章 研究方法

3.1 類神經網路模式

“神經網路"原是指研究神經生理學、神經解剖學的“生物神經 網路"(Biological Neural Network,BNN);“類神經網路" (Artificial Neural Network, ANN)則是一門在電腦科學、資訊工程、資料處理…

等領域內,基於腦與神經網路系統所啟發的資訊處理技術。

類神經網路是由許多的人工神經細胞所組成,人工神經細胞又稱 為神經元、人工神經元或處理單元(processing element),人工神經 元模型如圖3.1,其輸入值與輸出值的關係式,可用輸入值的加權乘 積和函數如式3-1 表示:

輸入層 隱藏層 輸出層

Wij

Xi

Yi i j

ij

j W X

net =

θ

) ( j

i

f net

Y

=

圖 3.1 人工神經元模型

) (

1

=

= n

i

j i ij

i

f W X

Y

θ (3-1) 其中:

Y

j:模仿生物神經元的模型的輸出訊號。

f

:模仿生物神經元的模型的轉換函數(transfer function),

W

ij:模仿生物神經元的模型的神經強度,又稱連結加權值。

(21)

X

i:模仿生物神經元的模型的輸入訊號。

θj:模仿生物神經元的模型的閥值。

介於處理單元間的訊息傳遞路徑稱為連結(connection)。每一 個連結上有一個數值的加權值 ,表示第i 個處理單元對第 j 個處理 單元影響程度。

W

ij

類神經網路是由許多個人工神經元與其連結所組成,並且可以組 成各種網路模式(network model)。常見的類神經網路方法如下:

3.1.1 倒傳遞網路(Back-propagation Network, BPN)

倒傳遞類神經網路模式如圖3.2,是目前類神經網路學習模式中 為做最具代表性及最普遍的模式。基本原理是利用最陡坡降法(the gradient steepest descent method)的觀念,將誤差函數予以最小化。

倒傳遞網路架構

圖3.2 倒傳遞網路架構

倒傳遞網路有幾個重要參數,包括隱藏層處理單元數目、隱藏層

‧‧‧‧‧

輸入層 輸出層

‧‧‧‧‧

X1

‧‧‧‧‧

‧‧‧‧‧

Xm

(22)

層數、學習速率,說明如下(葉怡成,2000):

1.隱藏層層數

通常隱藏層之數目為1-2 層時有最好的收斂性質,太多層或太少 層收斂結果均較差。沒有隱藏層不能反應此問題輸入單元間的交互作 用,因而有較大的誤差。

2.隱藏層處理單元數目

隱藏層處理單元數目過少可能無法有效描述問題型態;隱藏層處 理單元數目越多則收斂越慢,但可達到更小的誤差值。

3.學習速率(η)

學習速率太大或太小對網路的收斂性質均不利,太小時容易浪費 時間,且可能無法跳脫局部最小值;太大易造成震盪不易收斂。

3.1.2 多層函數連結網路(Multilayer Functional-Link Network,

MFLN)

多層函數連結網路(MFLN)是一種倒傳遞網路的改良型,也可說 是「函數連結網路」的改良型。其網路架構乃在倒傳遞網之輸入、輸 出層中加入「對數化」與「指數化」輸入、輸出單元,於網路學演算 法仍然是應用倒傳遞的「通用差距法則」,這樣的網路架構使網路的 學習能力大增。

多層函數連結網路是利用隱藏單元,將從一般輸入單元傳來的自 變數,以及從 「對數化」與「指數化」輸入單元所提供的經過單調 非線性轉換自變數組織成非線性的函數,由於對數神經元對變數的低 値域部份比較敏銳,指數神經元對於高値域部份比較敏銳,因此 (MFLN)常有比較高的精度。

(23)

3.1.3 通用迴歸網路(General Regression Neural Network,GRNN) 這種網路學習速率相當快,但是具有兩個缺點,一是需較大的記 憶體,二是網路回想速度較慢,(GRNN)是由機率模型所啟發,特別 是「貝氏分類器」(Bayesian classifiers)。一群具有 M 維輸入向量的訓 練範例可視為M 維空間的一群樣本點,通用迴歸網路藉著這些樣本 點以加權平均法來估計一個未知樣本點的函數値如式3-2:

N , 1,2,3,....

k =

=

k k k

k kj

j

W

W Y

Y

(3-2) 其中

Y

j=未知樣本點的第 j 個函數之值。

W

k=第 k 個已知樣本點的加權比重。

N=已知樣本點(訓練範例)的數目。

3.1.4 學習向量量化網路(Learning Vector Quantization Network,

LVQ)

學習向量量化網路(LVQ)是一種專門用於分類型問題的類神經 網路模式,由於這種網路學習速度比倒傳遞網路快,因此頗受重視。

但它也有一個缺點:所需的隱藏單元與輸出處理單元成正比,而且需 數倍。

LVQ 基本原理可說相當簡單,以 M 維空間的一群樣本點,而且 一個分類其樣本點可能散佈成數群,分群的方法可以是競爭式學習法 或其它群聚分析法如k-means 演繹法,接著我們利用加標資訊將這些 群聚予以加標,也就是說,這個群聚所涵蓋的圖樣以那一種分類為最 多,則為此分類。

(24)

3.1.5 AASN 分析調整綜合網路

AASN 分析調整綜合網路(葉怡成,2000),為監督式神經網路 模型,屬於前向式網路架構。分析綜合調整網路是一個由三個次網路 組成的神經網路:分析次網路、調整次網路、綜合次網路。分析次網 路是一個將輸入單元連結到展開輸入單元的單層網路;綜合次網路是 一個將輸出單元連結到展開輸出單元的單層網路;介於分析次網路與 綜合次網路間的調整次網路是一個扮演學習機制的標準之倒傳遞網 路。在網路完成訓練後,在回想階段中(Recall),綜合次網路接收展 開輸出單元的輸出值如圖3.3,並以加權方式綜合這些值為高度精確 的的輸出值,進而顯著改善網路效能及強化網路架構。其中隱藏層及 輸出層神經元之轉換函數為雙彎曲函數。

‧‧‧‧‧

綜合層 輸出層

輸入向量 輸出向量

隱藏層 輸入層

‧‧‧‧‧ ‧‧‧‧‧

分析層

圖 3.3 AASN 分析調整綜合網路模型 1.訓練步驟(training phase)

(a)輸入單元連結到展開輸入單元的單層網路 1

1 ) 2 (

)

(

+

=

=

k k i

d m i X

k ik

e X

f

A

(3-3)

(25)

其中

k=1,2,3,4,5

X

i=第 i 個輸入單元值

A

ik=第 i 個輸入單元所連結第 k 個展開輸入單元的輸出值

m

k=第 k 個展開輸入神經元的非線性轉換函數之水平平移控制參 數

d

k=第 k 個展開輸入神經元的非線性轉換函數之斜率控制參數 (b)輸出單元連結到展開輸出單元的單層網路

)

1 (

) 1 (

k k j

s u k Y

jk

e Yj

g

B

+

=

= (3-4)

其中

k=1,2,3,4,5

Y

j=訓練資料的第 j 個輸出值

B

jk=第 j 個輸入單元所連結第 k 個展開輸出單元的輸出值

u

k=第 k 個展開輸出神經元的非線性轉換函數之水平平移控制參 數

S

k=第 k 個展開輸出神經元的非線性轉換函數之斜率控制參數

6 , 1 , , ,

6 ,5 6 ,4 6 ,3 6 ,2 6 , 1 , , ,

3 , 1 , , ,

3 ,2 3 ,1 0 3, , 1 3 , 2

, , ,

5 4 3 2 1

5 4 3 2 1

5 4 3 2 1

5 4 3 2 1

=

=

=

=

s s s s s

u u u u u

d d d d d

m m m m m

(26)

-1 -0.5 0.5 1

-1 -0.5

0.5 1

圖 3.4 分析次網路轉換函數

0.2 0.4 0.6 0.8 1

0.2 0.4 0.6 0.8 1

圖 3.5 綜合次網路轉換函數

2.回想步驟(recall phase)

輸出使用加權平均法(weighted-average)

jk jk w jk

j

W

Y Y W

= (3-5)

其中

)2

(

1 )

ln(1 )

(

k k jk

s u Y jk

k jk jk k

jk k jk

e W

B u s B

B g Y

=

+

=

=

(27)

w

Yj =第 j 個輸出變數的綜合輸出值

Y

jk=第 j 個輸出變數的第 k 個展開輸出單元之推論輸出值

B

jk=第 j 個輸出變數的第 k 個展開輸出神經元之推論輸出值

W

jk=第 j 個輸出變數的第 k 個展開輸出神經元之權值

此網路為本研究所應用之模式,並以最常用之模式 BPN 加以比較 它如表 3-1。

表 3-1 比較 BPN、AASN 神經網路異同

同 異

1. 皆為前向式神經網路 架構

2. 皆為監督式學習皆使 用最陡坡降法來修正網路權 值及閥值。

3. 其隱藏層及輸出層其 轉換函數皆使用雙彎曲函數 作為輸出。

AASN 使用非線性的轉 換函數將每個輸入層神經元 擴展成五個神經元連接隱藏 層,而連接輸出層之前使用非 線性轉換函數將其加權連接。

(28)

3.2 語法式進化理論

由於語法式進化(Grammatical Evolution、簡稱 GE),它不必針對 實際程式執行進化處理(evolutionary process),只需著眼於將變數編碼 為 二 位 元 字 串 。 而 映 射 處 理 乃 利 用 二 位 元 字 串 , 選 擇 並 決 定 在 Backus-Naur form(BNF)中所定義的語法規則,以產生使用者所慣用程 式語言之程式碼。然而,程式在語法架構上的正確與否,需經由各程 式所計算的適合度函數值作評定。

3.2.1 語法規則及相關專有名詞介紹 Backus-Naur Form

BNF 是一套表示語言語法規則形式之紀錄。BNF 語法由節點及 非節點所組成。節點部分乃由+、-等項目所組成;非節點部分則由一 個或多個節點、非節點所擴展而成。語法可以表示為{N、T、P、S}。

N 為非節點之集合,P 為一個將 N 的要素映射至 T 之規則集合,T 為 節點之集合,S 則為 N 要素之一的開始符號。以下是一個 BNF 的例 子:

N={expr, op, pre_op}

T={Sin, Cos, Tan, Log, +, -, /, *, X, 1.0, (, )}

S={expr}

P 則可以表示為:

(1)<expr> :: = <expr><op><expr> (0) | ( <expr><op><expr>) (1) |<pre-op> (<expr>) (2) | <var> (3)

(2)<op> :: = + (0) | - (1)

(29)

| / (2) |* (3)

(3)<pre-op> :: = Sin (0) | Cos (1) | Tan (2) | Log (3)

(4)<var> :: = X (0) | 1.0 (1)

在 GE 模式中,BNF 的定義常被用來描述系統所產生的輸出語 言。例如已經能夠編譯(compilable)的程式碼,可由 T 集合的各節點 要素所組成,當 BNF 為系統連接的成分之一時,便意味著 GE 能夠 利用各種程式語言產生程式碼,因此也給予系統無比的彈性。

3.2.2 語法式進化之演算架構 A.Mapping Process(映射處理)

基因型藉由讀取密碼子8 個位元所產生整數值,將開始符號映射 至節點上,其值便可藉由映射函數的使用,決定合適的語法規則。

規則=(密碼子整數值)MOD(當前非節點之規則總數) 例如要映射非節點op,共有四個規則可供選擇:

<op> :: = + (0) | - (1) | / (2) |* (3)

假設密碼子產生值為整數6,將 6 MOD 4 =2,因此將選擇規則 (2),其代表為符號 / 。在每個時刻中,密碼子其值被讀取後,將透

(30)

過非節點、選擇欲被映射之規則,利用此種方法,系統將沿著整條染 色體不停運算。

在GE 模式中,相同的密碼子將產生相同的整數值。藉由非節點 的使用,將可選取不同的規則。當選擇相同的規則時,個體由基因型 映射至表現型將產生相同輸出的結果。但是卻可能在發生不完全映射 或幾個包覆事件後,個體因而得到最低的適合度值。其中,選擇與取 代機制的操作,將以「增加個體從群集中被移除的可能性」為依據。

如果基因型以整數值表示並選取相同的規則,將一再產生不完全 映射。例如一個具有三個密碼子經映射後皆為規則0 的個體:

<expr> :: = <expr><op><expr> (0) | ( <expr><op><expr>) (1) |<pre-op> (<expr>) (2) | <var> (3)

經包覆後,除非停止否則將無限期持續不完全映射處理。以上述 例 子 為 例 , 當 規 則 0 映 射 至 非 節 點 <expr> 時 , 將 得 到

<expr><op><expr>,再用規則 0 映射至最左邊的<expr>,接著再作一 次,便可得到<expr><op><expr><op><expr><op><expr>的結果。如此 將會是一種無效的個體,且永遠不會碰到完整的映射。

B.Example Individual(舉例說明)

例如某一個體,如圖3.6 所示,其語法規則如 3.2 節 BNF 的例子 所示,推導演算步驟如下:

11001000 10100000 11001110 01100000 00011011 01001000 01101011

200 160 206 96 27 72 107 62 21 55 88 100 203 41 圖3.6 八位元密碼子經解碼為整數值之個體

(31)

(1)首先由<expr>開始,第一個密碼子為 11001000,解碼後其值為 200 200 MOD 4 = 0 ,所以選擇<expr>中之規則 0,可得

<expr><op><expr>

(2)選擇最左邊<expr>,第二個密碼子為 10100000,解碼後其值為 160 160 MOD 4 = 0,所以選擇<expr>中之規則 0,可得

<expr><op><expr><op><expr>

(3)選擇最左邊<expr>,第三個密碼子為 11001110,解碼後其值 206 206 MOD 4 = 2,所以選擇<expr>中之規則 2,可得

<pre-op>(<expr>)<op><expr><op><expr>

(4)選擇最左邊<pre-op>,第四個密碼子為 01100000,解碼後其值為 96

96 MOD 4 = 0,所以選擇<pre-op>中之規則 0,可得 Sin(<expr>)<op><expr><op><expr>

(5)選擇( )中之<expr>,第五個密碼子為 00011011,解碼後其值為 27 27 MOD 4 = 3,所以選擇<expr>中之規則 3,可得

Sin(<var>)<op><expr><op><expr>

(6)選擇( )中之<var>,第六個密碼子為 01001000,解碼後其值為 72 72 MOD 4 = 0,所以選擇<var>中之規則 0,可得

Sin(X)<op><expr><op><expr>

(7)選 Sin(X)後之<op>,第七個密碼子為 01101011,解碼後其值為 107 107 MOD 4 = 3,所以選擇<op>中之規則 3,可得

Sin(X)*<expr><op><expr>

(8)如此依序處理,將可得到 Sin(X)*Cos(X)+1.0

(32)

3.3 遺傳演算法原理

遺傳演算法(Genetic Algorithms, GAs)是由 John Holland 與其密 西根大學的學生、同事於1960~1970 年時所提出,其觀念源自達爾文 演化論中「物競天擇,適者生存」的道理,把生物界演化的機制抽象 出來應用於解決搜尋最佳解的問題上面,讓系統朝著各佳的解自我演 化。在遺傳的程序裡,一個群集受制於周遭環境所能提供的狀況,適 應良好的成員將被選擇配對與複製,通常表現較好的後代是由優良的 親代雙方遺傳而來,在第二代中適應力良好的成員又被選來進行配對 及複製,這種革新競爭性的循環一直持續下去,表現不佳的將被淘汰 而消失,表現優良的則產生更好的後代,接連一代繁衍一代,經過數 代之後,存活的群集便是十分適合於環境。

3.3.1 GA基本特性介紹

遺傳演算法目前已廣泛應用於科學與工程領域,主要包括最佳化 問題、自動進化程式與機器學習等,尤其最佳化在土木水利工程上非 常重要。但在真實情況中,目標函數與限制式經常不是解析式,而是 以模擬模式來完成,例如模擬水庫的操作。傳統的方法諸如線性規劃 (LP)與非線性規劃(NLP)常需將原始問題簡化,其主要缺點在於過度 簡化常造成問題失真,故推動如GAs 之類的搜尋法之發展。

然而,遺傳演算法不同於傳統優選方法之處

1. 可作連續(continous)或不連續(discrete)的參數之最佳化。可處理 多參數的優選問題。

2. 具有隱平行性運算能力,可大量節省運算的時間。

3. 不僅可提供單一最佳解,而且可提供一組之優選結果。

(33)

4. 演算法乃基於機率演化規則(probabilistic transition rules),而非 定率法則(deterministic rules)。

5. 演化作用在編碼後的染色體上而非在參數本身。自然選取 (Natural Selection)的過程取決於染色體適合度(Fitness)(目標函數值) 大小,而不需計算目標函數的微分值。

6. 為一次多點搜尋,而非單點搜尋法,因此較不易收斂於局部 最佳解(local optimal)。

7. 有相當高的機率可極接近或求得全域最佳解(global optimal)。適合在平行電腦環境工作。

3.3.2 遺傳演算法之運算程序

在利用GA 求解最佳化問題前,需先決定目標函數(objective function)、設計變數(Design variables)和搜尋空間。接著將設計變數編 碼成類似生物染色體的字串,字串中的各個位元相當於基因(Gene),

經由三大運算元─複製(reproduction)、交換(crossover)及突變(mutation) 過程產生適合度(fitness)較佳的新群集,直到找到最佳值或達到收斂 條件為止,流程圖如圖3.7 所示。

(34)

解碼 計算適合度函數

複製 交配

突變 產生初始群集

編碼

產生新群集

收斂條件 輸出最佳解

菁英

圖3.7 遺傳演算法演算流程圖 詳細演算步驟如下:

一、編碼(Coding) and 解碼(Decoding)

首先將變數編碼為二位元碼(Binary String)的形式,以利遺傳 演算法進行交換和突變演算。在計算適合度前,則必需將各變數的二 位元碼解碼還原成十進位值,並依映射公式將字串解碼之值轉換至限 制的範圍區間內。假若一單獨參數 k,欲轉換至上限為 ai,下限為 bi 之限制範圍區間,若以二位元編碼,其字串長度為n,則映射公式如 下式所示(Wright,1991)

+ ⎛ −

= i i i n i

i

a k b

a

X

2

其中 Xi 代表字串映射至限制範圍之值 ki 代表字串十進位之值

(35)

二、複製(reproduction)或選擇(selection)

複製是指將舊有個體依其對環境的適應程度加以繁殖。目的就是 讓適應力佳的親代保留到子代,使下一代能更適應環境。一般較常使 用的複製方法有輪盤法(roulette Wheel Method)、排序選取法(rank selection)和競爭選取法(tournament selection method)。以下將針對各種 複製方法進行介紹

A.輪盤法(roulette wheel selection)

最簡單的方法是製造一個〝偏態的〞輪盤(biased roulette)。當適 合度愈高時,個體在輪盤上所佔的面積比例也愈大,被選到的機率也 將愈大,如圖3.8 所示。

初始代輪盤機率

11%

29%

30%

30%

圖3.8 複製輪盤圖 B.競爭選取法(tournament selection)

本法在模仿自然界生物彼此競爭情形,當某一個體適合度愈高 時,經由競爭選取後,其存活下來而被複製的機會也將愈高。此種選 取法的優點是染色體被複製下來的機率與染色體本身的適合度無絕 對的關係,而是取決於染色體間適合度的相對大小,如此一來可避免

(36)

因某幾條染色體的適合度過大而導致過早收斂於局部最佳解,因此本 法比輪盤法更適合用於染色體間適合度變化很大的問題上。其作法如 下:

1.依每代染色體總數(群集數),設定一個合理的染色體比較個數。

2.每次從母代隨機選取所設定的染色體個數,比較其適合度,選 擇較優者進行複製。

3.重複步驟 2,直到複製的染色體總數等於群集個數。

C.排序選取法(rank selection)

使用排序選取法可避免輪盤法常因某幾條染色體的適合度過 大,佔去大部分輪盤的面積,造成選取的機率過大,導致過早收斂於 局部最佳解;也免去使用單點交換時,遇到適合度變化過大必須用尺 度法(scaling)對適合度作修正;同時當染色體適合度很接近時,也會 因排序的緣故將其被複製的機率差異性表現出來。

排序選取法是依據染色體適合度的大小來排序,被複製的機率是 依據排序的順序,而不是染色體本身的適合度大小,因此排序第i 個 與第i+1 個染色體間被複製的機率是線性的關係,與染色體適合度間 的大小差異沒有關係。

三、交換

複製的過程只是單純的將舊有母體依其適合度的優劣加以複 製,並無法產生出新的搜尋組合。此時便需要導入交換的技巧,交換 的目的是為了讓染色體互相交換有用的資訊,使得染色體獲得更高的 適應度,也可產生更多樣性的搜尋空間。交換的技巧有以下三類:單 點交換、兩點交換和多點均一交換。

(37)

A.單點交換

進行單點交換時,交換點依亂數隨機決定一個切斷點,以這個切 斷點將原先挑選出來進行交換的兩條染色體分為兩個部分,互相交換 相同的部分重新組合成新的染色體,如圖3.9 所示。

親代 子代

交換點

圖3.9 單點交換 B.多點交換

多點交換與單點交換極為類似,唯一的不同在於進行多點交換 時,要隨機決定多個切斷點,將染色體分為數個部分再重新組合成新 的染色體,如圖3.10 所示

親代 交換點

子代

圖3.10 多點交換 C.均一交換

使用均一交換時,首先要隨機產生一個和染色體字串長度相等的 二進位一維矩陣,在這個矩陣中,每一個位元均由亂數隨機決定其值 為1 或 0,此一矩陣稱之為模具(mask)。在模具中的某個位元值為 1

(38)

000 111 0 111 000 111

親代

子代

圖3.11 均一交換 四、突變(mutation)

純粹由遺傳所得之特性,其組合之多樣性將受限制。雖然搜尋點 聚集的區域可能存在最佳解,但相對的卻易造成其他區域沒有搜尋 到,導致陷入局部最佳解,這種問題常發生在多峰函數求解最佳值的 研究中。為使搜尋的空間更具多樣性,因而引入了突變的觀念。在遺 傳演算法中,突變是指交換後的字串,利用亂數選取字串中某些字元 來作改變,例如在二位元編碼中,將1 換為 0、0 換為 1。圖 3.12 為 第四個位元突變。

1 0 0 1 0 1 0

1

0 0 0 1 0 1 0

1

1

原始染色體

新染色體

圖3.12 第四個位元突變圖

(39)

第四章 研究區域

4.1 水系概況

大甲溪本流發源於中央山脈之雪山及南湖大山,全長 124.2 公 里,流域面積為1235.72 平方公里,上游地形群山環峙、河谷峭聳,

源頭係由伊卡瓦溪及南湖溪匯流而成,其中以源出於劈亞南鞍部的 伊卡瓦溪為本流,東側納入七家灣溪後向南流。至於南湖溪則發源 於南湖大山,並有合歡溪及畢祿溪的匯流。伊卡瓦溪及南湖溪於太 保久處匯流後始成為大甲溪幹流。大甲溪中游地形起伏大,河床陡 急,匯流後的大甲溪幹流至德基以下呈帶狀分布,大約在德基下游 三公里處匯入志樂溪,沿途再納入匹亞桑溪、小雪溪、馬崙溪、鞍 馬溪、稍來溪、十文溪等十數條溪,流經谷關、白冷、馬鞍寮等至 東勢流入平原。下游地形開展寬闊、坡度平緩、坡降僅 1/90,過石 岡後蜿蜒西流,而在清水鎮及大安鄉交界處附近流入台灣海峽,如 圖4-1 所示。

大甲溪上游左岸有發源於南湖大山、中央尖山及合歡山良南湖 溪、耳無溪及合歡溪等支流;右岸則有發源於大壩尖山、次高山、大 雪山之七家灣溪、四季朗溪、志樂溪及匹亞桑溪等支流。德基水庫 以下至谷關間長25 公里之河床,平均坡降 1/43,河床寬約 20 至 30 公尺,岸峻流急,岩盤外露,為大甲溪水力最豐之一段,兩岸重山 峻嶺,稜線部份標高約為2,500 至 3,000 公尺之間。自谷關以下至天 輪電廠間兩岸較為開展,河床寬達百公尺,再西行至馬鞍寮以後,

西出山嶺,約束頓減,河寬達五百公尺以上。在天輪至石岡間大甲 溪東側之山勢較高,約在 500 至 2,000 公尺之間;西側則山勢較緩,

平均高度在 500 至 600 公尺左右。大甲溪下游將大肚溪台地與后里 台地截開分離,呈網狀流路,迂迴於台中盆地北端,並堆積大量砂

(40)

礫於河口,造成沖積扇,復與大安溪沖積扇相疊,成為一合流沖積 扇。

圖4-1 大甲溪流域水系圖

(41)

第五章 案例結果分析

流量預測模式之發展,主要考慮流量資料常具有季節性因素及前 後旬彼此間之流量關係,因此本研究結合進化演算法中之語法式進化 (Grammatical Evolution)及遺傳演算法(Genetic Algorithms)與類神經網 路(Artificial Neural Network)中的分析調整綜合網路以建立流量預 測模式並比較此兩種模式之好壞,主要乃預測德基水庫之旬計總入流 量,以旬計總入流量作為主要的輸入因子(變數)。

本章將針對德基水庫之歷史旬計總入流量,使用 (民國 48 年~民 國78 年)年旬入流量,(民國 79 年~民國 87 年)旬入流量為測試,並 以(民國 92 年~民國 94 年)作為驗證,比較 GEGA 以及類神經預測模 式優劣。

5.1 水庫入流量之資料分析

5.1.1 旬流量變化趨勢線

本研究欲充分瞭解德基水庫 40 年(民國 48 年至民國 87 年)歷史 旬計總入流量的趨勢變化情形,以及(民國 93 年至民國 94 年)入流量 趨勢並分別繪製於縱軸為德基水庫旬計總入流量、橫軸為旬數(線性 座標)之圖形上,如圖 5-1 所示。

流量預測模式,首先需決定德基旬計總入流量因子之選取。由於 流量資料常具有季節性因素及前後旬彼此間之流量關係,因此研究中 選取相關程度較高之前一旬流量、前二旬流量、前三旬、前三十六旬 流量(即去年同一旬)及該旬流量之平均值作為本模式之主要控制因 子(變數),其相關係數整理如表 5-1 所示。經由模式之高效率搜尋、

優選最適應(吻合)該旬流量之函數式,藉以求得該旬流量之預測值。

(42)

德基水庫42年旬計總入流量變化趨勢圖

10 100 1000 10000

1 6 11 16 21 26 31 36 旬數

德基水庫旬計總入流量 (CMS)

平均值 最小值 最大值 93年 94年

圖5.1 德基水庫42 年旬計總入流量變化趨勢圖 表5-1 實際流量與前旬流量間之相關係數表 相 關

係 數

相 關 係 數

相 關 係 數

相 關 係 數

相 關 係 數 前 1 旬 0.5414 前 9 旬 -0.0159 前 17 旬 -0.1662 前 25 旬 -0.0930 前 33 旬 0.1109 前 2 旬 0.3114 前 10 旬 -0.0401 前 18 旬 -0.1600 前 26 旬 -0.0679 前 34 旬 0.1526 前 3 旬 0.2102 前 11 旬 -0.0510 前 19 旬 -0.1499 前 27 旬 -0.0365 前 35 旬 0.1588 前 4 旬 0.1188 前 12 旬 -0.0807 前 20 旬 -0.1555 前 28 旬 0.0252 前 36 旬 0.1576 前 5 旬 0.1219 前 13 旬 -0.1030 前 21 旬 -0.1335 前 29 旬 0.0229 平均值 0.4669 前 6 旬 0.1318 前 14 旬 -0.1547 前 22 旬 -0.1163 前 30 旬 0.0129

前 7 旬 0.0971 前 15 旬 -0.1862 前 23 旬 -0.1171 前 31 旬 0.0520 前 8 旬 0.0243 前 16 旬 -0.1768 前 24 旬 -0.1067 前 32 旬 0.0787

5.1.2 類神經網路 AASN 建立流量預測模式

本研究之流量預測模式—類神經網路AASN,乃採用中華大學葉 怡成教授所開發之類神經軟體 PCN,藉由 AASN 模式為最平穩之網 路,選擇預測德基水庫逕流,處理高流量預測偏差太大問題,研究流 程如圖5.2。

(43)

AASN 參數設定

回想/訓練

亂數產生連接權值

圖5.2 AASN模式建立流量預測模式之流程圖 輸入測試範例

輸入測試範例

計算隱藏層權值/閥值 分析層選取適合坡降 輸入收斂網路之權閥

計算網路之推估值

综合分析

網路停止原則

輸出層

(44)

5.1.3 以語法式進化建立流量預測模式

本研究之流量預測模式—進化演算法中之語法式進化,乃採用 C 語言程式所撰寫開發完成。其中並得到在愛爾蘭 Limerick 大學資訊 系任教的Michael O’Neill 教授之同意得以使用其程式碼。由於原始程 式碼僅能輸出單個體(one individual)的適合度結果,在效率上恐顯不 足,因此將之結合具備快速搜尋效率之遺傳演算法(GAs)並修改原先 只能求解單變數之問題,進而完成流量預測模式之建立,此模式在研 究中將統稱為 GEGA 模式。因此本節將主要探討如何藉由 GEGA 模 式建立德基水庫旬計總入流量之流量預測模式,流程圖如5.3 所示。

研究中適合度優劣之評判,主要是經由個體間不同函數式所求得 之數筆流量預測值,分別計算其平均絕對誤差(MAE),藉此優選平均 絕對誤差為最小之函數式以作為該旬之最佳函數式。至於模式中之群 集個數、密碼子位元長度、個體字串位元長度及交換率、突變率及執 行代數等相關常數之設定。

(45)

設定GAs相關數值

變數編碼

隨機產生初始群集

進入GE副程式

計算適合度值

複製或選取

交換或重組

突 變

產生次代群集

終止條件

程式 結束

變數解碼

應用語法規則庫 進行映射處理

轉譯為數學函數式

讀入函數式中相關變 數之流量資料

計算目標函數值 (MAE)

遺傳演算法模式 (GAs)

語法式進化模式 (GE)

圖5.3 GEGA模式建立流量預測模式之流程圖

(46)

5.1.4 模式評鑑指標

為了評鑑本模式所推估之預測值與實際值間之關係,研究中採用 統計及水文上常用之五種指標,藉此評定模式之表現。首先先定義各 評鑑指標中之變數:

Q

t:旬實際入流量

Q

: 旬實際入流量之平均值 t :時間

t:旬預測入流量

:旬預測入流量之平均值 N :分析旬數

(1)平均絕對誤差—MAE (Mean Absolute Error)

MAE= 1 | |

Qˆ Q

t 1

t t

= N

N

(5-1) 由MAE 值之大小,可瞭解預測值與實際值之離散程度。其值愈 小代表模式之離散程度愈小,其結果亦較佳。

(2)均方根誤差—RMSE (Root Mean Squared Error)

RMSE=

N

N

=

1 t

t 2 t Q ) Q

( -

(5-2) 由 RMSE 之大小,可瞭解預測值與實際值之離散程度。其值愈 小代表模式之離散程度愈小,其結果亦較佳。

(3)正確率—PAE (Percentage Absolute Error ) PAE=1-

Q

MAE (5-3)

由 PAE 值之大小,可瞭解由模式推估之預測值與實際值間之正 確程度。其值愈接近1 代表模式預測愈準確,其結果亦較佳。

(47)

(4)相關係數—CC (Coefficient of Correlation)

CC=

∑ ∑

= =

=

N

1 t

N

1 t

t 2 t 2

1 t

t t

) Q - Q ( ) Q - Q (

) Q - Q )(

Q - Q (

N

(5-4)

由CC 值之大小,可瞭解由模式推估之預測值與實際值間之吻合 程度。其值愈接近1 代表模式預測愈準確,其結果亦較佳。

(5)效率係數—CE (Coefficient of Efficiency)

CE=1-

=

=

N

1 t

t 2 1 t

2 t t

) Q Q (

) Q (Q

N

(5-5)

由CE 值之大小,可瞭解由模式推估之預測值與實際值間之效能 程度。其值愈接近1 代表模式預測愈準確,其結果亦較佳。

(48)

5.2 流量預測模式之運算結果

5.2.1 類神經網路模式(AASN)

本研究以 AASN 分析調整綜合網路,可分為(民國 48 年~民國 78 年)年旬入流量為訓練範例,(民國 79 年~民國 87 年)旬入流量為 測試範例,(民國 92 年~民國 94 年)作為驗證,分別計算其平均絕對 誤差(MAE),其中,ANN 模式相關參數設定,如表所 5-2 示,測值與 實際值之變異情況,將之繪製如圖5.5~5.15 所示

表5-2 類神經模式之相關參數設定 第ㄧ層隱藏

層節點數

第二層隱藏

層節點數 學習循環 訓練數目 測試數目 取樣法

1 旬 10 10 1500 30 9 循序

2 旬 30 10 5000 30 9 循序

3 旬 20 10 6000 30 9 循序

4 旬 28 10 4000 30 9 循序

5 旬 30 25 3000 30 9 循序

6 旬 36 1 1000 30 9 循序

7 旬 10 1 10500 30 9 循序

8 旬 32 16 8000 30 9 循序

9 旬 5 0 3000 30 9 循序

10 旬 20 10 2400 30 9 循序

11 旬 20 15 2000 30 9 循序

12 旬 10 0 1000 30 9 循序

13 旬 13 1 3000 30 9 循序

14 旬 10 1 1000 30 9 循序

15 旬 25 1 1400 30 9 循序

16 旬 40 1 1000 30 9 循序

17 旬 24 5 3000 30 9 循序

18 旬 15 10 1000 30 9 循序

19 旬 20 30 1000 30 9 循序

20 旬 5 8 1000 30 9 循序

(49)

21 旬 10 8 500 30 9 循序

22 旬 20 15 8000 30 9 循序

23 旬 30 22 2000 30 9 循序

24 旬 20 52 200 30 9 循序

25 旬 26 2 10000 30 9 循序

26 旬 12 4 4300 30 9 循序

27 旬 30 10 700 30 9 循序

28 旬 24 3 1000 30 9 循序

29 旬 21 15 2000 30 9 循序

30 旬 21 15 2000 30 9 循序

31 旬 21 15 2000 30 9 循序

32 旬 2 40 1400 30 9 循序

33 旬 24 40 1400 30 9 循序

34 旬 2 5 2000 30 9 循序

35 旬 2 5 2000 30 9 循序

36 旬 5 2 2000 30 9 循序

類神經參數是經由訓練以及測試收斂曲線,是否更換其隱藏節點 數或者學習循環,判斷以達收斂或者無法找到更好參數可由圖5.4 所 示,更可由收斂曲線得知,何旬為比較不容易預測之旬數。

圖5.4 類神經預測模式第一旬收斂圖

(50)

AASN旬入流量預測圖

0 500 1000 1500 2000 2500 3000

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

圖5.5 民國 79 年 AASN 模式旬入流量預測圖

AASN旬入流量預測圖

0 200 400 600 800 1000 1200 1400 1600

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.6 民國 80 年 AASN 模式旬入流量預測圖

(51)

AASN旬入流量預測圖

0 200 400 600 800 1000 1200 1400 1600 1800

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

圖5.7 民國 81 年 AASN 模式旬入流量預測圖

AASN旬入流量預測圖

0 200 400 600 800 1000 1200 1400

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.8 民國 82 年 AASN 模式旬入流量預測圖

(52)

AASN旬入流量預測圖

0 500 1000 1500 2000 2500 3000

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

圖5.9 民國 83 年 AASN 模式旬入流量預測圖

AASN旬入流量預測圖

0 200 400 600 800 1000 1200

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.10 民國 84 年 AASN 模式旬入流量預測圖

(53)

AASN旬入流量預測圖

0 500 1000 1500 2000 2500 3000 3500 4000

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

圖5.11 民國 85 年 AASN 模式旬入流量預測圖

AASN旬入流量預測圖

0 200 400 600 800 1000 1200 1400 1600 1800

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.12 民國 86 年 AASN 模式旬入流量預測圖

(54)

AASN旬入流量預測圖

0 500 1000 1500 2000 2500

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

圖5.13 民國 87 年 AASN 模式旬入流量預測圖

AASN旬入流量預測圖

0 200 400 600 800 1000 1200 1400

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.14 民國 93 年 AASN 模式旬入流量預測圖

(55)

AASN旬入流量預測圖

0 500 1000 1500 2000 2500

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

AASN預測值

德基庫旬入流量   (CMS)

旬 圖5.15 民國 94 年 AASN 模式旬入流量預測圖

5.2.2 GEGA 模式

本研究以 GEGA 模式所建立之流量預測模式,乃藉由個體間不 同函數式所求得之數筆預測值,分別計算其平均絕對誤差(MAE),經 由遺傳演算法(GAs)高效率的搜尋能力,優選語法式進化(GE)所映射 出具有最小MAE 之函數式。其中,GEGA 模式之相關參數設定,如 表 5-3 所示。GEGA 模式經由 8000 代(在 PentiumⅣ2.4G 平均執行時 間約 240 秒)之搜尋,即可優選出各旬最佳之函數式。其各旬函數式 整理如表5-4 所示。

研究中選定(民國 79 年~民國 87 年)旬入流量為測試,並以(民國 92 年~民國 94 年)作為驗證,GEGA 預測值與實際值之變異情況,將 之繪製如圖5.16~5.26 所示。

(56)

表 5-3 GEGA 模式之相關參數設定

群集個數 1000

密碼子位元長度 8

個體字串位元長度 160

交換率 0.8

突變率 0.01

執行代數 8000

GEGA旬入流量預測圖

0 500 1000 1500 2000 2500 3000

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

GEGA預測值

德基庫旬入流量   (CMS)

旬 圖5.16 民國 79 年 GEGA 模式旬入流量預測圖

(57)

GEGA旬入流量預測圖

0 200 400 600 800 1000 1200 1400 1600

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

GEGA預測值

德基庫旬入流量   (CMS)

旬 圖5.17 民國 80 年 GEGA 模式旬入流量預測圖

GEGA旬入流量預測圖

0 200 400 600 800 1000 1200 1400 1600 1800

1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 實際值

GEGA預測值

德基庫旬入流量   (CMS)

旬 圖5.18 民國 81 年 GEGA 模式旬入流量預測圖

參考文獻

相關文件

A dual coordinate descent method for large-scale linear SVM. In Proceedings of the Twenty Fifth International Conference on Machine Learning

Hofmann, “Collaborative filtering via Gaussian probabilistic latent semantic analysis”, Proceedings of the 26th Annual International ACM SIGIR Conference on Research and

Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp... Annealed

in Proceedings of the 20th International Conference on Very Large Data

(1999), &#34;Mining Association Rules with Multiple Minimum Supports,&#34; Proceedings of ACMSIGKDD International Conference on Knowledge Discovery and Data Mining, San Diego,

Lange, “An Object-Oriented Design Method for Hypermedia Information Systems”, Proceedings of the Twenty-seventh annual Hawaii International Conference on System Sciences, 1994,

Shih and W.-C.Wang “A 3D Model Retrieval Approach based on The Principal Plane Descriptor” , Proceedings of The 10 Second International Conference on Innovative

D.Wilcox, “A hidden Markov model framework for video segmentation using audio and image features,” in Proceedings of the 1998 IEEE Internation Conference on Acoustics, Speech,