• 沒有找到結果。

第三章 模糊適應性學習控制網路(FALCON)

3.3 模糊適應性學習控制網路(FALCON)之訓練法則

3.3.1 非監督式學習系統

第五層的神經元主要接收來自第四層的信號,將信號利用方法解 模糊。之後得到輸出的精確值,此時結果即為 FALCON 網路的最 後結果。因為第四層同第二層的方程式採鐘型隸屬度函數運算,

所以射入的方程式中,mij及σij分別代表第 i 個輸出語意變數的第 j 項的中心點及分離度(平均值與變異數);而目前系統輸出之解模 糊法是使用重心法求解。因此,第五層神經元的方程式為:

5 5 5 5 5

( )

ij i ij ij i

f =

w u =

mσ u 5

ij i

a f

σ u

=

(3.8)

連結之向量值wi5mijσij

在學習訓練前決定好,意指不建議由系統自行決定分割的數目。因此,

本研究依上述觀點在本節之非監督式學習系統中,亦不做非監督式之 輸入及輸出之模糊切割。而第二層及第四層之隸屬度函數的參數則是 利用 Kohonen 學習方式來做學習訓練。

Kohonen 學習應用於隸屬度函數所需之參數運算共有兩個部分:

相信度比對部分(Similarity matching)、更新部分(Updating)。

相似度比對: l l

1

k k

i j

j n

x w Min x w

≤ ≤

=

(3.9)

在每一個相似度集中的族群(cluster)中,資料 x 進入。資料 x 將 會針對第 i 個族群的中心點wlki 做比較。兩者相減取其最小值,意即找 出資料 x 是屬於哪一個分類的族群。上標 k 表示運算第幾次的數目,lw 表示正規劃(normalization)後的中心點的值。

更新: wlki+1 =wlki +ηk

( )

xwlik

wlkj =wlkj, for j=1, 2,...,n j(3.10) i 在上述方程式中,ηk視為第 k 次所增加的學習係數。在更新的部 分中,若資料 x 在第 k 次中歸屬到第 i 個族群,則資料 x 只調整wlki 的 值。這種方法稱為贏者全拿(winner-takes-all)。

上述的方法可以應用在 FALCON 網路第二層及第四層,當隸屬度 函數計算時取得鐘型函數曲線中的中心點(平均值)。每一個相似度比 對的族群是來自於一開始的模糊切割,而上述方程式取得之中心點即 為各模糊切割的 m 值。再下一步就是隸屬度函數計算時要取得的鐘型 函數曲線中的分離度(變異數)。

Lin 和 Lee[29]針對上述已利用 Kohonen 學習所得出之各模糊切割 的 m 值,利用最近相鄰法(first-nearest-neighbor)粗略的去調整每一 個族群的隸屬度函數。最近相鄰法方程式如下:

i nearest i

m m

σ γ

= (3.11)

mimnearest為相鄰的兩個模糊切割的中心點(平均值),利用模糊 系統(fuzzy)給其一相互覆蓋(overlap)的模糊語意,而γ 即為相互 覆蓋的程度。如此便建構出鐘型隸屬度函數中的σ 值,及 FALCON 網 路中的模糊系統。

由下圖中可知,在屬性(attribute)1 及 2 中,共分類為三個族群 A、B 及 C。經過 Kohonen 學習的分配之後,可以得出族群 A、B 及 C 針對各屬性 1 及 2 的 m 值。再利用最近相鄰法,可針對族群 A、B 及 C 繪製出各屬性 1 及 2 的模糊系統。

圖 3.2 Kohonen 學習應用於隸屬度函數的參數計算[30]

在建構非監督式 FALCON 系統的主體中,第一步是決定輸入及輸 出之模糊切割部分,及隸屬度函數。而上述方程式(3.9)到(3.11)

已完整的架構好第一步,第二步要建立的是 FALCON 網路的法則部分。

FALCON 網路的法則在圖 3.1 中,是屬於第二層到第四層。

FALCON 網路的法則是架構 IF-THEN 的法則,在第二層到第三層中,

是架構 IF;而在第三層到第四層中,是架構 THEN。因此,第二層到 第三層的法則可以是固定,第三層到第四層的法則則利用增強競爭式 學習來架構。

建構第三層到第四層的法則在開始時,將每一個第三層的神經元 連結到每一個第四層的神經元,利用增強競爭式學習法來給予每一條 連結之權重值。最後依贏者全拿(winner-takes-all)的方法,將經過增 強競爭式學習法後,每一個第三層的神經元連結到每一個第四層的神 經元中,取一條連結強度最強的連結,權重值給予 1,而其餘連結皆為 0。換言之,就是只取一條連結為 IF-THEN 的結果。

依上述方式,可分為三方面在增強競爭式學習法中取得法則:

贏者競爭:

k k 2

j k j

o m

k

j e σ

µ

=

1max

k k

i j

j m

µ µ

= ≤ ≤ (3.12)

增強學習: wιki+1=wιki +cµ µik ιk,for i=1, 2,...,m;ι=1, 2,...L (3.13)

法則選擇: wιi =1 if

1

max( )

i i

i m

wι wι

= ≤ ≤

wιj =0 if ji, for ι=1, 2,...L (3.14)

在贏者競爭部份,在第三層的神經元連結到第四層的神經元中,

找出第四層中哪一個神經元回應第三層神經元的信號最強。在增強學 習部份,將之前找出的最強連結及強度保留下來,並加入一增強係數 c,繼續訓練。最後法則選擇部分,在增強競爭式學習訓練完成時檢視 哪一條連結為最強,給予其權重值為 1,其餘為 0。

圖 3.3 增強競爭式學習應用於 IF-THEN 法則之建立[30]

上圖為增強競爭式學習的訓練圖,灰色表示已確定的連結神經 元,咖啡色表示經增強競爭式學習後所得到的 IF-THEN 法則。由第三 層中 R2神經元,連結到第四層神經元 T1到 Tn。經增強競爭式學習後,

2

wj 值大於其餘wn2值,給予wj2值為 1,其餘為 0。如此,則確立法則第 三層神經元 R2連結到第四層神經元 Tj