第三章 模糊適應性學習控制網路(FALCON)
3.3 模糊適應性學習控制網路(FALCON)之訓練法則
3.3.1 非監督式學習系統
第五層的神經元主要接收來自第四層的信號,將信號利用方法解 模糊。之後得到輸出的精確值,此時結果即為 FALCON 網路的最 後結果。因為第四層同第二層的方程式採鐘型隸屬度函數運算,
所以射入的方程式中,mij及σij分別代表第 i 個輸出語意變數的第 j 項的中心點及分離度(平均值與變異數);而目前系統輸出之解模 糊法是使用重心法求解。因此,第五層神經元的方程式為:
5 5 5 5 5
( )
ij i ij ij i
f =
∑
w u =∑
mσ u 和 5ij i
a f
σ u
=
∑
(3.8)連結之向量值wi5為mijσij。
在學習訓練前決定好,意指不建議由系統自行決定分割的數目。因此,
本研究依上述觀點在本節之非監督式學習系統中,亦不做非監督式之 輸入及輸出之模糊切割。而第二層及第四層之隸屬度函數的參數則是 利用 Kohonen 學習方式來做學習訓練。
Kohonen 學習應用於隸屬度函數所需之參數運算共有兩個部分:
相信度比對部分(Similarity matching)、更新部分(Updating)。
相似度比對: l l
1
k k
i j
j n
x w Min x w
≤ ≤
− = −
(3.9)
在每一個相似度集中的族群(cluster)中,資料 x 進入。資料 x 將 會針對第 i 個族群的中心點wlki 做比較。兩者相減取其最小值,意即找 出資料 x 是屬於哪一個分類的族群。上標 k 表示運算第幾次的數目,lw 表示正規劃(normalization)後的中心點的值。
更新: wlki+1 =wlki +ηk
( )
x−wlikwlkj =wlkj, for j=1, 2,...,n j≠(3.10) i 在上述方程式中,ηk視為第 k 次所增加的學習係數。在更新的部 分中,若資料 x 在第 k 次中歸屬到第 i 個族群,則資料 x 只調整wlki 的 值。這種方法稱為贏者全拿(winner-takes-all)。
上述的方法可以應用在 FALCON 網路第二層及第四層,當隸屬度 函數計算時取得鐘型函數曲線中的中心點(平均值)。每一個相似度比 對的族群是來自於一開始的模糊切割,而上述方程式取得之中心點即 為各模糊切割的 m 值。再下一步就是隸屬度函數計算時要取得的鐘型 函數曲線中的分離度(變異數)。
Lin 和 Lee[29]針對上述已利用 Kohonen 學習所得出之各模糊切割 的 m 值,利用最近相鄰法(first-nearest-neighbor)粗略的去調整每一 個族群的隸屬度函數。最近相鄰法方程式如下:
i nearest i
m m
σ γ
= − (3.11)
當mi與mnearest為相鄰的兩個模糊切割的中心點(平均值),利用模糊 系統(fuzzy)給其一相互覆蓋(overlap)的模糊語意,而γ 即為相互 覆蓋的程度。如此便建構出鐘型隸屬度函數中的σ 值,及 FALCON 網 路中的模糊系統。
由下圖中可知,在屬性(attribute)1 及 2 中,共分類為三個族群 A、B 及 C。經過 Kohonen 學習的分配之後,可以得出族群 A、B 及 C 針對各屬性 1 及 2 的 m 值。再利用最近相鄰法,可針對族群 A、B 及 C 繪製出各屬性 1 及 2 的模糊系統。
圖 3.2 Kohonen 學習應用於隸屬度函數的參數計算[30]
在建構非監督式 FALCON 系統的主體中,第一步是決定輸入及輸 出之模糊切割部分,及隸屬度函數。而上述方程式(3.9)到(3.11)
已完整的架構好第一步,第二步要建立的是 FALCON 網路的法則部分。
FALCON 網路的法則在圖 3.1 中,是屬於第二層到第四層。
FALCON 網路的法則是架構 IF-THEN 的法則,在第二層到第三層中,
是架構 IF;而在第三層到第四層中,是架構 THEN。因此,第二層到 第三層的法則可以是固定,第三層到第四層的法則則利用增強競爭式 學習來架構。
建構第三層到第四層的法則在開始時,將每一個第三層的神經元 連結到每一個第四層的神經元,利用增強競爭式學習法來給予每一條 連結之權重值。最後依贏者全拿(winner-takes-all)的方法,將經過增 強競爭式學習法後,每一個第三層的神經元連結到每一個第四層的神 經元中,取一條連結強度最強的連結,權重值給予 1,而其餘連結皆為 0。換言之,就是只取一條連結為 IF-THEN 的結果。
依上述方式,可分為三方面在增強競爭式學習法中取得法則:
贏者競爭:
k k 2
j k j
o m
k
j e σ
µ
−
−
= ,
1max
k k
i j
j m
µ µ
= ≤ ≤ (3.12)
增強學習: wιki+1=wιki +cµ µik ιk,for i=1, 2,...,m;ι=1, 2,...L (3.13)
法則選擇: wιi =1 if
1
max( )
i i
i m
wι wι
= ≤ ≤ ,
wιj =0 if j≠i, for ι=1, 2,...L (3.14)
在贏者競爭部份,在第三層的神經元連結到第四層的神經元中,
找出第四層中哪一個神經元回應第三層神經元的信號最強。在增強學 習部份,將之前找出的最強連結及強度保留下來,並加入一增強係數 c,繼續訓練。最後法則選擇部分,在增強競爭式學習訓練完成時檢視 哪一條連結為最強,給予其權重值為 1,其餘為 0。
圖 3.3 增強競爭式學習應用於 IF-THEN 法則之建立[30]
上圖為增強競爭式學習的訓練圖,灰色表示已確定的連結神經 元,咖啡色表示經增強競爭式學習後所得到的 IF-THEN 法則。由第三 層中 R2神經元,連結到第四層神經元 T1到 Tn。經增強競爭式學習後,
2
wj 值大於其餘wn2值,給予wj2值為 1,其餘為 0。如此,則確立法則第 三層神經元 R2連結到第四層神經元 Tj。