• 沒有找到結果。

第三章 文獻探討

第三節 類神經網路

二、 類神經網路的學習方式

類神經網路是以模擬大腦功能為主要概念,具有跟生物一樣的學習能力。通常以 權重值大小代表神經元連結的強弱,如果單從改變網路神經元間連結強弱的學習演算 法來區分,其 學習方 式可分為監督式 學習(Supervised Learning)與非監督式學習 (Unsupervised Learning)兩種。

(一) 監督式學習法

從問題學習輸入值與目標值之對應關係,透過目標值在學習的過程中不斷的修正 神經元間的權重值,直到符合目標所允許的誤差範圍時才結束權重之調整,此方式稱 為監督式學習法,流程如圖 15 所示。

圖 15 監督式學習法流程說明

(二) 非監督式學習法

與監督式學習法最大差異在於不需透過目標值來進行權重值之修正,而是將問題 透過物以類聚的方式來聚類,同樣也是透過部斷的學習,使神經元間產生對於問題具 有具類功能的連結能力。此種方式通常在處理資料量龐大且無法輕易理解的問題,流 程如圖 16 所示。

圖 16 非監督式學習法流程說明

三、 類神經網路之轉移函數

類神經網路之轉移函數是在模擬神經元中的門檻值,在生物神經元中門檻值的作 用是用於決定神經元是否做傳遞訊息的動作,而在類神經網路的轉移函數主要是用來 轉換輸入訊息累加後的輸出值範圍,一般是依照轉換函數的值域範圍來決定其轉換後 的值域範圍,以下介紹幾種常用之轉換函數:

1. 階梯函數:

圖 17 階梯函數圖形

階梯函數:



<

= ≥

0 x if 0

0 x if

F(x) 1 (13)

2. 區域線性函數:

圖 18 區域線性函數圖形

區域線性函數:





>

+

+

=

2 -1 x if 0

2 -1 x if 2 x 1

2 1 x if 1

F(x) (14)

3. 雙彎曲函數:

圖 19 雙彎曲函數圖形

雙彎曲函數:

F x

x

exp 1 ) 1

( = +

(15)

4. 雙彎曲正切函數:

圖 20 雙彎曲正切函數圖形

雙曲線正切函數:

F ( x ) = tanh( x )

(16)

四、 倒傳遞類神經網路架構

倒傳遞類神經網路架構的架構為多層感知器(Multilayer perception, MLP)及誤差 倒傳遞演算法(Error Back Propagation, EBP),這樣的組合稱之為倒傳遞類神經網路 (Back Propagation Neural Network, BPNN),倒傳遞類神經演算法屬多層前饋式網路,

以監督式學習方式來處理輸入、輸出間之非線性映射關係,倒傳遞類神經網路架構如 圖 21 所示,在輸入層與輸出層之間有隱藏層(hidden layer),是因為該層與外界資訊 隔離,網路只透過輸入、輸出層作為對外介面;倒傳遞神經網路包含輸入層、輸出層、

隱藏層。有傳遞功能的只有輸入層的神經元,而真正有實際作用的是隱藏層及輸出層 之神經元。一般都會依照問題的形式來決定兩者的神經元數目,隱藏層層數可以依問 題複雜度來增加。其倒傳遞類神經網路演算法如圖 22 所示。

圖 21 倒傳遞類神經網路架構圖

設定網路參數

計算目標函數 計算隱藏層與輸出層輸出

以亂數產生 初始權重與偏權值

調整各層之權重與偏權值 計算權重修正量

是否仍有訓練樣本 是否達到

收斂門檻

網路停止

圖 22 BPNN 演算流程圖

資料來源:「類神經網路:理論與實務」,張裴章、張麗秋,2005,131。

相關文件