第三章 理論相關背景
3.3 類神經網路
3.3.1 監督型神經網路
在監督型方面,若以簡單的系統觀念表達之,我們以圖3.12 說明。當輸 入訊號傳送至神經網路處理器後經由權重的調整計算得輸出訊號,經由輸出 訊號與目標值之比較找出其誤差,再經由神經網路不斷的修正調整,我們可 以將輸出的訊號逼近我們定義的目標值,透過此模式,針對新的輸入訊號我 們 能 達 到 預 測 其 輸 出 的 效 用 , 目 前 所 應 用 的 神 經 網 路 中 , 感 知 機 網 路 (Perceptron Network)、輻狀基底函數(Radial Basis Function Neural ,RBFN)以及 本研究所採用之倒傳遞神經網路(Back Propagation Neural Network ,BPNN)…
等神經網路,均屬於監督型神經網路。
監督型類神經網路處理器內部含有許多的神經元,透過這些神經元互相 交錯的連結,可以讓本來很單純的神經元具有平行運算的能力,一般監督型 類神經網包含至少三個層級,圖3.13 則是含有三個層級的類神經網路,包含 輸入層、隱藏層與輸出層,其說明如下。
一、輸入層(Input Layer):用以表現網路的輸入變數,其處理單元數目必 須依所應用的問題而定,可使用線性或非線性作用函數,為一個層級。
二、隱藏層(Hidden Layer):用以表現輸入處理單元間的交互影響,其處 理單元的數目並沒有一定的方法可以決定,多半是以試驗的方式來決 定其最佳的數目。在隱藏層中,是以非線性作用函數來做計算。負責 將資料特性分類或是結果間的關係做過濾的工作,為一至多個層級。。
三、輸出層(Output Layer):用以表現網路的輸出變數,其處理單元的數 目亦沒有一定,要視問題而定,通常使用線性轉換函數逼近目標值,
為一個層級。
圖3.12 監督型類神經網路系統示意圖
圖3.13 多層式神經網路結構 類神經網路
處理器
輸出
輸入
誤 差
真實值︵目標值︶
調整
權重 連結 神經元
輸入層 隱藏層 輸出層
x1
x2
:
y1
y2
: h1
h2
:
:
輸入向量 輸出向量
以下就本研究所採用之倒傳遞神經網路其學習過程說明如下:【12】
Step 1.設定網路參數 學習速率:(η)
Step 2.設定加權值(W_xh,W_hy)與偏權值(θ_h,θ_y) Step 3.輸入訓練範例的輸入向量(X),與目標輸出向量(Tn) Step 4.計算推論輸出向量 Y
計算隱藏層輸出向量H
_ _
h ih i h
i
net =
∑
W xh •X −θ h (3.3.1.1)Hh= 1
( )
1 exp h
h net
f net = −
+ (3.3.1.2)
計算推論輸出向量Y
_ _
j hj h j
i
net =
∑
W hy •H −θ y (3.3.1.3)Yj= 1
( )
1 exp j
j net
f net = −
+ (3.3.1.4)
Step 5.計算差距量δ
計算輸出層差距量δ
δj=Yj• −(1 Yj) (• Tnj−Yj) (3.3.1.5)
計算隱藏層差距量δ
δj= h (1 h) _ hj j
j
H • −H
∑
W hy δ (3.3.1.6)計算輸出層加權值矩陣修正量ΔW_hy 與偏權值向量修正量 Δθ_y _ hj j h
W hy ηδ H
Δ = (3.3.1.7)
_yj j
θ ηδ
Δ = − (3.3.1.8)
計算隱藏層加權值矩陣修正量ΔW_xh 與偏權值向量修正量 Δθ_h _ ih h i
W xh ηδ X
Δ = (3.3.1.9) _hh h
θ ηδ
Δ = − (3.3.1.10) Step 7.更新加權值矩陣 W,與偏權值向量 θ
更新輸出層加權值矩陣W_hy,與偏權值向量 θ_y _ hj _ hj _ hj
W hy =W hy + ΔW hy (3.3.1.11) _ yj _yj _yj
θ =θ + Δθ (3.3.1.12)
更新隱藏層加權值矩陣W_xh,與偏權值向量 θ_h _ ih _ ih _ ih
W xh =W xh + ΔW xh (3.3.1.13) _hh _hh _hh
θ =θ + Δθ (3.3.1.14) Step 8.重複步驟 3~7,直到收斂(誤差不再有明顯變化),或一定數目的學
習循環。
Step 9.測試網路誤差的程度是否收歛,有兩種方式。
均方誤差:
2 1
( ) /
n
j j
j
MSE Tn Y n
=
=
∑
− (3.3.1.15) 均方誤差根:2 1
( ) /
n
j j
j
RMSE Tn Y n
=
=