• 沒有找到結果。

影像分類分法與原理

在文檔中 目 錄 (頁 38-55)

傳統利用遙測影像判釋地表覆蓋,主要是應用統計方法計算地表 特徵物在各電磁波波段範圍內反射強度之平均值向量(mean vector)

與共變異數矩陣(covariance matrix),並依此建立分類判讀準則,進 而區分出特徵物之類別。而類神經網路屬一種形式特殊的統計方法,

利用其柔性之網路結構所具有的大量可調適參數以及具有容錯能力之 特性:經不斷學習已知類別地表特徵物及其波譜反射特性之內對映規 則,並記憶於網路結構中,以提供未知類別之地表特徵物分類應用。

(Yoshida and Omatu,1994;陳繼藩 1997)。

衛 星 影 像 的 分 類 方 法 分 為 監 督 性 分 類 法 ( supervised classification)及非監督性分類法(unsupervised classification)二種。

其所根據的原理都一樣,都是用「波譜型態辨認法」,所謂波譜型態是 指遙測資料值在特徵空間聚集的情形(歐陽鐘裕,1986)

監督性的分類法係需先決定分類之各類別,再以既有資料研究 各類別在 n 維空間中之分佈特性,並依此特性決定未分類像元之歸屬 類別,其中較著名有最大概似決定法( maximum-likelihood decision Rule)、貝氏分類法(bayesian classifier)、平行六面體(parallelepiped)、 最小距離法(minimum distance)、類神經網路分類法(artificial neural network classifier)、及超矩形學習模式分類法(hyper-rectangles learning model classifier)等方法。其監督性分類法有五個主要步驟(洪皓人,

2000):

1.目標物訓練樣區選取,例如水田、修耕田、建築物、水體、雜木林、

裸露地等。

30

2.由衛星影像中判釋具有代表性的目標物像元,即訓練樣區,同時配 合現地土地利用資料,此方式較易找到足夠之數量與正確之樣本樣 元。此步驟甚為重要,因為訓練樣區的統計資料為分類時之標準,若 其中摻雜太多的混合像元,容易導致分類準確性降低。

3.從選出的訓練樣區中,計算各波段之統計資料。

4.多波段影像中,相鄰波段相關性較高,不同的物質可能在某些波段 具有相似的反應,若事先能知道它們相關程度,則分類時可減少波段 數目,以節省時間、提高分類準確性。

5.利用以上四步驟所決定之各項參數來進行影像分類。

非監督式分類是依照地物的光譜值做地物的分類,由於並沒有利 用空間的判釋資訊,所以其分類會有不少誤判的情形發生。非監督性 分類又稱群集分析(Cluster analysis ),需先決定欲分類之類別數目

(m),再由統計理論將 n 維空間中之所有像元區分為 m 類。非監督 性分類與監督性分類兩者最大不同點在於分類過程中並不需先知道類 別之特性。其中較著名 K-均數演算法(K-means algorithm)(阮聖裕,

1994)。

倒傳遞類神經網路為類神經網路方法中使用最為普遍,而傳統監 督式分類法為高斯最大似然分類法最常使用,因此本研究選用類神經 網路分類法及最大概似決定法來對影像分類。

4-1 高斯最大似然分類法

最大概似分類法,通常假設影像之分類特徵具有多變量常態分 佈。計算訓練樣區每一類的共變異矩陣(Covariance matrix)、平均向

31

量(mean vector),再以(4-1)式計算第 i 類中 X 出現之機率。

( )

X i =

( )

d

i 

(

X i

)

T

i

(

X i

)



P π 2 21 µ 1 µ

2 exp 1 2

(4-1)

(1)式中:

d 為特徵數;

i 為第 i 類的共變異數矩陣;

1

i

i 的反矩陣;

i

i 的行列式值;

µi為第 i 類的平均值向量;

(

Xµi

)

T

(

Xµi

)

的轉置矩陣;

X 為某樣本以特徵表示,為 d 維矩陣;

( )

Xi

P :為某 X 由第 i 類而來的機率;

S

ij

:第 i 類與第 j 類的共變異數。









=

xd

x x

x Μ

2 1









=

di i i

i

µ µ µ

µ Μ

2 1













=

dd d

d d

d d d

i

S S

S S

S S

S S

S S

S S

S S

S S

Λ Μ Ο Μ Μ Μ

Λ Λ Λ

3 2 1

3 33

32 31

2 23

22 21

1 13

12 11

在分類時,比較出某樣本 X 在那一類類別中的機率密度函數值最 大,即可判釋該樣本為那一類,最大概似法分類之決策如圖 4-1 所示。

32

( ) ( ) ( ) ( )







r X P

X P

X P

X P

X

Λ Λ

3 2 1

圖 4-1.最大概似法分類決策示意圖

茲以圖 4-2(一維二類別為例)說明判別 X 該屬於第 i 類或第 j 類的規則。(1)若 X>X0 時,P (X j)> P(X i),則將 X 分類成第 j 類;

(2)若 X<X0 時,P

( ) ( )

Xi >P X j ,則將 X 分類成第 i 類;(3)若 X=X0 時,P

( ) ( )

Xi = P X j ,則將 X 分類成第 i 類及第 j 類的機率相等。

圖 4-2.最大概似分類法判別說明 選 擇 最 大 的 值,並將 X 指定

33

4-2 類神經網路

類神經網路是「一種基於腦與神經系統研究所啟發的資訊處理技 術」。它可以利用一組範例(即系統輸入與輸出所組成的資料)建立系 統模型(輸入與輸出間的關係),有了這樣的系統模型便可用於推估、

預測、決策、診斷 (葉怡成,2002) 。

類神經網路的應用依其輸出變數之特性可分成二大類:

1.函數型問題

網路的輸出為一個連續值的變數,例如

物理化學變量(濃度、溫度、PH 值、強度、流量、座標、尺寸… ) 經濟社會變量(股價漲跌百分比、匯率、利率、成本、銷售量… ) 2.分類型問題

網路的輸出為一組代表分類的變數,例如 決策(醫藥處方、替代方案、買賣決策… ) 診斷(疾病種類、故障原因、訊號分類… )

一個類神經網路是由許多個人工神經元與其連結所組成,並可組 成各種網路拓撲(topology),其中以前向網路(forward network)應 用最為普遍。一個前向網路包含許多層,每一層包含若干個處理單元,

輸入層處理單元用以輸入外在環境的訊息,輸出層處理單元用以輸出 訊息給外在環境。此外,一個層狀類神經網路經常包含若干層隱藏層

(hidden layer)。隱藏層的存在提供類神經網路表現處理單元間的交互 作用,與問題的內在結構的能力。通常每一層處理單元均有連結與相

34

鄰層的處理單元連接,前向類神經網路的重要術語及概念說明如下:

(1) 推論過程(reasoning process)

在推論時,網路激發訊號的傳遞均是從輸入層開始,經 由若干層隱藏層,最後到達輸出層。

(2) 學習過程(learning process)

在學習時,誤差訊號的傳遞是從輸出層開始,經由若干 層隱藏層,最後到達輸入層,並在誤差訊號的傳遞過程修正連接 上的加權值大小。

(3) 訓練範例(training example)

一個訓練範例包括一組輸入處理單元的輸入值,與一組輸出處理 單元的輸出值。

(4) 學習演算法(learning algorithm)

一種修正連結中的加權值的演算法,可從一組訓練範例中學習隱 函的知識。生物神經網路的形狀與一般細胞有很大的不同,它包含了:

神經核(soma)、神經索(axon)、神經樹(dendrites)和神經節(synapse)

四個部分,如圖 4-3 所示,分述如下:

類神經網路是由許多的人工神經細胞所組成,人工神經細胞又稱 為神經元、人工神經元或處理單元(processing element),人工神經 元模型如圖 4-4,每一個處理單元的輸出以扇狀輸送出,做為其他處 理單元的輸入,其輸入值與輸出值的關係式,如式(4-2),可用輸入

35

值的加權乘積和函數表示:

) (

1

=

= n

i

j i ij

i f W X

Y θ (4-2)

其中:

Yj:模仿生物神經元的模型的輸出訊號。

f:模仿生物神經元的模型的轉換函數(transfer function),將從

其他處理單元輸入值的加權乘積和轉換成處理單元輸出值的數學公 式。

Wij:模仿生物神經元的模型的神經強度,又稱連結加權值。

Xi:模仿生物神經元的模型的輸入訊號。

Θj:模仿生物神經元的模型的閥值。

介於處理單元間的訊息傳遞路徑稱為連結(connection)。每 一個連結上有一個數值的加權值 Wij,表示第 i 個處理單元對第 j 個處理單元影響程度。

36

圖 4-3.生物神經元模型

圖 4-4.人工神經元模型 輸入訊號

偏權值 輸出訊號

連結加權值

轉換函數

yj netj

Wij

Θj

輸入神經樹

輸出神經樹

神經軸

神經節

神經細胞核

神經細胞 核

37

從遙感探測觀點歸納出類神經網路的優缺點如表 4-1(Jarvis & Stuart,1996; Hafner& Komac,1998)

表 4-1.類神經網路的優缺點

l 具有非線性的構件

l 對於雜訊與不完整的資料具有相當的容忍度

l 容許名詞性或輔助資料輸入網路

l 演算法具有平行處理的能力

l 輸入資料分佈無根據統計假設

l 網路架構權值訓練完成後,即可有效的分類

l 相對於傳統分類方法,類神經網路可採用較少的訓練樣本

l 可歸納和合併紋理資訊

l 有能力去處理前後資料間的關係

l 理想的網路架構和訓練演算法仍處於研究階段

l 訓練階段可能收斂於局部最小值問題

l 部份網路架構需要龐大的硬體設備

l 預測模式與處理過程不透明化,權值作用不易解釋

l 部份網路模式訓練學習過程耗時多

38

4-2-1 倒傳遞類神經網路

倒傳遞類神經網路模式(Back-propagation Network,BPN)是目 前類神經網路學習模式中最具代表性,應用最普遍的模式。倒傳遞類 神經網路基本原理是利用最陡坡降法( Gradient Steepest Descent Method)的觀念,將誤差函數予以最小化。

倒傳遞類神經網路架構如圖 4-5 所示,包括(1)輸入層:用以表現 網路的輸入變數,其處理單元數目依問題而定,使用線性轉換函數,

即 f(x)=x ;(2)隱藏層:用以表現輸入處理單元間的交互影響,其 處理單元數目並無標準方法可以決定,經常需以試驗方式決定其最佳 數目。使用非線性轉換函數,網路可以不只一層隱藏層,也可以沒有 隱藏層;(3)輸出層:用以表現網路的輸出變數,其處理單元數目依 問題而定,使用非線性轉換函數。

就每一個神經元來說,可接收鍊結之輸入訊號,並經轉換函數 與閥值計算,輸出其反應值,以第 n 層的第 j 個單元得輸出值 Anj

為例,其為第 n-1 層單元輸出值的轉換函數值如式 4-3:

) (

nj

n

j

f net

A =

(4-3)

f:轉換函數

其中集成函數 netnj定義如式(4-4)

39

=

j

n j ij n

j

W A

net

'

1

θ

(4-4)

Wij:神經元 i 與神經元 j 間的連結強度,即連結加權值

θj:神經元 j 的閥值

根據神經元連結的關係,以最陡坡降法來調整神經元間的連結加權 值,期望達到誤差函數的最小值。誤差函數定義如式(4-5)。

=

j

j

j A

T

E ( )2

2

1 (4-5)

Tj:目標輸出值

Aj:推論輸出值

若未達到設定之誤差量則網路權值需要修正修正方式如式(4-6)

ij

ij W

W E

− ∂

=

η. (4-6)

Wij

∆ :神經元 i 與神經元 j 間的連結加權值修正量

η:學習速率(Learning Rate)

40

另外為避免網路收斂時產生震盪情形,可增加慣性量(Momentum)

的設計,如式(4-7)

ij ij

ij W

W E

W

+ ∂

=

α η. (4-7)

α:慣性量

圖 4-5. 倒傳遞網路

網路演算程序為:

步驟 1:設定網路參數,包含隱藏層數目、各層單元數目、學 習速率、容忍誤差等。

步驟 2:以亂數產生初始權重和偏權值。

步驟 3:計算隱藏層與輸出層之輸出。

步驟 4:計算誤差值。

步驟 5:計算加權修正量。

步驟 6:調整各層加權量和偏權值。

步驟 7:跳回步驟 3,重複計算誤差至容忍誤差內時,或達到 預設訓練次數時,網路即停止運算。

41

4-2-2 常用之非線性轉換函數

轉換函數的目的是將作用函數輸出值已轉換成處理單元的輸出,而 一般常用的非線性函數有下列二種:

1. 雙彎曲函數(sigmoid function)如圖 4-6a

e x

x

f = + 1 ) 1

( ,0<f(X)<1 (4-8)

2. 雙曲線正切函數(Hyperbolic tangent function)如圖 4-6b

e x

x

f = + 1 ) 1

( -1<f(X)<1 (4-9)

a.雙彎曲函數

b.雙曲線正切函數

圖 4-6. 倒傳遞類神經網路常用的非線性轉換函數

在文檔中 目 錄 (頁 38-55)

相關文件