• 沒有找到結果。

一、 緒論

1.3 論文架構

本論文共分為六章,其架構內容分別為第一章緒論,說明本論文之研 究背景、研究動機及目的以及提出與本研究相關之文獻探討,即介紹半導 體化學氣相沉積與薄膜厚度量測及回顧一些與本研究相關之預測模式,最 後陳述論文架構。第二章研究方法與理論,在介紹資料化簡方法、反傳遞 模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類神經網路之理論 與演算法以及評估預測結果之準確性的公式。第三章建構類神經網路之流 程,化學氣相沉積機台參數的前置處理,介紹網路之建構與相關參數及三 種類神經網路之差異。第四章實例驗證,以一實例來比較三種類神經網路 之準確度。第五章總結,為本論文之結論及提出未來進一步之研究議題。

第二章 研究方法與理論

本章為說明預測晶圓化學氣相沉積厚度所需使用的方法。化學氣相沉 積機台有上百個參數,過多參數會干擾網路學習,因此在第2.1節會介紹簡 化機台參數,以主成份分析法來選取與預測結果相關性高的機台參數。而 在化學氣相沉積量測厚度的化簡方式是以平均值(mean),最大值和最小值之 差(range),均勻值(uniformity)來降低維度。在第2.2節會介紹類神經網路,

再敘述反傳遞模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類神 經網路之理論。為了要評估此三種類神經網路的預測準確性,第2.3節會說 明評估預測結果準確性之公式。

2.1 輸入變數與輸出變數之簡化

根據許[18]的類神經網路文獻中,提及輸入變數過多,易干擾網路學 習,於訓練時不易收斂,訓練耗費較多時間。因一般機台參數動則會有上 百個,本研究所採用之機台參數為160個,作為類神經網路之輸入。為了避 免上述干擾網路學習的問題發生,我們採用主成分分析法來簡化輸入變 數。化學氣相沉積厚度的量測值會因每片晶圓量測點數而不同,所以我們 參考採取厚度量測之平均值,最大值和最小值之差,均勻值等,以達到簡 化的目的[6]。這三個值須再經過正規化,才作為類神經網路之輸出。

2.1.1 主成份分析法

在進行主成份分析法前,需將輸入變數經過數學方法做正規化,該數 學方法會參考到標準差。標準差為一組數據中,每個值到平均值之分散程 度。一個較大的標準差所代表的是數據中,大部分的值之間差異程度較大。

反之,較小的標準差代表大部分的值差異程度較小,公式如下:

2

2.使用奇異值分解法(singular value decomposition)將原始資料經正規化後 之矩陣YR×Q分解為三個矩陣,如下所示: 4.計算變異數之總和T與整體變異數(fractional variance)FRx1

=

7.簡化原始資料正規化之矩陣YR×Q,得一新矩陣WS×Q

2.2 類神經網路簡介

動物界的生物行為,如思考、運動、學習等行為,都是經由複雜的神 經系統相互連結和彼此間傳遞訊息所達成。神經系統的基本單元為神經 元,又稱神經細胞。神經細胞有許多的突觸與其他細胞相互連結,構成非 常複雜的網路,可接受外界的訊息。而類神經網路為模仿生物的神經系統,

接 收 外 界 訊 息 , 再 經 過 運 算 並 將 結 果 輸 出 。 最 早 於 1943 年 心 理 學 家 McCulloch和數學家Pitts共同提出類神經網路的數學模式。之後,有許多學 者提 出 更新 穎 的神 經 網路 , 如1969年 Minsky和Papert共同 提 出感 知器 (perceptrons)。1982年,J. Hopfield提出霍普菲爾類神經網路(hofield neural network,HNN)。1980年,Kohonen提出自組織映射類神經網路(self-organize mapping neural network,SOMNN)等。之後,到現在有許多相關應用領域包 括工業製程的品質監控、商業分析與預測、氣象預測等。因類神經網路是 由許多運算單元和其他眾多運算元相互連結,以平行分散方式來進行運 算,具備了高速計算能力、學習能力、容錯能力和記憶能力,因此在這些 應用領域都有相當出色的成果。

類神經網路可分為監督式學習、非監督式學習等二種分類。監督式學 習需經由所提供之訓練資料,包括輸入資料與輸出資料給類神經網路學習 等來進行學習,不斷的修正網路中神經元之權重,以符合輸入資料與輸出 資料之間的對應關係。此類神經網路包括反傳遞類神經網路、倒傳遞類神 經網路、機率類神經網路(probabilistic neural network,PNN)、學習向量量 化(learning vector quantization neural network,LVQNN)等。非監督式學習僅 需訓練資料中的輸入資料部分,此類神經網路如自適應共振理論類神經網 路(adaptive resonance neural network,ARNN)、自組織映射類神經網路等。

2.2.1 反 傳 遞 模 糊 類 神 經 網 路 (fuzzy counterpropagation neural network,CFNN)簡介

Hecht-Nielsen於1987年提出反傳遞模糊類神經網路,是由輸入層,隱 藏層及輸出層所組成。隱藏層亦可稱為Kohonen層,將依照輸入的資料與類 別中心之距離的相似性進行分類,距離相似近者歸為同一類並重複此步驟 直到所有輸入資料均被歸類為止。輸出層亦可稱為Grossberg網路,則依分 類結果來建立對應之輸出。本研究以反傳遞模糊類神經網路來預測半導體 製程中化學氣相沉積厚度,其架構如下:

輸入層 隱藏層

x

1

x

2

Xm-1

Xm

輸出層

y

1

y

2

y

n-1

y

n

w

1

w

2

w

q-1

w

q

π

1

π

2

π

q-1

π

q

.... .... .... ....

圖2.1 反傳遞模糊類神經網路架構圖

在Kohonen層中的各個神經元分別表示不同的類別,各神經元與輸入層 間的權重wi代表類別之中心點,其中i=1 , ,q,即假若輸入向量X屬於wi之 類別,而各神經元與Grossberg層的權重πi,其中i=1 , ,q,則輸出向量Y為 類別之輸出πi。因此,每個神經元與輸入層以及Grossberg層間的權重關係可 視為一完整的類別對應規則敘述。

Kohonen層中的第i個神經元,可表示為IF X is wi THEN Y is πi,其中,

) , , ,

(x1 x2 xm

X =  為輸入變數,wi為輸入層與Kohonen層中的第i個神經元的 權重,代表類別的中心點,而第i個神經元與Grossberg層的權重為πi,輸出 變數為Y =(y1,y2,,yn),代表最相近之類別的輸出值。反傳遞模糊類神經 網路的學習過程與其架構相關,Kohonen層採用非監督式學習,而 Grossberg 層,則採用監督式學習。

Kohonen層的演算法在決定神經元個數q及調整神經元的權重值wiq

i=1 , , 。此部分演算法不需比對輸出變數的資料,僅需輸入變數資料即可 產生神經元及調整權重,因此稱非監督式演算法。首先,設定一

表為 Gaussian隸屬函數的間隔寬度。計算輸入變數X(t)與Kohonen層中現存的q個 神經元權重之間的歐式距離並進行比較,以選定最小距離的神經元為類別 的中心點。當類別的中心點與輸入變數X(t)的距離小於

(delta),則改變距 離最近的類別中心點的權重為

] )

(

[ iold

old i new

i w X t w

w = +α (2.11)

,其中α 為學習率, 0≤α ≤1。

當 類 別 的 中 心 點 與 輸 入 變 數 X(t)的 距 離 大 於

, 則 新 建 一 神 經 元 )

(t X

winew= 且原神經元個數q新增為q+1。而α值則隨著每次遞迴演算,以等 比級數逐次地遞減。如第一次遞迴,α 值為1/2,第二次遞迴,α 值為1/3,

依此類推,直到使用者所設定之遞迴次數為止。

Grossberg層的演算法與Kohonen層類似。當類別的中心點與輸入變數 X(t)的距離小於

,在Kohonen層中所選取的神經元wi,其相對於Grossberg 層中的神經元πi,改變其權重

讀取

在反傳遞模糊類神經網路實際應用於預測階段的計算步驟如下:[14]

8.使用高斯(Gaussian)函數作為輸出函數,如









= 2

2 1

) (

exp

j m

j j

i x

w

(2.17)

其中xj為輸入向量中第j個輸入元素,wij為Kohonen層中第i個神經元中之第 j個權重值,

為間隔寬度。當輸入向量位於wij處時,此時函數值最大,其 值為1。然後向正負兩旁迅速遞減,直到間隔寬度

後,函數值越趨更小但 恆大於0。

當輸入為極端值,輸出會近似於Grossberg層的神經元權重的平均值,

則此輸出值將可能產生誤差。所以,採用步驟7的作法,當輸入xj發生找不 到近似類別的情形,則等倍率地放大間隔寬度

,以增加歸類到Kohonen 層神經元的機會,直到至少歸類為任一個神經元為止。以下為預測階段之 流程圖[14]:

讀取 x(t)

2.2.2 廣 義廻 歸 類 神 經 網 路 (general regression neural network,GRNN)簡介

Donald F. Specht 於 1988 年提出機率類神經網路,此網路僅適用於分類 問題,無法解決連續變數問題。在此所謂連續變數(continuous variable)的定 義如下:

而 f(p,s)是未知的,我們必須由 P 和 S 的觀測值來估計 f(p,s),在此採用 Parzen 所提出 Parzen window 的無母數方法來估計 f(p,s),其結果如式(2.19):

∑ ∫

2 氏距離(euclidean distance)的權重係數0.8326,所得的結果如式(2.21):

(2.21) 再依隱藏層所用之轉換函數計算產生輸出訊號。隱藏層所採用的輻狀基底 函數(radial basis function),如式(2.22):

(2.22)

2.2.3 輻狀基底函數類神經網路(radial basis function neural network,RBFNN)簡介

1987 年 Powell 提 出 輻 狀 基 底 函 數 類 神 經 網 路 來 解 決 多 變 數 內 插 (interpolation)問題,近來被廣泛地討論與應用,逐漸取代倒傳遞類神經網 路。而輻狀基底函數類神經網路之架構與演算方式與廣義迴歸類神經網路 大致相同,唯一不同在於輸出層計算方式為netprod,如式(2.26):

(2.26)

2.3 評估預測結果準確性

為了要評估預測值與實際值的誤差。本研究採用統計學上常用的平均 絕對百分比誤差與最大誤差等方法來判斷。其數學定義如下:[8]

1.平均絕對百分比誤差

n y

y a MAPE

n

i i

i

i

=

= 1 (2.27)

2.最大誤差

n y i

y MaxError a

i i

i }; 1,2, ,

max{ =

= (2.28) (2.27)與(2.28)式中ai為第i個預測值,yi為第i個實際值,n表為所有樣本數。

平均絕對百分比誤差與最大誤差越接近0,則預測準確性越佳。

第三章 建構類神經網路之流程

本章為贅述在類神經網路預測之前,須先選定機台參數,在第3.1節會 陳列出預測時所需之化學氣相沉積機台參數及厚度量測。這些參數經過第 3.2節之前置處理,排除影響製程變異較小的機台參數值、正規化及主成份 分析法之簡化後,再利用這些參數來建構神經網路。在第3.3節為介紹神經 網路的建構以及參數。最後第3.4節會介紹三種網路之差異。

3.1 化學氣相沉積機台參數

化學氣相沉積生產機台裝設有許多的感應器,可偵測出包括環境溫 度、壓力、氣體的供給量、電壓、電流等,然而並非所有的感測器資料都 可用來當作類神經網路作預測時的訓練資料。只有某些重要階段的感測器 資料在晶圓處理過程是必要的。本研究報告中,機台參數資料是經過合作 廠商的工程師所篩選出,如下表3.1。其所選出的機台參數資料包含6個輸出 功 率 (power)、 1 個 反 應 腔 電 壓 (echuck voltage)、 1 個 反 應 腔 電 流 (echuck current)、2個氦氣洩漏率(helium leak rate)、7個溫度(temperature)、3個壓力 (pressure)、12個氣體流量(flow)等,共32個參數。晶圓在機台處理時,會經 過20個以上的加工步驟。經過工程師篩選出重要之5個步驟,其分別為加

化學氣相沉積生產機台裝設有許多的感應器,可偵測出包括環境溫 度、壓力、氣體的供給量、電壓、電流等,然而並非所有的感測器資料都 可用來當作類神經網路作預測時的訓練資料。只有某些重要階段的感測器 資料在晶圓處理過程是必要的。本研究報告中,機台參數資料是經過合作 廠商的工程師所篩選出,如下表3.1。其所選出的機台參數資料包含6個輸出 功 率 (power)、 1 個 反 應 腔 電 壓 (echuck voltage)、 1 個 反 應 腔 電 流 (echuck current)、2個氦氣洩漏率(helium leak rate)、7個溫度(temperature)、3個壓力 (pressure)、12個氣體流量(flow)等,共32個參數。晶圓在機台處理時,會經 過20個以上的加工步驟。經過工程師篩選出重要之5個步驟,其分別為加

相關文件