• 沒有找到結果。

評估預測結果準確性

二、 研究方法與理論

2.3 評估預測結果準確性

為了要評估預測值與實際值的誤差。本研究採用統計學上常用的平均 絕對百分比誤差與最大誤差等方法來判斷。其數學定義如下:[8]

1.平均絕對百分比誤差

n y

y a MAPE

n

i i

i

i

=

= 1 (2.27)

2.最大誤差

n y i

y MaxError a

i i

i }; 1,2, ,

max{ =

= (2.28) (2.27)與(2.28)式中ai為第i個預測值,yi為第i個實際值,n表為所有樣本數。

平均絕對百分比誤差與最大誤差越接近0,則預測準確性越佳。

第三章 建構類神經網路之流程

本章為贅述在類神經網路預測之前,須先選定機台參數,在第3.1節會 陳列出預測時所需之化學氣相沉積機台參數及厚度量測。這些參數經過第 3.2節之前置處理,排除影響製程變異較小的機台參數值、正規化及主成份 分析法之簡化後,再利用這些參數來建構神經網路。在第3.3節為介紹神經 網路的建構以及參數。最後第3.4節會介紹三種網路之差異。

3.1 化學氣相沉積機台參數

化學氣相沉積生產機台裝設有許多的感應器,可偵測出包括環境溫 度、壓力、氣體的供給量、電壓、電流等,然而並非所有的感測器資料都 可用來當作類神經網路作預測時的訓練資料。只有某些重要階段的感測器 資料在晶圓處理過程是必要的。本研究報告中,機台參數資料是經過合作 廠商的工程師所篩選出,如下表3.1。其所選出的機台參數資料包含6個輸出 功 率 (power)、 1 個 反 應 腔 電 壓 (echuck voltage)、 1 個 反 應 腔 電 流 (echuck current)、2個氦氣洩漏率(helium leak rate)、7個溫度(temperature)、3個壓力 (pressure)、12個氣體流量(flow)等,共32個參數。晶圓在機台處理時,會經 過20個以上的加工步驟。經過工程師篩選出重要之5個步驟,其分別為加 熱、氧化、還原、氮化、熱裂解等,因每個步驟所採用的機台參數有32個,

所以每片晶圓共有160個機台參數。在機台處理完畢後,晶圓會經過量測,

量測項目包含厚度、微塵顆粒、應力等。本篇報告選取厚度,作為本實驗 所要預測之變數。其可總結如下表:

表3.1 機台參數表

參數編號 參數名稱 參數編號 參數名稱

1 溫度 1 17 氦氣洩漏率 2

2 溫度 2 18 壓力 1

3 溫度 3 19 壓力 2

4 溫度 4 20 壓力 3

5 溫度 5 21 氣體流量 1

6 溫度 6 22 氣體流量 2

7 溫度 7 23 氣體流量 3

8 輸出功率 1 24 氣體流量 4 9 輸出功率 2 25 氣體流量 5 10 輸出功率 3 26 氣體流量 6 11 輸出功率 4 27 氣體流量 7 12 輸出功率 5 28 氣體流量 8 13 輸出功率 6 29 氣體流量 9 14 反應腔電壓 30 氣體流量 10 15 反應腔電流 31 氣體流量 11 16 氦氣洩漏率 1 32 氣體流量 12

3.2 資料前置處理

資料分為機台參數資料和化學氣相沉積厚度量測資料。機台參數在執 行預測之前,必須先將機台參數資料作正規化,接下來採用主成份分析法 來減少其維度,之後作為類神經網路的輸入變數。將化學氣相沉積厚度量 測資料分別算出平均值,最大值與最小值之差與均勻值,再作正規化,之 後作為類神經網路的輸出變數。

當兩者資料均準備好後,即可建構類神經網路,經過學習後,可適當 地反映出機台參數及化學氣相沉積厚度之間的對應關係。

3.3 反傳遞模糊類神經網路運算流程

反傳遞模糊類神經網路是由輸入層,隱藏層,輸出層所構成。在學習 階段之運算流程會輸入訓練資料到網路,如下所示:

輸入層:輸入訓練資料中的機台參數,再輸出到隱藏層。

隱藏層:找出輸入的訓練資料與所有神經元之最小距離。當距離小於

,則改變該神經元的權重。當距離大於

,則新建一神經元,訓練資料 之輸入部分作為新建神經元之權重。

輸出層:當距離小於

,隱藏層中所選取的神經元,其相對於輸出層之 位置的神經元權重。當距離大於

,則新建一神經元,訓練資料之輸出部 分作為新建神經元之權重。

在預測階段之運算流程會將測試資料輸入到網路,如下所示:

輸入層:輸入測試資料中的機台參數,再輸出到隱藏層。

隱藏層: 計算輸 入的測試資 料與輸出 層每個神經元之 距離,如式 (2.13)。找出最小距離,接下來計算相對距離及類別指數,如式(2.14)、式 (2.15)。若類別指數小於10-5,則將

放大,重新計算相對距離及類別指數,

直到類別指數大於10-5為止。

輸出層:經由權重平均計算,如式(2.16),即可得到預測化學氣相沉積 厚度的平均值,最大值和最小值之差、均勻值。

3.4 廣義迴歸類神經網路運算流程

廣義迴歸類神經網路是由輸入層,隱藏層,輸出層所構成。在學習階段 之運算流程會輸入訓練資料到網路,以循序方式選取訓練資料的機台參數 與化學氣相沉積厚度量測值分別作為隱藏層與輸出層之神經元權重。

輸入層:輸入訓練資料中的機台參數,再輸出到隱藏層。

隱藏層:將訓練資料中的機台參數資料表示成矩陣 Wq×r,使用高斯的輻 狀基底函數(radial basis function)來當作轉換函數。輻狀基底函數的中心位置 可從訓練資料中循序選取。因有q組訓練資料組,所以隱藏層神經元數目設

3.6 反傳遞模糊類神經網路、廣義迴歸類神經網路與輻狀

第四章 實例驗證

本章節為依第三章節所述之反傳遞模糊類神經網路、廣義迴歸類神經 網路及輻狀基底函數類神經網路預測半導體晶圓化學氣相沉積厚度的實例 驗證。所採用之資料來自某一半導體廠提供的化學氣相沉積機台於處理單 一產品晶圓時,機台內其中之一個反應腔的參數及化學氣相沉積厚度資料 共1000筆,其中每筆資料包括一片晶圓於機台加工處理之160個機台參數與 數個厚度資料。本章第4.1節會介紹資料簡化,將前者160個機台參數經過簡 化剩32個,作為網路之輸入。後者厚度值,分別求出平均值、最大值和最 小值之差、均勻值等3個項目,當作網路之輸出。在訊練與預測階段之資料 配置原則是採用循序取樣的方式[21],即從機台參數及化學氣相沉積厚度 中,取前700筆作為網路訓練範例,後300筆作為網路測試資料。第4.2節會 介紹嘗試改變類神經網路參數的方式來決定最佳值。本實驗所採用的電腦 規格為CPU 2.8G HZ,RAM 1G MB,軟體為MATLAB 6.5。

4.1 機台參數簡化

晶圓在機台處理會經過20個以上的步驟,根據半導體廠的合作廠商的 專家意見,從機台處理步驟中,選取5個重要步驟,分別為加熱、氧化、還 原、氮化、熱裂解等,又每個步驟中的32個機台參數。因此,本實驗所選 取機台參數共有160(= 5 x 32)參數。這些原始參數,須先將所有參數經過正 規化,如式(2.2),接下來採用主成分分析法篩選主成分參數。因機台參數 的整體變異比例較大者,其特徵值越大,則其所對應的特徵向量越有差異 性,可以讓每一筆資料投影至基底上得到最大差異量,藉以分辨出彼此。

因此,保留了整體變異比例大於0.1%的變數,共32個,作為主成分參數。

如下表4.1所示:

表4.1 機台參數之整體變異比例

機台參數編號

步驟編號

1 2 3 4 5

1 0.7772600 0.0007655 2.05E-05 5.90E-07 2.74E-08 2 0.0473440 0.0007504 1.99E-05 5.55E-07 2.46E-08 3 0.0218370 0.0006723 1.86E-05 4.72E-07 2.15E-08 4 0.0142670 0.0006511 1.49E-05 4.41E-07 1.93E-08 5 0.0122230 5.77E-04 1.33E-05 3.86E-07 1.75E-08 6 0.0087045 4.36E-04 1.30E-05 3.51E-07 1.54E-08 7 0.0079214 4.13E-04 1.21E-05 3.04E-07 1.45E-08 8 0.0074034 2.74E-04 1.03E-05 2.51E-07 1.11E-08 9 0.0068374 2.56E-04 8.85E-06 2.47E-07 9.66E-09 10 0.0066730 2.16E-04 8.54E-06 2.26E-07 8.94E-09 11 0.0064619 1.87E-04 7.28E-06 1.88E-07 6.96E-09 12 0.0062744 1.57E-04 5.92E-06 1.72E-07 6.22E-09 13 0.0059607 1.38E-04 4.80E-06 1.62E-07 5.87E-09 14 0.0057329 1.16E-04 4.57E-06 1.42E-07 5.24E-09 15 0.0054278 1.04E-04 3.83E-06 1.34E-07 4.04E-09 16 0.0052914 8.68E-05 3.70E-06 1.26E-07 3.25E-09 17 0.0048345 7.81E-05 3.12E-06 1.20E-07 2.69E-09 18 0.0047296 7.53E-05 2.83E-06 1.14E-07 1.99E-09 19 0.0043843 6.47E-05 2.75E-06 1.12E-07 1.25E-09 20 0.0041287 5.62E-05 2.64E-06 1.01E-07 8.30E-10 21 0.0035395 5.03E-05 2.29E-06 9.41E-08 7.56E-10 22 0.0034871 4.61E-05 1.80E-06 9.28E-08 7.20E-10 23 0.0033116 4.39E-05 1.62E-06 8.67E-08 5.65E-10 24 0.0030770 4.15E-05 1.56E-06 7.61E-08 2.81E-10 25 0.0028960 3.95E-05 1.53E-06 7.05E-08 2.19E-10 26 0.0024944 3.63E-05 1.40E-06 6.16E-08 1.65E-10 27 0.0023851 3.11E-05 1.22E-06 5.73E-08 1.50E-10 28 0.0022020 3.09E-05 1.04E-06 5.29E-08 1.21E-10 29 0.0020698 2.58E-05 9.23E-07 4.55E-08 4.60E-11 30 0.0016825 2.54E-05 8.74E-07 4.34E-08 4.84E-12 31 0.0013897 2.36E-05 7.97E-07 3.81E-08 4.93E-41 32 0.0010771 2.31E-05 6.59E-07 3.35E-08 1.52E-42

4.2 化學氣相沉積量測厚度資料之簡化

本節以嘗試錯誤(trial and error)[12]之方式選取類神經網路參數,如廣義 迴歸類神經網路及輻狀基底函數類神經網路之分散常數,反傳遞模糊類神

* 3

2.32420 0.58 0.34778 1.96450

2.32440 0.63 0.34778 1.96450

2.32460 0.64 0.34778 1.96440

2.32480 0.60 0.34778 1.96440

2.32500 0.56 0.34778 1.96440

2.32520 0.51 0.34778 1.96440

2.32540 0.58 0.34778 1.96440

2.32560 0.62 0.34778 1.96440

2.32580 0.58 0.34778 1.96440

2.32600 0.65 0.34778 1.96440

2.32620 0.64 0.34778 1.96440

2.32640 0.63 0.34778 1.96440

2.32660 0.65 0.34778 1.96440

2.32680 0.63 0.34778 1.96440

2.32700 0.66 0.34778 1.96440

2.32720 0.62 0.34778 1.96440

2.32740 0.62 0.34778 1.96440

2.32760 0.53 0.34778 1.96440

2.32780 0.50 0.34778 1.96440

2.32800 0.65 0.34778 1.96440

2.32820 0.62 0.34778 1.96440

2.32840 0.54 0.34779 1.96440 2.32860 0.63 0.34779 1.96440 2.32880 0.62 0.34779 1.96440 2.32900 0.64 0.34779 1.96430

由以上實驗得知,

常數介於2.32100到2.32820之間的厚度平均值之平均絕 對誤差百分比為最小值,0.34778。選定介於2.32100到2.32820之間的中間 數,2.32440作為最佳網路參數。由所選定之參數來預測化學氣相沉積厚度 並與實際量測值作一比較,如下圖:

(a)

(b)

廣義迴歸類神經網路實際值與預測值之結果

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

正規化厚度平均值(nm)

預測值 實際值

100

廣義迴歸類神經網路實際值與預測值之結果

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

正規化厚度平均值(nm)

預測值 實際值

200

101 111 121 131 141 151 161 171 181 191

(c)

圖4.1: (a)、(b)及(c)分別表測試資料編號1~100、編號 101~200及編號201~300 的廣義迴歸類神經網路實際值與預測值之趨勢圖(Y軸:1單位為34 nm)

100 300 201 211 221 231 241 251 261 271 281 291

廣義迴歸類神經網路實際值與預測值之誤差

(b)

(c)

圖4.2: (a)、(b)及(c)分別表測試資料編號1~100、編號101~200及編號201~300 的廣義迴歸類神經網路實際值與預測值之誤差(Y軸:1單位為34 nm)

廣義迴歸類神經網路實際值與預測值之誤差

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

誤差(nm)

誤差

100 200 101 111 121 131 141 151 161 171 181 191

廣義迴歸類神經網路實際值與預測值之誤差

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

誤差(nm)

誤差

100 100 300

201 211 221 231 241 251 261 271 281 291

4.3.2 反傳遞模糊類神經網路實驗

步驟一:決定隱藏層的

參數

表4.3 反傳遞模糊類神經網路選定

參數實驗表 反傳遞模糊

類神經網路 學習循環次數:1 學習率:0.1 初始學習率值:0.9

訓練和測試所花費 時間(秒)

厚度平均值之平均 絕對百分比誤差

(%)

厚度平均值之 最大誤差(%) 3.23800 63.67 0.34423 1.95630 3.23820 61.40 0.34423 1.95630 3.23840 64.17 0.34423 1.95630 3.23860 63.90 0.34423 1.95630 3.23880 63.97 0.34423 1.95630

3.23900 62.04 0.34422 1.95630

3.23920 62.66 0.34422 1.95630

3.23940 64.80 0.34422 1.95630

3.23960 63.72 0.34422 1.95630

3.23980 63.31 0.34422 1.95630

3.24000 63.97 0.34422 1.95630

3.24020 62.58 0.34422 1.95630

3.24040 63.62 0.34422 1.95630

3.24060 63.61 0.34433 1.95630 3.24080 64.00 0.34433 1.95630 3.24100 64.04 0.34433 1.95630

由以上實驗得知,

常數介於3.23900與3.24040之間的厚度平均值之平 均絕對誤差百分比為最小值,0.34422。因此,我們選 定介於3.23900與3.24040 的中間數,3.23960作為最佳網路參數。

步驟二:決定學習參數 均絕對百分比誤差為最小值,0.34370。因此,我們選 定介於0.39400與0.40200 之間的中間數,0.39800作為最佳網路參數。

步驟三:決定循環學習次數

由以上實驗得知,學習循環次數5以上的厚度平均值之平均絕對誤差百 分比為最小值,0.34365。因此,選定5作為最佳網路參數值。由以上三個步 驟所選定之參數來預測晶圓參數並與實際量測值作一比較,如下圖:

(a)

(b)

反傳遞模糊類神經網路實際值與預測值之結果

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

正規化厚度平均值(nm)

預測值 實際值

100

反傳遞模糊類神經網路實際值與預測值之結果

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

正規化厚度平均值(nm)

預測值 實際值

101 111 121 131 141 151 161 171 181 191 200 100

(c)

圖4.3: (a)、(b)及(c)分別表測試資料編號1~100、編號101~200及編號201~300 的反傳遞模糊類神經網路實際值與預測值之趨勢圖(Y軸:1單位為34 nm) 下圖為預測值與實際值所得之誤差:

(a)

反傳遞模糊類神經網路實際值與預測值之結果

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號

正規化厚度平均值(nm)

預測值 實際值

201 211 221 231 241 251 261 271 281 291 300

反傳遞模糊類神經網路實際值與預測值之誤差

-5 -4 -3 -2 -1 0 1 2 3 4 5

1 11 21 31 41 51 61 71 81 91

測試資料編號 誤差(nm)

誤差

100

(b)

(c)

圖4.4: (a)、(b)及(c)分別表測試資料編號1~100、編號101~200及編號201~300 的反傳遞模糊類神經網路實際值與預測值之誤差(Y軸:1單位為34 nm)

100 200 101 111 121 131 141 151 161 171 181 191

反傳遞模糊類神經網路實際值與預測值之誤差

100 300

201 211 221 231 241 251 261 271 281 291

4.3.3 輻狀基底函數類神經網路實驗

此類神經網路實驗為決定隱藏層的分散常數。輻狀基底函數類神經網 路其隱藏層,同廣義迴歸類神經網路皆採用輻狀基底函數。因此,分散常 數介於0.4與284之間。

表4.6 輻狀基底函數類神經網路選定隱藏層的分散常數實驗表

輻狀基底函數 類神經網路

分散常數

分散常數

相關文件