• 沒有找到結果。

半導體化學氣相沉積厚度預測之研究

N/A
N/A
Protected

Academic year: 2021

Share "半導體化學氣相沉積厚度預測之研究"

Copied!
60
0
0

加載中.... (立即查看全文)

全文

(1)

國 立 交 通 大 學

資訊學院 資訊學程

半導體化學氣相沉積厚度預測之研究

The Study of Chemical Vapor Deposition Thickness Prediction

in Semiconductor Manufacturing

研 究 生:蔡智豪

指導教授:林昇甫 博士

莊仁輝 博士

中 華 民 國 九 十 七 年 七 月

(2)

半導體化學氣相沉積厚度預測之研究

The Study of Chemical Vapor Deposition Thickness Prediction in

Semiconductor Manufacturing

研 究 生:蔡智豪 Student:Chih-Hao Tsai 指導教授:林昇甫 博士 Advisor:Dr. S. F. Lin 莊仁輝 博士 Dr. R. H. Zhuang 國 立 交 通 大 學

資訊學院 資訊學程

碩 士 論 文 A Thesis

Submitted to College of Computer Science National Chiao Tung University in partial Fulfillment of the Requirements

for the Degree of Master of Science

in

Computer Science July 2008

Hsinchu, Taiwan, Republic of China

(3)

半導體化學氣相沉積厚度預測之研究 學生:蔡智豪 指導教授:林昇甫 博士 莊仁輝 博士 國 立 交 通 大 學 資 訊 學 院 資 訊 學 程 碩 士 班 摘 要

近年來倒傳遞類神經網路(back propagation neural network,BPNN)被提 出來應用於半導體的良率預測。因為此網路於訓練時,需調整的網路參數 甚多,較為複雜。後來有學者提出較為簡單的輻狀基底函數類神經網路 (radial basis function neural network,RBFNN)來預測半導體良率,僅需調整 一個參數且預測準確率比倒傳遞類神經網路更佳。

本論文為提出比輻狀基底函數類神經網路準確性更佳的反傳遞模糊類 神經網路(counterpropagation fuzzy neural network,CFNN)及廣義迴歸類神經 網路(general regression neural network,GRNN)並以預測半導體化學氣相沉 積(chemical vapor deposition,CVD)厚度為例,來比較這三種網路。實驗結 果證明,反傳遞模糊類神經網路和廣義迴歸類神經網路之準確性均比輻狀 基底函數類神經網路好且更適合應用於化學氣相沉積厚度的預測。

關鍵字:良率、反傳遞模糊類神經網路、廣義迴歸類神經網路、輻狀基底類 神經網路、化學氣相沉積

(4)

The Study of Chemical Vapor Deposition Thickness Prediction in

Semiconductor Manufacturing

student:Chih-Hao Tsai Advisors:Dr. S. F. Lin

Dr. R. H. Zhuang

Degree Program of Computer Science

National Chiao Tung University

ABSTRACT

Applying back propagation neural network(BPNN) to predict the yield in semiconductor has bean proposed in the recently years. Because too many network parameters need to be adjusted in the training phase, it is more complicated. Afterward a scholar purposes more simple radial basis function neural network(RBFNN) to predict the yield in semiconductor. Its adjustable parameter is only one and predict accuracy achieves higher than back propagation neural network.

The thesis proposes couterpropagation fuzzy neural network(CFNN) and general regression neural network(GRNN) which achieve higher prediction accuracy than radial basis function neural network and compare with the three networks by the example to predict chemical vapor deposition(CVD) thickness. The experiment proves that CFNN and GRNN achieve higher prediction accuracy than RBFNN and more applied suitable to predict CVD thickness.

Key: yield, couterpropagation fuzzy neural network(CFNN), general regression neural network(GRNN), radial basis function neural network(RBFNN),

(5)

想起當初準備考研究所前,每當工作下班後,常有一種失落感,人彷彿 被工作掏了空。每天為工作忙碌,不斷地付出,腦袋中漸漸沒有思維,只 有被工作的枷鎖牢牢地綁住。下班後休息,到了隔天一樣需為工作來奮鬥。 此種公式化的人生,尚覺乏味。因此興起了重返校園的念頭。經過漫長的 煎熬考上了心目中理想的學校,生得有幸能再度回到校園充實學識。回首 這三年的種種,工作之餘還要兼顧學業,非常的辛苦,但也非常的值得。 這三年的確帶給了我非常豐碩的收穫。隨著年齡的增長,雖然學習力不如 以往,但仍秉持著活到老,學到老的精神。 為了能夠完成此篇論文,付出了相當多的心力,總算能夠完成自己以 及父母的心願。在完成此論文過程中,突破了需多艱困的難題,也讓自己 成長了許多。在此要非常誠摯地感謝指導教授 林昇甫博士,給予許多的治 學的精神、培養解決問題的能力,實有莫大之受益。還有工作及生活週遭 許多人相當關心我的學業,給我許多鼓勵與關懷,真是備感溫馨。完成了 此篇論文,總算不致辜負了大家對我的期望。

(6)

中文提要 ……… i 英文提要 ……… ii 誌謝 ……… iii 目錄 ……… iv 表目錄 ……… vi 圖目錄 ……… vii 一、 緒論……… 1 1.1 研究背景……… 1 1.1.1 預測製程良率研究……… 5 1.1.2 偵測製程變異研究……… 6 1.2 研究動機與目的……… 8 1.3 論文架構……… 8 二、 研究方法與理論……… 9 2.1 輸入變數與輸出變數之簡化……… 9 2.1.1 主成份分析法……… 9 2.1.2 平均值、最大值與最小值之差、均勻值……… 11 2.2 類神經網路簡介……… 12 2.2.1 反傳遞模糊類神經網路簡介……… 13 2.2.2 廣義迴歸類神經網路簡介……… 20 2.2.3 輻狀基底函數類神經網路簡介……… 22 2.3 評估預測結果準確性……… 23 三、 建構類神經網路之流程……… 24 3.1 化學氣相沉積機台參數……… 24 3.2 資料前置處理……… 25 3.3 反傳遞模糊類神經網路運算流程……… 26 3.4 廣義迴歸類神經網路運算流程……… 26 3.5 輻狀基底函數類神經網路運算流程……… 27 3.6 反傳遞模糊類神經網路、廣義迴歸類神經網路與輻狀基底函 數類神經網路之比較……… 28 四、 實例驗證……… 29 4.1 機台參數之簡化……… 29 4.2 化學氣相沉積量測厚度資料之簡化……… 31 4.3 決定類神經網路的最佳參數……… 31 4.3.1 廣義迴歸類神經網路實驗……… 31 4.3.2 反傳遞模糊類神經網路實驗……… 37 4.3.3 輻狀基底類神經網路實驗……… 42

(7)

五、 總結……… 47

5.1 研究結論……… 47

5.2 未來研究建議……… 49

(8)

圖目錄

圖 1.1 品質監控晶圓作業流程圖……… 3 圖 1.2 產品晶圓作業流程圖……… 3 圖 2.1 反傳遞模糊類神經網路架構圖……… 13 圖 2.2 反傳遞模糊類神經網路學習階段流程圖……… 16 圖 2.3 反傳遞模糊類神經網路預測階段流程圖……… 19 圖 2.4 廣義迴歸類神經網路架構圖……… 21 圖 4.1 廣義迴歸類神經網路實際值與預測值之趨勢圖……… 35 圖 4.2 廣義迴歸類神經網路實際值與預測值之差異圖……… 36 圖 4.3 反傳遞模糊類神經網實際值與預測值之趨勢圖……… 40 圖 4.4 反傳遞模糊類神經網實際值與預測值之差異圖……… 41 圖 4.5 輻狀基底類神經網路實際值與預測值之差異圖……… 44 圖 4.6 輻狀基底類神經網路實際值與預測值之差異圖……… 46

(9)

表目錄

表 3.1 機台參數表……… 25 表 3.2 反傳遞模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類 神經網路之差異……… 28 表 4.1 機台參數之整體變異比例……… 30 表 4.2 反傳遞模糊類神經網選定

參數實驗表……… 32 表 4.3 反傳遞模糊類神經網選定

參數實驗表……… 37 表 4.4 反傳遞模糊類神經網選定學習率參數實驗表……… 38 表 4.5 反傳遞模糊類神經網選定循環學習次數實驗表……… 38 表 4.6 輻狀基底類神經網路選定循環學習次數實驗表……… 42 表 5.1 反傳遞模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類 神經網路之比較表……… 48

(10)

第一章 緒論

自從1906年成功開發出全世界第一個真空管後,隨之衍生產品一一地 陸續被開發出來,如電視機、收音機以及全世界首部電子計算機等,開啟 了高科技電子的新時代。首部電子計算機的電子零件包括多達一萬多個真 空管與數以千計的電阻及電容。電子計算機在計算時,須經由大量的真空 管、電阻以及電容同時運轉,因此消耗功率大,導致產生大量熱能,易使 電 子 零 件 老 化 , 降 低 壽 命 。 後 來 在 1947 年 , 科 學 家 發 現 半 導 體 - 鍺 (germanium),利用此元素發展成積體電路,大大縮減了電子計算機的體積, 開始邁入半導體科技的新紀元。 半導體之所以興盛,在於體積小、運算速度快,所創造的科技帶來了 許多便利,讓政府組織、企業、教育機關等營運能更有效率,因此世界各 國漸漸分起效尤,發展半導體工業,世界整體經濟亦正式邁向高科技產業。 在此時期,各國之半導體廠皆面臨非常激烈的競爭局面,無不頃盡全力要 改善製程良率,來提昇產品的產量與品質。各家半導體廠多半著力於晶圓 製造或封裝過程之改善。 為了改善半導體晶圓製造良率,本研究針對化學氣相沉積(chemical vapor deposition,CVD)製程,探討該製程厚度之預測方法為目標 。為何要 預測化學氣相沉積厚度之研究背景,研究動機與目的則分別詳述於第1.1 節、第1.2節。第1.3節為本論文架構。

1.1 研究背景

現代電子產品所採用的材料幾乎大部分是由半導體材料製作而成,而 此材料的主要優點,在於製造階段時,摻雜不同的雜質即可製作出不同電 子元件,主要是因為所摻雜的雜質可改變載子的傳導及電阻特性,如摻入

(11)

可提供電子載子的元素,如砷或磷原子,則所製程的材料稱為n型半導體。 若摻入可提供電洞(hole)載子的元素,如硼原子,所製程的半導體材料,稱 為p型半導體。這兩種半導體,就能製造出電晶體、二極體、電容及電阻等 基本電子元件,進而組成各種不同用途的積體電路。 在積體電路製作過程分為積體電路設計、晶圓製造、封裝測試等三個 階段。在積體電路設計階段,設計者會依照客制化的需求來設計出符合客 戶要求的晶片,之後會再經過積體電路佈局(layout),達到積體電路製程技 術的標準,最後才製作成光罩(mask)。光罩會送到晶圓製造廠,進行第二階 段,晶圓製造。 晶圓製造會經過上百道繁瑣之製作程序,主要包括氧化、擴散、薄膜生 成、微影、蝕刻、離子植入以及化學研磨等重複的製程步驟,逐步地將積 體電路一層層製作在晶圓上。 晶圓製造完成後,需經過封裝測試,以極精密的探針(probe)與晶粒(die) 上的接點接觸。探針會發出電器訊號,經過晶粒內積體電路後,得到輸出 訊號並依此輸出訊號來判斷是否符合設計規格。通過測試之晶粒在晶粒切 割(die sawing)時,會被保留下來,黏貼於導線架(lead frame)。再用金屬線焊 接至導線架(lead frame),作為晶粒內部積體電路與外界訊號的傳輸途徑。 最後為了保護晶粒,防止受到擠壓或潮濕,使用硬化樹脂封裝,製作成晶 片(IC)。 在半導體製作過程須經過多達上百道程序,每道程序皆環環相扣。倘 若其中有一道程序發生變異,會導致晶圓良率降低。本研究以半導體化學 氣相沉積製程為研究對象,以類神經網路預測製程良率來監控機台效能, 避免製程發生變異。目前在製程良率改善方面,其方式為定期地將品質監 控晶圓加入化學氣相沉積機台。在處理完畢後,再對品質監控晶圓做量測, 經由判斷晶圓厚度的量測結果是否符合標準來達到品質監控的目的,如圖

(12)

1.1。在通過品質監控後,才可處理產品晶圓,如下圖1.2。 圖1.1 品質監控晶圓作業流程圖 圖1.2 產品晶圓作業流程圖 在半導體製程當中,薄膜生成之方式是在晶圓表面上利用化學或物理 方法,一層層地分別在矽晶圓表面沉積不同材料,以製作出不同的積體電 路產品。其可分為物理氣相沉積(physics vapor deposition,PVD)和化學氣相 沉積。 物理氣相沉積製程是在真空環境下,利用高壓電場將化學氣體離子 化,以形成正離子,此正離子會被負偏壓金屬靶所吸引,電場會加速正離 子衝擊固態金屬靶。其表面之金屬靶粒子受到高速離子撞擊後,飛出沉積 到矽晶圓上,形成薄膜。 化學氣相沉積製程是以加熱、電漿等方式提供能量,幫助反應源在晶 產 品 晶 圓 化 學 氣 相 沉 積 機 台 產 品 晶 圓 下 一 站 製 程 機 台 In Spec 監 控 晶 圓 監 控 晶 圓 量 測 機 台 監 控 晶 圓 化 學 氣 相 沉 積 機 台 監控晶圓之厚度量測資料 -3 -2 -1 0 1 2 3 1112131415161718191 監控晶圓資料編號 厚度(nm) 誤差 100 In Spec

(13)

圓上進行化學反應,形成薄膜。該製程的反應機制是將反應源以氣體形式 通入反應腔(chamber)內。在真空、低壓、電漿等狀況下,把工作環境溫度 加熱至1200℃附近,經由氧化(oxidation)、還原(reduction)、氮化 (nitridation)、 熱裂解(pyrolysis)等方式與晶圓表面進行化學反應,其生成物藉由擴散作用 沈積在晶圓表面上,形成晶核(nuclei),之後會更進一步生長成島狀物,而 島狀物會合併為薄膜。由以上薄膜形成之過程可知,在化學氣相沉積製程 反應的環境,包括了溫度、壓力、氣體的供給量等[10]。 薄膜厚度量測機台所採用的量測技術為電子束能量分佈的X光頻譜 (energy dispersive x-ray,EDX),其多年來已成功應用於量測薄膜成份與厚 度且為大多半導體廠所採用,藉此 來進行製程分析。X光頻譜原理是由於晶 體原子排列極為規則,其所產生之間隔近似於X光之波長。當X光經過晶體 時,會發生散射,而其散射光會有干涉現象,進而產生繞射。X光繞射提供 了兩項重要訊息,繞射峰位置以及繞射峰強度。隨著晶圓材料之不同,其 晶體結構與組成之變化亦不同,每項晶體的此兩項資料隨之相異。晶圓材 料再經過X光繞射後會產生異相之繞射峰位置及其強度之組合,稱為X光繞 射圖譜,因此可藉由此X光繞射圖譜中所提供得繞射峰位置及強度等兩項訊 息,以得知薄膜厚度[11]。 現階段化學氣相沉積製程的監控方式是以維持生產機台有最佳穩定度 與良率為目的。但此作業方式,只針對品質監控晶圓作量測,而產品晶圓 則不作量測。若當機台在處理產品晶圓時,發生異常,如溫度異常過低或 過高,壓力過低或過高,化學氣體釋放過量或過少等,會導致產品品質發 生變異。輕者需重新加工,非常耗時。重者須報廢,會增加生產成本。 為了克服此問題,若將所有產品晶圓皆做量測,需耗費相當多的時間、 人力及物力,生產率也會因此降低。最有效的方式是找出與晶圓品質相關 的生產機台的加工參數,根據這些機台參數,來預測每片晶圓的良率,達

(14)

到及時晶圓品質監控之目的。因此,近幾年來有許多學者提出預測製程良 率和偵測製程變異相關的論文。

1.1.1 預測製程良率研究

因半導體機台參數與製程良率兩者具有相關性 ,所以有學者提出統計 廻歸和類神經網路藉機台參數來預測製程良率,Lee[1][2]等人提出使用普通 最小平方迴歸(ordinary least squares regression)、脊迴歸(ridge regression)、主 成份迴 歸(principle component regression)和 淨最小 平方 迴歸 (partial least squares regression) 等 四 種 統 計 迴 歸 方 式 及 倒 傳 遞 類 神 經 網 路 (back propagation neural network,BPNN)來預測半導體蝕刻良率。但因統計迴歸 沒有似類神經網路具有容錯能力,導致誤判機率提高。 爲了能在預測模式上有更佳的準確性,林[12]提出證明使用倒傳遞類神 經網路預測半導體晶圓測試良率比統計迴歸方法的準確性更佳。他使用統 計迴歸方法預測時,先建立廻歸方程式,再以卡方測試(chi-square test)來檢 測廻歸模式,以確認模式的適用性。在確認其適用性之後,便將測試資料 帶入廻歸模式中預測。使用倒傳遞類神經網路預測時,以嘗試錯誤 (trial and error)方式,改變網路參數,包括學習率(learning rate)、慣性因子、訓練次 數和網路架構隱藏層之神經元數目等,來找出最佳的網路參數進行預測。 實驗所得到的結果為倒傳遞類神經網路較準確。 因倒傳遞類神經網路於訓練階段有多個網路參數需要調整,較為複 雜 , Su[3] 等 人 提 出 可 自 動 調 整 網 路 參 數 的 倒 傳 遞 類 神 經 網 路 來 預 測 TFT-LCD的物理氣相沉積厚度。在Chen[4]提出建構半導體虛擬量測概念 後,Chang[5]等人則提出以倒傳遞類神經網路實現虛擬量測,因倒傳遞類神 經網路較為複雜,所以Hung[6]等人使用較為簡單的輻狀基底函數類神經網 路(radial basis function neural network,RBFNN)來預測半導體化學氣相沉積

(15)

厚度並與倒傳遞類神經網路作比較。兩種網路預測時,皆以嘗試錯誤方式, 改變網路參數,來找出最佳的網路參數進行預測。因為輻狀基底函數類神 經網路僅需調整分散常數(spread constant),所以較為簡單。兩者之實驗結果 輻狀基底函數類神經網路的平均絕對誤差百分比為0.34%比倒傳遞類神經 網路的0.38%來的更低。 而另外在半導體封裝前的良率預測方面,Mirza[7]使用空間統計(spatial statistics)和假設(hypothesis)等兩種統計方式來預測晶圓製造完成後,封裝前 所做的針測良率。針測良率為評估整片晶圓中,好的晶粒占晶圓晶粒總數 之比例。劉[13]以廣義迴歸類神經網路(general regression neural network, GRNN)預測針測良率並與統計之柏松(poisson)模式作比較。廣義迴歸類神經 網路之預測準確性與柏松模式不相上下,但廣義迴歸類神經網路不論在製 程變異較大、較小或是不同缺陷數假設分配下,都有較好的穩定度。

在 其 他 的 應 用 領 域 方 面 , 張 [14] 提 出 反 傳 遞 模 糊 類 神 經 網 路 (counterpropagation fuzzy neural network,CFNN)應用於推估三個城市麵粉價 格,其預測結果比倒傳遞類神經網路和統計廻歸更佳。但此網路有一缺點, 黃[15]以此類神經網路建構降雨與逕流之模型,實驗結果反傳遞模糊類神經 網路對於流量預測具有良好的準確性。但對於洪峰流量值例外,因為網路 模式中,沒有這洪峰流量的類別單元。當此新的類別輸入時,無法對應到 適合的類別單元,就會造成不準確的預測結果。倘若各種不同類型的流量 資料皆輸入到網路做分類,則此神經網路就能有更準確的預測能力。

1.1.2 偵測製程變異研究

由於半導體製程需經過重複多個步驟,整個程序非常複雜,因此嚴格 監控每一階段的製程為非常重要。目前現階段偵測半導體製程變異方法, 蒐集機台處理晶圓時的參數,如壓力、溫度、電流、電壓、氣體流量等,

(16)

藉由統計製程管制(statistical process contrl,SPC ),從機台參數中,找出各 種超過管制圖之製程變異現象。此法是基於資料在獨立且常態分配的假設 下,以管制圖之管制上限和管制下限來分析製程。倘若製程變異落於管制 界限內且隨機分布,則判定該變異為隨機發生且在管制的狀況下。反之, 則判定為某些可歸屬原因(assignable cause)。管制圖之目的在於偵測出任何 可歸屬原因,作為工程師調整機台參數之參考,以解決不正常的製程變異 問題。 一般統計製程管制只能檢測一個常態分佈的單變量,但大部分處理晶 圓 的 機 台 運 轉 狀 況 具 有 自 關 聯 性 (auto-correlated) 、 交 互 關 聯 性 (cross-correlated)等兩種特性。如離子植入時,摻入的雜質與殘留於機台內 之化合物會有交互關聯的關係;化學研磨會因元件長期摩擦產生損耗的自 關聯性。統計製程管制會因為上述兩種特性,導致誤判的機率增加。因此, 葉[16]提出多變量分析(multivariate statistical analysis)可同時監控兩種以上

的製程變異,以降低發生誤判的機率。多變量分析是透過Hotellings T2

statistic方程式建構出管制橢圓(control ellipse),若製程參數平均落在橢圓 內,即為在管制的狀況下。反之,則為超出管制(out of control)。

因多變量分析有無法識別製程變異的起因及同時對兩種以上的製程參 數作監控,橢圓管制圖不易繪製等缺點。後來,陳[17]提出使用主成份分析 法(principle component analysis,PCA)找出關鍵的機台參數,降低類神經網 路輸入變數的維度,再以輻狀基底函數類神經網路偵測半導體製程變異。 由於類神經網路具有容錯能力,不易受到少數幾個樣本誤差,而發生失效。 可藉由不斷地學習,更新神經元之權重,來達到最佳狀況。因此,更適用 於製程變異之偵測。

(17)

1.2 研究動機與目的

在Lee[1][2]等人提出使用四種統計迴歸方式及倒傳遞類神經網路來偵 測機台效能和預測半導體蝕刻良率之後,有多位學者不斷地提出準確性更 佳的半導體良率預測之模式,林[12]提出證明使用倒傳遞類神經網路預測半 導體針測良率比統計迴歸方法的準確性更佳。Hung[6]等人提出比倒傳遞類 神經網路準確性更高的輻狀基底函數類神經網路。 為了有準確性更佳的良率預測模式,本研究提出反傳遞模糊類神經網 路及廣義迴歸類神經網路來預測化學氣相沉積厚度並與輻狀基底函數類神 經網路作比較。證明本研究所提出之兩種類神經網路的準確性比輻狀基底 函數類神經網路高。我們可藉此研究之結論,將兩者應用於半導體製造中, 以期能及時得知半導體機台效能有更高的準確性。

1.3 論文架構

本論文共分為六章,其架構內容分別為第一章緒論,說明本論文之研 究背景、研究動機及目的以及提出與本研究相關之文獻探討,即介紹半導 體化學氣相沉積與薄膜厚度量測及回顧一些與本研究相關之預測模式,最 後陳述論文架構。第二章研究方法與理論,在介紹資料化簡方法、反傳遞 模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類神經網路之理論 與演算法以及評估預測結果之準確性的公式。第三章建構類神經網路之流 程,化學氣相沉積機台參數的前置處理,介紹網路之建構與相關參數及三 種類神經網路之差異。第四章實例驗證,以一實例來比較三種類神經網路 之準確度。第五章總結,為本論文之結論及提出未來進一步之研究議題。

(18)

第二章 研究方法與理論

本章為說明預測晶圓化學氣相沉積厚度所需使用的方法。化學氣相沉 積機台有上百個參數,過多參數會干擾網路學習,因此在第2.1節會介紹簡 化機台參數,以主成份分析法來選取與預測結果相關性高的機台參數。而 在化學氣相沉積量測厚度的化簡方式是以平均值(mean),最大值和最小值之 差(range),均勻值(uniformity)來降低維度。在第2.2節會介紹類神經網路, 再敘述反傳遞模糊類神經網路、廣義迴歸類神經網路及輻狀基底函數類神 經網路之理論。為了要評估此三種類神經網路的預測準確性,第2.3節會說 明評估預測結果準確性之公式。

2.1 輸入變數與輸出變數之簡化

根據許[18]的類神經網路文獻中,提及輸入變數過多,易干擾網路學 習,於訓練時不易收斂,訓練耗費較多時間。因一般機台參數動則會有上 百個,本研究所採用之機台參數為160個,作為類神經網路之輸入。為了避 免上述干擾網路學習的問題發生,我們採用主成分分析法來簡化輸入變 數。化學氣相沉積厚度的量測值會因每片晶圓量測點數而不同,所以我們 參考採取厚度量測之平均值,最大值和最小值之差,均勻值等,以達到簡 化的目的[6]。這三個值須再經過正規化,才作為類神經網路之輸出。

2.1.1 主成份分析法

在進行主成份分析法前,需將輸入變數經過數學方法做正規化,該數 學方法會參考到標準差。標準差為一組數據中,每個值到平均值之分散程 度。一個較大的標準差所代表的是數據中,大部分的值之間差異程度較大。 反之,較小的標準差代表大部分的值差異程度較小,公式如下:

(19)

2 1 1 2

)

(

1

1

=

= n i i

x

x

n

s

(2.1) 其中 x 為平均值。 陳[19]提到主成份分析法主要目的將原有多個輸入變數簡化成少數幾 個沒有相關性的變數,即為原有輸入變數中的主成份,且這些輸入變數可 以有效表達所有原始輸入變數所具有之資訊,以達到降低輸入資料維度的 目的。另一方面,亦可避免輸入變數存在共線性的問題,其方法如下: 1.輸入變數經過數學方法作正規化[8]如下所示: s x x y= − (2.2) 其中 y 為正規化數值, x 為原始數值, x 為平均值, s 為標準差。

2.使用奇異值分解法(singular value decomposition)將原始資料經正規化後

之矩陣YR×Q分解為三個矩陣,如下所示: Q Q Q R R R Q R U S V Y × = × * × * ' × (2.3) (2.3)式中的*表為矩陣相乘。 3.計算主成分之變異數 ARx1 ) 1 /( ) ( 2 Rx1 =diag S × QA R Q (2.4) 4.計算變異數之總和T與整體變異數(fractional variance)FRx1

= = R i i a T 1 (2.5) FR×1 = AR×1/T (2.6) 其中aiAR×1。 5.找出整體變異數FR×1矩陣中,元素大於統計者所自行決定的變異比例並計 算求得其個數S。 6.簡化步驟1中之矩陣UR×R。由左至右挑選出S個UR×R之行向量,即為矩陣 S R U ×

(20)

7.簡化原始資料正規化之矩陣YR×Q,得一新矩陣WS×Q Q R T S R Q S U Y W × =( × ) * × (2.7) (2.7)式中的*表為矩陣相乘。 原始輸入變數矩陣之大小為R×Q,我們選擇貢獻大於整體變異比例 0.1%的參數為主成份,即保留原始輸入資料中解釋99.9%變異的主成份,可 得大小為S×Q的主成份矩陣且S <R,即找出S×Q個主成分來解釋原有輸入 變數且達到降低變數維度之目的。此法因經過線性轉換後所產生之主成份 為彼此獨立的新變數,所以可避免變數群中存在共線性的問題。所謂共線 性係指某些輸入變數間存在有明顯之相關性。若輸入變數間存在共線性, 則輸出變數被輸入變數之影響會被放大,影響預測結果之準確性。

2.1.2 平均值、最大值和最小值之差、均勻值

化學氣相沉積厚度的量測值以下列三種方式來表示: 1.統計學上所採用之平均值,一般係指算數平均數,即一組數據之總和 除以該組數據之個數所得之平均值,公式如下:

= = n k k z n z 1 1 (2.8) 2.最大值和最小值之差為一組數據之最大值減最小值所得之差,公式如 下: ) min( ) max(zk zk r = − (2.9) 其中k=1, 2,… , n。 3.均勻值為一組數據之最大值減最小值所得之差除以2倍之平均值,公 式如下: % 100 * 2 z r u × = (2.10)

(21)

2.2 類神經網路簡介

動物界的生物行為,如思考、運動、學習等行為,都是經由複雜的神 經系統相互連結和彼此間傳遞訊息所達成。神經系統的基本單元為神經 元,又稱神經細胞。神經細胞有許多的突觸與其他細胞相互連結,構成非 常複雜的網路,可接受外界的訊息。而類神經網路為模仿生物的神經系統, 接 收 外 界 訊 息 , 再 經 過 運 算 並 將 結 果 輸 出 。 最 早 於 1943 年 心 理 學 家 McCulloch和數學家Pitts共同提出類神經網路的數學模式。之後,有許多學 者提 出 更新 穎 的神 經 網路 , 如1969年 Minsky和Papert共同 提 出感 知器 (perceptrons)。1982年,J. Hopfield提出霍普菲爾類神經網路(hofield neural network,HNN)。1980年,Kohonen提出自組織映射類神經網路(self-organize mapping neural network,SOMNN)等。之後,到現在有許多相關應用領域包 括工業製程的品質監控、商業分析與預測、氣象預測等。因類神經網路是 由許多運算單元和其他眾多運算元相互連結,以平行分散方式來進行運 算,具備了高速計算能力、學習能力、容錯能力和記憶能力,因此在這些 應用領域都有相當出色的成果。 類神經網路可分為監督式學習、非監督式學習等二種分類。監督式學 習需經由所提供之訓練資料,包括輸入資料與輸出資料給類神經網路學習 等來進行學習,不斷的修正網路中神經元之權重,以符合輸入資料與輸出 資料之間的對應關係。此類神經網路包括反傳遞類神經網路、倒傳遞類神 經網路、機率類神經網路(probabilistic neural network,PNN)、學習向量量 化(learning vector quantization neural network,LVQNN)等。非監督式學習僅 需訓練資料中的輸入資料部分,此類神經網路如自適應共振理論類神經網 路(adaptive resonance neural network,ARNN)、自組織映射類神經網路等。

(22)

2.2.1 反 傳 遞 模 糊 類 神 經 網 路 (fuzzy counterpropagation

neural network,CFNN)簡介

Hecht-Nielsen於1987年提出反傳遞模糊類神經網路,是由輸入層,隱 藏層及輸出層所組成。隱藏層亦可稱為Kohonen層,將依照輸入的資料與類 別中心之距離的相似性進行分類,距離相似近者歸為同一類並重複此步驟 直到所有輸入資料均被歸類為止。輸出層亦可稱為Grossberg網路,則依分 類結果來建立對應之輸出。本研究以反傳遞模糊類神經網路來預測半導體 製程中化學氣相沉積厚度,其架構如下: 輸入層 隱藏層

x

1

x

2 Xm-1 Xm 輸出層

y

1

y

2

y

n-1

y

n

w

1

w

2

w

q-1

w

q

π

1

π

2

π

q-1

π

q .... .... .... .... 圖2.1 反傳遞模糊類神經網路架構圖

(23)

在Kohonen層中的各個神經元分別表示不同的類別,各神經元與輸入層 間的權重wi代表類別之中心點,其中i=1 , ,q,即假若輸入向量X屬於wi之 類別,而各神經元與Grossberg層的權重πi,其中i=1 , ,q,則輸出向量Y為 類別之輸出πi。因此,每個神經元與輸入層以及Grossberg層間的權重關係可 視為一完整的類別對應規則敘述。 Kohonen層中的第i個神經元,可表示為IF X is wi THEN Y is πi,其中, ) , , , (x1 x2 xm X =  為輸入變數,wi為輸入層與Kohonen層中的第i個神經元的 權重,代表類別的中心點,而第i個神經元與Grossberg層的權重為πi,輸出 變數為Y =(y1,y2,,yn),代表最相近之類別的輸出值。反傳遞模糊類神經 網路的學習過程與其架構相關,Kohonen層採用非監督式學習,而 Grossberg 層,則採用監督式學習。 Kohonen層的演算法在決定神經元個數q及調整神經元的權重值wiq i=1 , , 。此部分演算法不需比對輸出變數的資料,僅需輸入變數資料即可 產生神經元及調整權重,因此稱非監督式演算法。首先,設定一

表為 Gaussian隸屬函數的間隔寬度。計算輸入變數X(t)與Kohonen層中現存的q個 神經元權重之間的歐式距離並進行比較,以選定最小距離的神經元為類別 的中心點。當類別的中心點與輸入變數X(t)的距離小於

(delta),則改變距 離最近的類別中心點的權重為 ] ) ( [ iold old i new i w X t w w = +α − (2.11) ,其中α 為學習率, 0≤α ≤1。 當 類 別 的 中 心 點 與 輸 入 變 數 X(t)的 距 離 大 於

, 則 新 建 一 神 經 元 ) (t X winew= 且原神經元個數q新增為q+1。而α值則隨著每次遞迴演算,以等 比級數逐次地遞減。如第一次遞迴,α 值為1/2,第二次遞迴,α 值為1/3,

(24)

依此類推,直到使用者所設定之遞迴次數為止。 Grossberg層的演算法與Kohonen層類似。當類別的中心點與輸入變數 X(t)的距離小於

,在Kohonen層中所選取的神經元wi,其相對於Grossberg 層中的神經元πi,改變其權重 ] ) ( [ iold old i new i π β Y t π π = + − (2.12) ,其中β 為學習率, 0≤β ≤1,其值固定不變; Y(t)為訓練範例的輸出值。 當中心點與輸入變數X(t)的距離大於

,則新建一神經元πinew =Y(t)。 因此部分學習演算須有輸入變數及輸出變數的訓練範例,故稱為監督式學 習。綜合上述學習法,可歸納如下:[14] 1. ( , ( )) min ( , ( )) ~ 1 D w X t t X w D i q i i = = 2.IF D(wi,X(t))≤∆ THEN ] ) ( [ iold old i new i w X t w w = +α − ] ) ( [ iold old i new i π β Y t π π = + − 3

.

IF D(wi,X(t))≥∆ THEN

建一新的神經元: winew = X(t),πinew =Y(t)。其中D(wi,X(t))表示第i個神經單

(25)

讀取 X(t)及Y(t) t=1 訓練資料輸入 結束 )) ( , ( min )) ( , ( ~ 1 D w X t t X w D i q i i = = ∆ ≤ )) ( , (W X t D i ] ) ( [ iold old i new i w X t w w = +α − ] ) ( [ iold old i new i π β Y t π π = + − 遞迴次數=使用者所設定之 次數 結束 t = 0 ) (t X winew = ) (t Y new i = π No Yes 1 + = t t ) ( 1 X t w = ) ( 1 = Y t π Yes Yes No No No Yes 圖2.2 反傳遞模糊類神經網路學習階段之流程圖

(26)

在反傳遞模糊類神經網路實際應用於預測階段的計算步驟如下:[14] 1.輸入測試資料X(t) 2. 計 算 測 試 資 料 與 Kohonen 層 每 個 類 別 的 中 心 點 wi 之 距 離 2 1 2 1 ) (      − =

= j m j j i i w x d (2.13) 3.計算相對距離 2 2 ) ( ∆ = i i d D (2.14) 4.計算類別指數 i i D e S = − (2.15) 5.當 5 1 10− = ≤

q i i S ,則表示輸入資料X(t)與神經元的中心點相距甚遠,即該筆 資料無法被歸類。此時將

放大,並重複步驟3~5直到輸入資料被歸類到任 一神經元為止。 6. 權重平均計算出輸出值

= = = q i i q i i i S S t Y 1 1 ) ( π (2.16) 其中π 為Grossberg層中的神經元權重,Y(t)為預測值。 i 在實際應用於預測時,輸入值X(t)與神經元的中心點距離可能發生遠大

,也就是說訓練網路的歷史資料缺乏該輸入值的分類,以至於無法有 效的將輸入值X(t)作適當的類別。因此,需採用下列方式來改善此一問題: 7.等倍率地放大間隔寬度

值,以增加歸類到神經元中心點的機會,直到歸 類到任一個神經元為止。 8.使用高斯(Gaussian)函數作為輸出函數,如

(27)

            ∆ − −

= 2 2 1 ) ( exp j m j j i x w (2.17) 其中

x

j為輸入向量中第j個輸入元素, j i w 為Kohonen層中第i個神經元中之第 j個權重值,

為間隔寬度。當輸入向量位於wij處時,此時函數值最大,其 值為1。然後向正負兩旁迅速遞減,直到間隔寬度

後,函數值越趨更小但 恆大於0。 當輸入為極端值,輸出會近似於Grossberg層的神經元權重的平均值, 則此輸出值將可能產生誤差。所以,採用步驟7的作法,當輸入xj發生找不 到近似類別的情形,則等倍率地放大間隔寬度

,以增加歸類到Kohonen 層神經元的機會,直到至少歸類為任一個神經元為止。以下為預測階段之 流程圖[14]:

(28)

讀取 x(t) Yes No 2 1 2 1 ) (      − =

= j m j j i i w x d 2 2 ) ( ∆ = i i d D i i D

e

S

=

− 5 1 10− = ≤

q i i S

= = = q i i q i i i S S t Y 1 1 ) ( π 2 × ∆ = ∆ 圖2.3 反傳遞模糊類神經網路預測階段之流程圖

(29)

2.2.2 廣 義廻 歸 類 神 經 網 路 (general regression neural

network,GRNN)簡介

Donald F. Specht 於 1988 年提出機率類神經網路,此網路僅適用於分類 問題,無法解決連續變數問題。在此所謂連續變數(continuous variable)的定 義如下: 有許多物理特質是成為一個連續不斷之數值,而在這一連續不斷的數 值上的任何一部分都可加以細分,以得到任何的值;或在其上面任何兩數 值之間,均可無限分割以得到無限多個介於兩者之間大小不同的值,具有 此類特質或屬性之變數,稱為連續變數。譬如說體重 80 和 81 公斤,中間 的數字有 80.5 公斤,80 和 80.5 之間,又有 80.23、80.41,... 可源源不絕地 再細分,無法間斷,永遠無法分割,稱作「連續變數」。反之,所謂「間 斷變數」是一種間斷之數值,任何一部份都不可細分,來得到任何值之變 數。其每一個值皆代表一個精確數,如學號、人口數等。 因而,Donald F. Specht 於 1991 年提出廣義迴歸類神經網路,此網路是 由機率類神經網路演變而來,適用於動態模式的預測問題,可解決線性或 非線性的迴歸問題。 劉[13]提到廣義迴歸類神經網路的理論背景為相依變數 P 在獨立變數 S 上的迴歸。P 通常代表系統的輸出值,而 S 通常為系統的輸入值。廣義迴歸 類神經網路並不需要像傳統迴歸分析先假設一個明確的函數形式,只須以 機率密度函數的方式來呈現。假設 f(p,s)為變數 P 和變數 S 的聯合機率密度 函數。p 為變數 P 的一個測量值,那麼 S 在 p 上的迴歸為如式(2.18):

∞ ∞ − ∞ ∞ − = ds s p f ds s p sf p S E ) , ( ) , ( ) | ( (2.18)

(30)

而 f(p,s)是未知的,我們必須由 P 和 S 的觀測值來估計 f(p,s),在此採用 Parzen 所提出 Parzen window 的無母數方法來估計 f(p,s),其結果如式(2.19):

∞ ∞ − = ∞ ∞ − =       − −       − − = = ds s p f C w p w p ds s p sf C w p w p p s p S E n i i T i n i i T i ) , ( 2 ) ( ) ( exp ) , ( 2 ) ( ) ( exp ) ( ) | ( 1 2 1 2 ^ ^ (2.19) 其中 i w 為變數P的樣本值。C為分散常數,為一大於0的常數;分散常數是在 廣義迴歸類神經網路中唯一需要以學習方式決定的常數。將上式簡化為

= = = =       −       − =       − −       − − − = n i i n i i i n i i T i n i i T i i C D C D x C w p w p C w p w p x p s 1 2 2 1 2 2 1 2 1 2 ^ 2 exp 2 exp 2 ) ( ) ( exp 2 ) ( ) ( exp ) ( (2.20) 其中Di2 =(pwi)T(pwi), i wxi為變數P和S的樣本值 下圖為廣義迴歸類神經網路的架構圖,其是由輸入層、隱藏層、輸出 層所組成,如圖所示: 輸入層 隱藏層 輸出層 P1 P2 Pr-1 C S1 S2 Sn-1 Sn W1 W2 Wq-1 Wq X1 X2 Xn-1 Xn .... .... .... .... Pr 圖2.4 廣義迴歸類神經網路架構圖

(31)

2 1 ) ( ×1 = −nq× q e n f 隱藏層計算方式為算出輸入向量 與隱藏層權重值矩陣 之q 個列向量間的歐幾里德距離,再除以隱藏層偏權值C

即分散常數,乘上歐 氏距離(euclidean distance)的權重係數0.8326,所得的結果如式(2.21): (2.21) 再依隱藏層所用之轉換函數計算產生輸出訊號。隱藏層所採用的輻狀基底 函數(radial basis function),如式(2.22):

(2.22) 可得隱藏層輸出矩陣,如式(2.23): (2.23) 隱藏層輸出矩陣 再輸入到輸出層,輸出層計算方式為normprod,如式 (2.24): (2.24) 再依輸出層所用之線性函數計算產生輸出訊號,如式(2.25): (2.25)

2.2.3 輻狀基底函數類神經網路(radial basis function neural

network,RBFNN)簡介

1987 年 Powell 提 出 輻 狀 基 底 函 數 類 神 經 網 路 來 解 決 多 變 數 內 插 (interpolation)問題,近來被廣泛地討論與應用,逐漸取代倒傳遞類神經網 路。而輻狀基底函數類神經網路之架構與演算方式與廣義迴歸類神經網路 大致相同,唯一不同在於輸出層計算方式為netprod,如式(2.26): (2.26) q n X × 之n個列向量與輸入向量aq×1作內積,不作正規化,為兩者之差異。 C W P n q r T r q × × × − = 1 1 * 8326 . 0 ) ( 1 1 × × = q q f n a ) ( * 1 1 1 × × × × = q q q n n a sum a X b 1 × r P Wq×r 1 1 × * × × = n q q n X a b ) ( 1 1 × × = n n g b S 1 × q a

(32)

2.3 評估預測結果準確性

為了要評估預測值與實際值的誤差。本研究採用統計學上常用的平均 絕對百分比誤差與最大誤差等方法來判斷。其數學定義如下:[8] 1.平均絕對百分比誤差 n y y a MAPE n i i i i

= − = 1 (2.27) 2.最大誤差 n i y y a MaxError i i i , , 2 , 1 }; max{ − =  = (2.28) (2.27)與(2.28)式中ai為第i個預測值,yi為第i個實際值,n表為所有樣本數。 平均絕對百分比誤差與最大誤差越接近0,則預測準確性越佳。

(33)

第三章 建構類神經網路之流程

本章為贅述在類神經網路預測之前,須先選定機台參數,在第3.1節會 陳列出預測時所需之化學氣相沉積機台參數及厚度量測。這些參數經過第 3.2節之前置處理,排除影響製程變異較小的機台參數值、正規化及主成份 分析法之簡化後,再利用這些參數來建構神經網路。在第3.3節為介紹神經 網路的建構以及參數。最後第3.4節會介紹三種網路之差異。

3.1 化學氣相沉積機台參數

化學氣相沉積生產機台裝設有許多的感應器,可偵測出包括環境溫 度、壓力、氣體的供給量、電壓、電流等,然而並非所有的感測器資料都 可用來當作類神經網路作預測時的訓練資料。只有某些重要階段的感測器 資料在晶圓處理過程是必要的。本研究報告中,機台參數資料是經過合作 廠商的工程師所篩選出,如下表3.1。其所選出的機台參數資料包含6個輸出 功 率 (power)、 1 個 反 應 腔 電 壓 (echuck voltage)、 1 個 反 應 腔 電 流 (echuck current)、2個氦氣洩漏率(helium leak rate)、7個溫度(temperature)、3個壓力 (pressure)、12個氣體流量(flow)等,共32個參數。晶圓在機台處理時,會經 過20個以上的加工步驟。經過工程師篩選出重要之5個步驟,其分別為加 熱、氧化、還原、氮化、熱裂解等,因每個步驟所採用的機台參數有32個, 所以每片晶圓共有160個機台參數。在機台處理完畢後,晶圓會經過量測, 量測項目包含厚度、微塵顆粒、應力等。本篇報告選取厚度,作為本實驗 所要預測之變數。其可總結如下表:

(34)

表3.1 機台參數表 參數編號 參數名稱 參數編號 參數名稱 1 溫度 1 17 氦氣洩漏率 2 2 溫度 2 18 壓力 1 3 溫度 3 19 壓力 2 4 溫度 4 20 壓力 3 5 溫度 5 21 氣體流量 1 6 溫度 6 22 氣體流量 2 7 溫度 7 23 氣體流量 3 8 輸出功率 1 24 氣體流量 4 9 輸出功率 2 25 氣體流量 5 10 輸出功率 3 26 氣體流量 6 11 輸出功率 4 27 氣體流量 7 12 輸出功率 5 28 氣體流量 8 13 輸出功率 6 29 氣體流量 9 14 反應腔電壓 30 氣體流量 10 15 反應腔電流 31 氣體流量 11 16 氦氣洩漏率 1 32 氣體流量 12

3.2 資料前置處理

資料分為機台參數資料和化學氣相沉積厚度量測資料。機台參數在執 行預測之前,必須先將機台參數資料作正規化,接下來採用主成份分析法 來減少其維度,之後作為類神經網路的輸入變數。將化學氣相沉積厚度量 測資料分別算出平均值,最大值與最小值之差與均勻值,再作正規化,之 後作為類神經網路的輸出變數。 當兩者資料均準備好後,即可建構類神經網路,經過學習後,可適當 地反映出機台參數及化學氣相沉積厚度之間的對應關係。

(35)

3.3 反傳遞模糊類神經網路運算流程

反傳遞模糊類神經網路是由輸入層,隱藏層,輸出層所構成。在學習 階段之運算流程會輸入訓練資料到網路,如下所示: 輸入層:輸入訓練資料中的機台參數,再輸出到隱藏層。 隱藏層:找出輸入的訓練資料與所有神經元之最小距離。當距離小於

,則改變該神經元的權重。當距離大於

,則新建一神經元,訓練資料 之輸入部分作為新建神經元之權重。 輸出層:當距離小於

,隱藏層中所選取的神經元,其相對於輸出層之 位置的神經元權重。當距離大於

,則新建一神經元,訓練資料之輸出部 分作為新建神經元之權重。 在預測階段之運算流程會將測試資料輸入到網路,如下所示: 輸入層:輸入測試資料中的機台參數,再輸出到隱藏層。 隱藏層: 計算輸 入的測試資 料與輸出 層每個神經元之 距離,如式 (2.13)。找出最小距離,接下來計算相對距離及類別指數,如式(2.14)、式 (2.15)。若類別指數小於10-5,則將

放大,重新計算相對距離及類別指數, 直到類別指數大於10-5為止。 輸出層:經由權重平均計算,如式(2.16),即可得到預測化學氣相沉積 厚度的平均值,最大值和最小值之差、均勻值。

3.4 廣義迴歸類神經網路運算流程

廣義迴歸類神經網路是由輸入層,隱藏層,輸出層所構成。在學習階段 之運算流程會輸入訓練資料到網路,以循序方式選取訓練資料的機台參數 與化學氣相沉積厚度量測值分別作為隱藏層與輸出層之神經元權重。 輸入層:輸入訓練資料中的機台參數,再輸出到隱藏層。

(36)

隱藏層:將訓練資料中的機台參數資料表示成矩陣 Wq×r,使用高斯的輻

狀基底函數(radial basis function)來當作轉換函數。輻狀基底函數的中心位置 可從訓練資料中循序選取。因有q組訓練資料組,所以隱藏層神經元數目設 為q。假設任一測試資料Pr×1,輸入到網路,則隱藏層的輸出 aq×1的計算如下: ) ) * 8326 . 0 ( exp( 2 2 1 1 C W P a q r r T q × × × − − = (3.1) 其中C為分散常數, PTr×1−Wq×r 為輸入向量Pr×1和訓練資料組的中心點Wq×r 的歐氏距離,歐氏距離的權重係數設為0.8326。當歐氏距離等於分散常數 時,aq×1之元素均為0.5。 輸出層:將訓練資料中的化學氣相沉積厚度資料表示成矩陣 Xn×q後,經 過normprod運算,如式(2.24),即 Xn×q之n個列向量與輸入向量 aq×1作內積, 再除以aq×1內所有元素的總和作正規化,得到運算結果bn×1會再經過輸出層 所用之線性函數,最後可得化學氣相沉積厚度的平均值,最大值和最小值 之差、均勻值。

3.5 輻狀基底函數類神經網路運算流程

輻狀基底函數類神經網路是由輸入層,隱藏層,輸出層所構成。在學習 階段之運算流程與廣義迴歸類神經網路相同。在預測階段之運算流程會將 測試資料輸入到網路,輸入層及隱藏層與廣義迴歸類神經網路之運算流程 相同。差異不同為輸出層如下: 輸出層: 將訓練資料中的化學氣相沉積厚度資料表示成矩陣 Xn×q後, 經過netprod運算,如式(2.26),即 Xn×q之n個列向量與輸入向量aqx1作內積。 運算結果得到Sn×1會再經過輸出層所用之線性函數轉換,最後可得化學氣相 沉積厚度的平均值,最大值和最小值之差、均勻值。

(37)

3.6 反傳遞模糊類神經網路、廣義迴歸類神經網路與輻狀

基底函數類神經網路之比較

由以上所介紹之類神經網路,可知三種網路之初始化、學習方式、學 習過程及目的皆有相異之處,可得總結如下: 表3.2 反傳遞模糊類神經網路、廣義迴歸類神經網路與輻狀基底函數類神經 網路之差異 比較項目 反傳遞模糊 類神經網路 廣義迴歸 類神經網路 輻狀基底函數 類神經網路 權重值 初始化 訓練範例根據∆值 所得之分類 即為訓練範例 同廣義迴歸類神經 網路 學習方式 集合非監督式學習 與監督式學習 不需修正網路連結 權重值 同廣義迴歸類神經 網路 學習過程 疊代學習 不需疊代學習 同廣義迴歸類神經 網路 學習過程 之目的 尋找最佳的神經元 數目,以求得更精 確的預測值 尋找最佳分散常數 同廣義迴歸類神經 網路 隱藏層

演算法 Kohonen 演算法 radial basis function

同廣義迴歸類神經 網路

輸出層

(38)

第四章 實例驗證

本章節為依第三章節所述之反傳遞模糊類神經網路、廣義迴歸類神經 網路及輻狀基底函數類神經網路預測半導體晶圓化學氣相沉積厚度的實例 驗證。所採用之資料來自某一半導體廠提供的化學氣相沉積機台於處理單 一產品晶圓時,機台內其中之一個反應腔的參數及化學氣相沉積厚度資料 共1000筆,其中每筆資料包括一片晶圓於機台加工處理之160個機台參數與 數個厚度資料。本章第4.1節會介紹資料簡化,將前者160個機台參數經過簡 化剩32個,作為網路之輸入。後者厚度值,分別求出平均值、最大值和最 小值之差、均勻值等3個項目,當作網路之輸出。在訊練與預測階段之資料 配置原則是採用循序取樣的方式[21],即從機台參數及化學氣相沉積厚度 中,取前700筆作為網路訓練範例,後300筆作為網路測試資料。第4.2節會 介紹嘗試改變類神經網路參數的方式來決定最佳值。本實驗所採用的電腦 規格為CPU 2.8G HZ,RAM 1G MB,軟體為MATLAB 6.5。

4.1 機台參數簡化

晶圓在機台處理會經過20個以上的步驟,根據半導體廠的合作廠商的 專家意見,從機台處理步驟中,選取5個重要步驟,分別為加熱、氧化、還 原、氮化、熱裂解等,又每個步驟中的32個機台參數。因此,本實驗所選 取機台參數共有160(= 5 x 32)參數。這些原始參數,須先將所有參數經過正 規化,如式(2.2),接下來採用主成分分析法篩選主成分參數。因機台參數 的整體變異比例較大者,其特徵值越大,則其所對應的特徵向量越有差異 性,可以讓每一筆資料投影至基底上得到最大差異量,藉以分辨出彼此。 因此,保留了整體變異比例大於0.1%的變數,共32個,作為主成分參數。 如下表4.1所示:

(39)

表4.1 機台參數之整體變異比例

機台參數編號

步驟編號

1 2 3 4 5

1 0.7772600 0.0007655 2.05E-05 5.90E-07 2.74E-08

2 0.0473440 0.0007504 1.99E-05 5.55E-07 2.46E-08

3 0.0218370 0.0006723 1.86E-05 4.72E-07 2.15E-08

4 0.0142670 0.0006511 1.49E-05 4.41E-07 1.93E-08

5 0.0122230 5.77E-04 1.33E-05 3.86E-07 1.75E-08

6 0.0087045 4.36E-04 1.30E-05 3.51E-07 1.54E-08

7 0.0079214 4.13E-04 1.21E-05 3.04E-07 1.45E-08

8 0.0074034 2.74E-04 1.03E-05 2.51E-07 1.11E-08

9 0.0068374 2.56E-04 8.85E-06 2.47E-07 9.66E-09

10 0.0066730 2.16E-04 8.54E-06 2.26E-07 8.94E-09

11 0.0064619 1.87E-04 7.28E-06 1.88E-07 6.96E-09

12 0.0062744 1.57E-04 5.92E-06 1.72E-07 6.22E-09

13 0.0059607 1.38E-04 4.80E-06 1.62E-07 5.87E-09

14 0.0057329 1.16E-04 4.57E-06 1.42E-07 5.24E-09

15 0.0054278 1.04E-04 3.83E-06 1.34E-07 4.04E-09

16 0.0052914 8.68E-05 3.70E-06 1.26E-07 3.25E-09

17 0.0048345 7.81E-05 3.12E-06 1.20E-07 2.69E-09

18 0.0047296 7.53E-05 2.83E-06 1.14E-07 1.99E-09

19 0.0043843 6.47E-05 2.75E-06 1.12E-07 1.25E-09

20 0.0041287 5.62E-05 2.64E-06 1.01E-07 8.30E-10

21 0.0035395 5.03E-05 2.29E-06 9.41E-08 7.56E-10

22 0.0034871 4.61E-05 1.80E-06 9.28E-08 7.20E-10

23 0.0033116 4.39E-05 1.62E-06 8.67E-08 5.65E-10

24 0.0030770 4.15E-05 1.56E-06 7.61E-08 2.81E-10

25 0.0028960 3.95E-05 1.53E-06 7.05E-08 2.19E-10

26 0.0024944 3.63E-05 1.40E-06 6.16E-08 1.65E-10

27 0.0023851 3.11E-05 1.22E-06 5.73E-08 1.50E-10

28 0.0022020 3.09E-05 1.04E-06 5.29E-08 1.21E-10

29 0.0020698 2.58E-05 9.23E-07 4.55E-08 4.60E-11

30 0.0016825 2.54E-05 8.74E-07 4.34E-08 4.84E-12

31 0.0013897 2.36E-05 7.97E-07 3.81E-08 4.93E-41

(40)

4.2 化學氣相沉積量測厚度資料之簡化

晶圓在機台端處理完畢後,每片晶圓所測量出化學氣相沉積厚度的量 測值的個數約有5~20個不等,可分別求得平均值、最大值與最小值之差和 均勻值。以上三個值需再經過正規化,如式(2.2)。在稍後4.3節當中,使用 類神經網路所預測結果與實際量測值之比較,會以正規化之結果來檢視其 差異。在此我們將平均值,稱為厚度平均值(thkmean),該值經過正規化後 會介於-5與5之間。而從1000筆的量測資料所求得之厚度平均值的標準差為 33.9,約為34(nm)。因實際量測厚度平均值之單位為nm(nanometer),在作正 規化時,會減去平均值再除以標準差。所以,在比較預測與實際量測值之 圖中,每1個單位為34(nm)。

4.3 決定類神經網路的最佳參數

本節以嘗試錯誤(trial and error)[12]之方式選取類神經網路參數,如廣義 迴歸類神經網路及輻狀基底函數類神經網路之分散常數,反傳遞模糊類神 經網路之

參數、學習循環次數、學習率,以進行預測並依評估平均絕對 百分比誤差之值最小者,為最佳之網路參數值。

4.3.1 廣義迴歸類神經網路實驗

決定隱藏層的分散常數。隱藏層的算式如 ) ) * 8326 . 0 ( exp( 2 2 1 1 C W P a q r T r q × × × − − = (4.1) 當 C W P q r T r×1 − × * 8326 . 0 大 於 3 時 , aq×1 為 1.2341e-004 , 接 近 於 0 。 當 C W P q r T r×1− × * 8326 . 0 小於0.03時,aq×1為0.99,接近於1。因此,由以上可得[6]:

(41)

3 * 8326 . 0 3 . 0 . 0 ≤ ×1− × ≤ C W P q r T r 。 由上式可得 q r T r r q T r W C P W P×1− × ≤ ≤27.7533* ×1− × * 2775 . 0 。假設Dmax與Dmin 分 別 為 T q r r W P×1× 之 最 大 值 與 最 小 值 。 本 實 驗 之Dmax為 10.2337 , Dmin為 1.5889,最後可得0.2775*Dmin ≤C≤27.7533*Dmax=> 0.4≤ C ≤284。 表4.2 廣義迴歸類神經網路選定隱藏層的分散常數實驗表 廣義迴歸類神經 網路分散常數 訓練和測試所花費 時間(秒) 厚度平均值之平均絕 對百分比誤差(%) 厚度平均值之 最大誤差(%) 2.30000 0.52 0.34780 1.96500 2.31000 0.65 0.34779 1.96480 2.31200 0.62 0.34779 1.96470 2.31400 0.63 0.34779 1.96470 2.31600 0.62 0.34779 1.96460 2.31800 0.57 0.34779 1.96460 2.32000 0.51 0.34779 1.96460 2.32100 0.51 0.34778 1.96450 2.32120 0.53 0.34778 1.96450 2.32140 0.56 0.34778 1.96450 2.32160 0.57 0.34778 1.96450 2.32180 0.57 0.34778 1.96450 2.32200 0.54 0.34778 1.96450 2.32220 0.56 0.34778 1.96450 2.32240 0.62 0.34778 1.96450 2.32260 0.64 0.34778 1.96450 2.32280 0.62 0.34778 1.96450 2.32300 0.52 0.34778 1.96450 2.32320 0.62 0.34778 1.96450 2.32340 0.59 0.34778 1.96450 2.32360 0.63 0.34778 1.96450 2.32380 0.58 0.34778 1.96450 2.32400 0.50 0.34778 1.96450

(42)

2.32420 0.58 0.34778 1.96450 2.32440 0.63 0.34778 1.96450 2.32460 0.64 0.34778 1.96440 2.32480 0.60 0.34778 1.96440 2.32500 0.56 0.34778 1.96440 2.32520 0.51 0.34778 1.96440 2.32540 0.58 0.34778 1.96440 2.32560 0.62 0.34778 1.96440 2.32580 0.58 0.34778 1.96440 2.32600 0.65 0.34778 1.96440 2.32620 0.64 0.34778 1.96440 2.32640 0.63 0.34778 1.96440 2.32660 0.65 0.34778 1.96440 2.32680 0.63 0.34778 1.96440 2.32700 0.66 0.34778 1.96440 2.32720 0.62 0.34778 1.96440 2.32740 0.62 0.34778 1.96440 2.32760 0.53 0.34778 1.96440 2.32780 0.50 0.34778 1.96440 2.32800 0.65 0.34778 1.96440 2.32820 0.62 0.34778 1.96440 2.32840 0.54 0.34779 1.96440 2.32860 0.63 0.34779 1.96440 2.32880 0.62 0.34779 1.96440 2.32900 0.64 0.34779 1.96430 由以上實驗得知,

常數介於2.32100到2.32820之間的厚度平均值之平均絕 對誤差百分比為最小值,0.34778。選定介於2.32100到2.32820之間的中間 數,2.32440作為最佳網路參數。由所選定之參數來預測化學氣相沉積厚度 並與實際量測值作一比較,如下圖:

(43)

(a) (b) 廣義迴歸類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值 (n m ) 預測值 實際值

100

廣義迴歸類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值 (n m ) 預測值 實際值

200

101 111 121 131 141

151 161 171

181 191

(44)

(c) 圖4.1: (a)、(b)及(c)分別表測試資料編號1~100、編號 101~200及編號201~300 的廣義迴歸類神經網路實際值與預測值之趨勢圖(Y軸:1單位為34 nm) 下圖為預測值減去實際值所得之誤差: (a) 廣義迴歸類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值 (n m ) 預測值 實際值

100

300

201 211 221 231 241

251 261 271

281 291

廣義迴歸類神經網路實際值與預測值之誤差 -5 -4 -3 -2 -1 0 1 2 3 4 5 1 11 21 31 41 51 61 71 81 91 測試資料編號 誤差 (n m ) 誤差 100

(45)

(b) (c) 圖4.2: (a)、(b)及(c)分別表測試資料編號1~100、編號101~200及編號201~300 的廣義迴歸類神經網路實際值與預測值之誤差(Y軸:1單位為34 nm) 廣義迴歸類神經網路實際值與預測值之誤差

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 誤差 (n m ) 誤差

100

200

101 111 121 131 141

151 161 171

181 191

廣義迴歸類神經網路實際值與預測值之誤差

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 誤差 (n m ) 誤差

100

100

300

201 211 221 231 241

251 261 271

281 291

(46)

4.3.2 反傳遞模糊類神經網路實驗

步驟一:決定隱藏層的

參數 表4.3 反傳遞模糊類神經網路選定

參數實驗表 反傳遞模糊 類神經網路 學習循環次數:1 學習率:0.1 初始學習率值:0.9

訓練和測試所花費 時間(秒) 厚度平均值之平均 絕對百分比誤差 (%) 厚度平均值之 最大誤差(%) 3.23800 63.67 0.34423 1.95630 3.23820 61.40 0.34423 1.95630 3.23840 64.17 0.34423 1.95630 3.23860 63.90 0.34423 1.95630 3.23880 63.97 0.34423 1.95630 3.23900 62.04 0.34422 1.95630 3.23920 62.66 0.34422 1.95630 3.23940 64.80 0.34422 1.95630 3.23960 63.72 0.34422 1.95630 3.23980 63.31 0.34422 1.95630 3.24000 63.97 0.34422 1.95630 3.24020 62.58 0.34422 1.95630 3.24040 63.62 0.34422 1.95630 3.24060 63.61 0.34433 1.95630 3.24080 64.00 0.34433 1.95630 3.24100 64.04 0.34433 1.95630 由以上實驗得知,

常數介於3.23900與3.24040之間的厚度平均值之平 均絕對誤差百分比為最小值,0.34422。因此,我們選 定介於3.23900與3.24040 的中間數,3.23960作為最佳網路參數。

(47)

步驟二:決定學習參數 表4.4 反傳遞模糊類神經網路選定學習率參數實驗表 反傳遞模糊 類神經網路 學習循環次數:3

: 3.23960 學習率初始值: 0.9 學習率 訓練和測試所花費 時間(秒) 厚度平均值之平均 絕對百分比誤差 (%) 厚度平均值之 最大誤差(%) 0.39000 216.53 0.34378 1.95630 0.39200 202.01 0.34378 1.95630 0.39400 203.57 0.34370 1.95630 0.39600 201.84 0.34370 1.95630 0.39800 213.40 0.34370 1.95630 0.40000 209.61 0.34370 1.95630 0.40200 206.10 0.34370 1.95630 0.40400 202.38 0.34396 1.95630 0.40600 208.67 0.34396 1.95630 由以上實驗得知,學習率介於0.39400與0.40200之間的厚度平均值之平 均絕對百分比誤差為最小值,0.34370。因此,我們選 定介於0.39400與0.40200 之間的中間數,0.39800作為最佳網路參數。 步驟三:決定循環學習次數 表4.5 反傳遞模糊類神經網路選定循環學習次數實驗表 反傳遞模糊類 神經網路

: 3.23960 學習率: 0.39800 學習率初始值: 0.9 學習循環次數 訓練和測試所花 費時間(秒) 厚度平均值之平均 絕對百分比誤差 (%) 厚度平均值之 最大誤差(%) 3 204.75 0.34370 1.95630 4 286.97 0.34366 1.95630 5 348.01 0.34365 1.95630 6 417.37 0.34365 1.95630 7 487.07 0.34365 1.95630 8 561.71 0.34365 1.95630 9 627.86 0.34365 1.95630

(48)

由以上實驗得知,學習循環次數5以上的厚度平均值之平均絕對誤差百 分比為最小值,0.34365。因此,選定5作為最佳網路參數值。由以上三個步 驟所選定之參數來預測晶圓參數並與實際量測值作一比較,如下圖: (a) (b) 反傳遞模糊類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值(nm) 預測值 實際值

100

反傳遞模糊類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值(nm) 預測值 實際值

100

101

111

121

131

141

151

161

171

181

191 200

(49)

(c) 圖4.3: (a)、(b)及(c)分別表測試資料編號1~100、編號101~200及編號201~300 的反傳遞模糊類神經網路實際值與預測值之趨勢圖(Y軸:1單位為34 nm) 下圖為預測值與實際值所得之誤差: (a) 反傳遞模糊類神經網路實際值與預測值之結果

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 正規化厚度平均值(nm) 預測值 實際值

300

201

211

221

231

241

251

261

271

281

291

反傳遞模糊類神經網路實際值與預測值之誤差

-5

-4

-3

-2

-1

0

1

2

3

4

5

1

11

21

31

41

51

61

71

81

91

測試資料編號 誤差 (n m ) 誤差

100

參考文獻

相關文件

Each unit in hidden layer receives only a portion of total errors and these errors then feedback to the input layer.. Go to step 4 until the error is

for training

3 Distilling Implicit Features: Extraction Models Lecture 14: Radial Basis Function Network. RBF

Random Forest: Theory and Practice Neural Network Motivation.. Neural Network Hypothesis Neural Network Training Deep

This study proposed the Minimum Risk Neural Network (MRNN), which is based on back-propagation network (BPN) and combined with the concept of maximization of classification margin

To solve this problem, this study proposed a novel neural network model, Ecological Succession Neural Network (ESNN), which is inspired by the concept of ecological succession

In this study, variable weights are added into the probabilistic density function of Elliptical Probabilistic Neural Network (EPNN), so that the kernel function can be adjusted

This study proposed the ellipse-space probabilistic neural network (EPNN), which includes three kinds of network parameters that can be adjusted through training: the variable