• 沒有找到結果。

基於多尺度方均根、多尺度熵、費雪法與倒傳遞網路之軸承錯誤診斷系統

N/A
N/A
Protected

Academic year: 2021

Share "基於多尺度方均根、多尺度熵、費雪法與倒傳遞網路之軸承錯誤診斷系統"

Copied!
80
0
0

加載中.... (立即查看全文)

全文

(1)國立臺灣師範大學機電科技學系 碩士論文 指導教授:吳順德博士 基於多尺度方均根、多尺度熵、費雪法與倒傳遞 網路之軸承錯誤診斷系統 Bearing Fault Diagnosis System based on Multiscale Root Mean Square, Multiscale Entropy,Fisher Score and Backpropagation Neural Network. 研究生:林庭毅 撰. 中. 華. 民. 國. 一. 百. 零. 一. 年. 六. 月.

(2) 國立臺灣師範大學博(碩)士論文通過簽名表 系所別:. 學系(研究所). 姓名:. 組. 學號:. 論文題目:(中文) (英文). 經審查合格,特予證明 論文口試委員 林修國(委員姓名)博士 國立台灣海洋大學通訊與導航工程學系(服務 單位全銜) ○○○(委員姓名) 博士 ○○○○○○(服務單位全銜) ○○○(委員姓名) 博士 ○○○○○○(服務單位全銜) ○○○(委員姓名) 博士 ○○○○○○(服務單位全銜) ○○○(委員姓名) 博士 ○○○○○○(服務單位全銜) 本論文指導教授 系主任(所長)簽章:_____________________. I.

(3) 中文摘要 機械的狀態監控對於產業日漸重要,因為產業需要提高機械的可靠性, 並且減少機械故障可能造成的經濟損失,以提升產業競爭力。在監測旋轉機 械狀態的領域中,使用振動訊號進行分析是相當普遍的。透過比較機械運行 時,正常與故障情況下產生的訊號,將可能檢測出軸承缺陷錯誤的類型。一 般情況下,軸承錯誤診斷流程可以分為三個主要步驟:特徵擷取、特徵選取 與錯誤情況的分類。在本論文中,我們提出了一個錯誤檢測的演算法,以區 分不同種類的軸承故障。首先,收集振動訊號,並使用不同方法擷取其特徵, 如多尺度熵(Multiscale Entropy, MSE)和多尺度方均根(Multiscale Root. Mean Square, MSRMS)演算法。其次,使用費雪法(Fisher Score, FS)選取 最佳的特徵。最後,使用最佳的特徵與倒傳遞網路 (Backpropagation Neural Network, BPN)來建立錯誤狀態分類的模型。在我們的模擬中,使用了凱斯 西儲大學(CWRU)的軸承振動訊號資料。實驗結果表明,此錯誤診斷的流程 應用於軸承訊號具有相當高的辨識率。. 關鍵字:多尺度熵、多尺度方均根、費雪法、倒傳遞網路。. II.

(4) 英文摘要 Machine condition monitoring is gaining importance in industry because of the need to increase reliability and to decrease the possibility of production loss due to machine breakdown. The use of vibration signals is quite common in the field of condition monitoring of rotating machinery. By comparing the signals of a machine running in normal and faulty conditions, detection of fault types of bearing defects is possible. Generally, a bearing fault diagnosis process can be decomposed into three major steps: feature extraction, feature selection and fault condition classification. In this dissertation, we propose a fault detection algorithm to distinguish different types of bearing fault. Firstly, the features of vibration signals collected from different conditions were extracted by multiscale entropy (MSE) and multiscale root mean square (MSRMS) algorithm. Secondly, the optimal feature set is selected by Fisher score. Thirdly, the optimal feature set and backpropagation neural network (BPN) was used to build the model of fault classifier. In our simulations, the vibration signal datasets of bearing from Case Western Reserve University (CWRU) are utilized. Experimental results demonstrate that the proposed algorithm provides a high accuracy of prediction on the test data.. Keywords:Multiscale Entropy, Multiscale Root Mean Square, Fisher score, Backpropagation Neural Network.. III.

(5) 誌謝 時光忡忡,轉眼間又到了鳳凰花開的季節。兩年間的碩士學習生涯,比 起大學時有著截然不同的差別,必需花更多心力才能應付更艱深的課程,以 及學習應用比大學更多的空閒時間充實自己。其中求學的過程要感謝許多人 ,首先最要感謝的是我的父母,除了提供生活上的資助外,也以身作則的讓 我體會許多應當做的事情與需要努力的方向,沒有我的父母,我是不可能順 利完成研究所的學業。 接下來要感謝實驗室的夥伴們,同儕求文與易宗,總是在我困難的時候 提供協助,以及在研究上提供意見與幫忙。學長良榮、家熏以及昇嘉的時常 鼓勵。學弟妹冠宇、君瑀、千雅、凱翔、慧嘉、偉恩、鈺琪、智閔以及威諭, 很開心認識你們,使我的碩士生涯更加多采多姿。 感謝口試委員林修國教授、吳豐泰博士對本論文所提出的意見與應改進 的地方,使本論文更加完善。 最後要感謝的是指導老師吳順德教授,無論是課業上的指導,做學問應 有的態度與思維,或是做人處事的道理,都讓我受益良多。我知道我有很多 地方需要檢討,再次謝謝您的寬容與教導。僅以此文,獻給所有幫助過我的 人。. IV.

(6) 目錄 中文摘要 ............................................................................................................. II 英文摘要 ............................................................................................................ III 誌謝 ...................................................................................................................... IV 目錄 ....................................................................................................................... V 圖目錄 ................................................................................................................ VII 表目錄 .................................................................................................................. IX 第一章. 緒論 ...................................................................................................... 1. 1.1. 前言 .................................................................................................. 1. 1.2. 研究動機與目的 .............................................................................. 2. 1.3. 論文架構 .......................................................................................... 2. 第二章. 文獻探討 .............................................................................................. 2. 第三章. 研究方法 .............................................................................................. 7. 3.1. 錯誤診斷系統流程 .......................................................................... 7. 3.2. 特徵擷取 .......................................................................................... 8. 3.2.1. 方均根(Root Mean Square, RMS) ................................................... 8. 3.2.2. 多尺度熵(Multiscale Entropy, MSE) .............................................. 8. 3.2.2.1 熵(Entropy) ...................................................................................... 8 3.2.2.2 取樣熵(Sample Entropy, SE) ........................................................... 9 3.2.2.3 多尺度演算法 ................................................................................ 10 3.2.2.4 多尺度熵演算法 ............................................................................ 11 3.2.3. 多尺度方均根(Multiscale Root Mean Square, MSRMS) ............. 12. 3.3. 特徵選取 ........................................................................................ 13. 3.3.1. 費雪法( Fisher Score, FS) .............................................................. 13 V.

(7) 3.4. 類神經網路(Artificial Neural Network, ANN)........................ 15. 3.4.1. 倒傳遞網路(Backpropagation Neural Network, BPN) ................. 17. 3.4.2. Levenberg Marquardt 法 ............................................................... 20. 3.4.3. 比例共軛梯度法(Scaled Conjugate Gradient Algorithm, SCG)... 22. 3.5. 總結 ................................................................................................ 25. 第四章. 實驗結果與討論 ................................................................................ 27. 4.1. 實驗步驟與結果 ............................................................................ 27. 4.1.1. 實驗一 ............................................................................................ 29. 4.1.2. 實驗二 ............................................................................................ 37. 4.1.3. 實驗三 ............................................................................................ 45. 4.1.4. 實驗四 ............................................................................................ 49. 第五章. 結論與建議 ........................................................................................ 55. 5.1. 結論 ................................................................................................ 55. 5.2. 建議 ................................................................................................ 55. 參考文獻 ............................................................................................................ 57 附錄 ...................................................................................................................... 62. VI.

(8) 圖目錄 圖 1 2010~2011 全球工具機主要生產國產值 [1] .......................... 1 圖 2 Normal 、 CHF 與 AF 經由 MSE 計算的表示圖 [9] .............. 4 圖 3 軸承振動訊號計算 50 個尺度的 MSE 表示圖 [10] ................. 4 圖 4 自適應特徵選擇示意圖 [15] ...................................................... 5 圖 5 錯誤診斷系統流程示意圖 .......................................................... 7 圖 6 粗粒化示意圖 ............................................................................ 11 圖 7 多尺度熵演算法流程 ................................................................. 12 圖 8 多尺度方均根演算法流程 ......................................................... 13 圖 9 區別分析示意圖 [28] ................................................................ 14 圖 10 ABC 三類經 FS 計算後的數值列表........................................ 15 圖 11 倒傳遞網路的架構 .................................................................. 18 圖 12 本論文軸承錯誤診斷方法 ....................................................... 26 圖 13 CWRU 的實驗平台 .................................................................. 27 圖 14 本論文實驗流程圖 .................................................................. 28 圖 15 實驗一流程圖 ........................................................................... 30 圖 16 正切雙彎曲轉移函式 tansig [37] ............................................ 32 圖 17 線性轉移函數 purelin [37] ...................................................... 32 圖 18 隱藏層的神經元個數流程圖 .................................................. 32 圖 19 單尺度與多尺度使用 SCG 法的辨識率 ................................ 34 圖 20 單尺度與多尺度使用 LM 法的辨識率 .................................. 34 圖 21 MSRMS 使用 LM 法與 SCG 的辨識率 .................................. 35 圖 22 實驗二流程圖 .......................................................................... 38 圖 23 MSE 與 MSRMS 的辨識率...................................................... 38 VII.

(9) 圖 24 MSRMS 於資料長度 1024 轉速 1730-7mil 時的 error bar .... 41 圖 25 MSE 於資料長度 1024 轉速 1730-7mil 時的 error bar .......... 42 圖 26 MSRMS 於資料長度 2048 轉速 1730-7mil 時的 error bar .... 42 圖 27 MSE 於資料長度 2048 轉速 1730-7mil 時的 error bar .......... 43 圖 28 MSRMS 於資料長度 4096 轉速 1730-7mil 時的 error bar .... 43 圖 29 MSE 於資料長度 4096 轉速 1730-7mil 時的 error bar .......... 44 圖 30 MSE 於 1730-7mil 時不同長度的 error bar 比較 ................... 44 圖 31 MSRMS 於 1730-7mil 時不同長度的 error bar 比較 ............. 45 圖 32 實驗三流程圖 .......................................................................... 46 圖 33 MSE、MSRMS 與 MSE+MSRMS 的辨識率 ......................... 47 圖 34 實驗四流程圖 ........................................................................... 50 圖 35 FS 特徵選取流程圖 .................................................................. 50 圖 36 MSE+MSRMS 與 MSE+MSRMS+FS 的辨識率 .................... 51 圖 37 MSE+MSRMS+FS、MSE 與 MSRMS 的辨識率 .................. 51. VIII.

(10) 表目錄 表 1 不同特徵下的隱藏層神經元個數與迭代次數 [8] .................... 3 表 2 四種演算法迭代次數的比較 [8] ................................................ 6 表 3 長度 1024 各個錯誤種類之樣本數 ........................................... 30 表 4 長度 2048 各個錯誤種類之樣本數 ........................................... 31 表 5 長度 4096 各個錯誤種類之樣本數 ........................................... 31 表 6 函數 trainlm 訓練參數............................................................... 33 表 7 函數 trainscg 訓練參數 ............................................................. 33 表 8 實驗一資料長度為 1024 之辨識率 .......................................... 35 表 9 實驗一資料長度為 2048 之辨識率 .......................................... 36 表 10 實驗一資料長度為 4096 之辨識率 ........................................ 36 表 11 實驗二資料長度為 1024 之辨識率 ........................................ 39 表 12 實驗二資料長度為 2048 之辨識率 ........................................ 39 表 13 實驗二資料長度為 4096 之辨識率 ........................................ 40 表 14 實驗三資料長度為 1024 之辨識率 ........................................ 47 表 15 實驗三資料長度為 2048 之辨識率 ........................................ 48 表 16 實驗三資料長度為 4096 之辨識率 ........................................ 48 表 17 實驗四資料長度為 1024 之辨識率 ........................................ 52 表 18 實驗四資料長度為 2048 之辨識率 ........................................ 52 表 19 實驗四資料長度為 4096 之辨識率 ........................................ 53 表 20 實驗平均所需訓練時間 .......................................................... 53 表 21 實驗平均隱藏層神經元個數 .................................................. 53. IX.

(11) 第一章. 緒論. 1.1 前言 2010 年至 2011 年全球工具機主要生產國產值如圖 1 所示,可以發現 2011 年全球工具機產業表現持續成長,主要生產國如中國、日本、德國、 義大利、韓國以及台灣等,產值都有 20%~50%的增加。台灣在 2011 年的產 值約為 50 億美金,其排名位居第六,已被鄰近的韓國所超越。製造設備在 滿足基本的性能與精度要求後,若要提升附加價值,機械需具備智慧化監控, 若機械本身具備即時自我偵測與狀態診斷的功能,其附加價值將會更高。. 圖 1. 2010~2011 全球工具機主要生產國產值 [1]. 軸承為機械中的固定元件。當其他元件在軸上彼此產生相對運動時,可 用來控制該運動與保持軸的中心位置,使得機械中的一部分能以最低的耗損, 平穩的在另一部分上旋轉、滑動或摩擦 [2]。機械系統的發展與軸承性能有 密切關係,因為軸承是應用非常廣泛的機械元件,幾乎所有形式的旋轉機械 都需要此關鍵元件。而旋轉機械所產生的故障往往與軸承故障有關,為了防 止機械故障可能導致的經濟損失,甚至人命傷亡的意外,許多故障診斷方法 1.

(12) 已經開發和有效利用在檢測機械故障上,應盡快檢測軸承可能出現的缺陷錯 誤,以避免機器的故障。 儘管運轉當中無法直接觀察軸承的損害狀況,但可藉著系統在運轉當中 ,監控機械的噪音、振動情況來察知軸承可能的異常。軸承若在使用上造成 缺陷或磨損,會使運轉中的軸承產生不正常的噪音。而軸承噪音可經由機械 結構或空氣傳出。此外,軸承因為異常所產生噪音與振動有時候會被周圍環 境的噪音與振動所掩蓋。這些噪音與振動在振動訊號上有其特性,可以利用 訊號分析技術來加以處理與分析。. 1.2 研究動機與目的 隨著資訊、電子、光電產業的蓬勃發展,工具機的需求量大增,現今的 產業必須擁有高品質、高效率與具備錯誤診斷的功能的機械設備,才能增加 其經濟效益,並提升企業競爭力。而診斷機械問題的主要方法之一是訊號分 析,透過振動訊號處理的技術,可以從中獲得重要的診斷資訊。但是現有的 許多技術,目前需要專業知識的人員才能成功地應用。若能允許不熟練的操 作人員,經由智慧化監控,就能得到可靠的決策數據與問題診斷的結果,那 對於生產是相當有幫助的。因此運用訊號分析等等技術來監控設備狀況,並 以此做為改進設備狀況的工具,提升機械的附加價值,已被許多企業所採 用。 本論文目標是開發軸承的錯誤診斷系統,應用多尺度熵(MSE)與本論文 提出的演算法進行資料的特徵擷取,並使用費雪法(Fisher score, FS)將特徵做 進一步的選取,經由倒傳遞網路做訓練,期望提升錯誤診斷的辨識率。. 1.3 論文架構 本論文結構共分為五章,各章內容如下:. 2.

(13) 第一章 緒論:說明本文的研究動機、研究目的。 第二章 文獻探討:回顧前人所使用的方法。 第三章 研究方法:介紹錯誤診斷系統的流程、方均根、多尺度熵、多尺度 方均根、費雪法與類神經的理論。 第四章 實驗結論與討論:說明如何設計實驗流程與解釋數據代表的意義。 第五章 結論與建議:歸納出結論,並提供後續研究方向。. 3.

(14) 第二章. 文獻探討. 軸承的振動訊號分析,近來被應用於旋轉機械的錯誤診斷中,若能夠於 系統運轉時,量測並分析系統的振動訊號,便有可能判斷元件損壞的程度與 種類。本論文的錯誤診斷有以下四個步驟,首先是資料採集,經由儀器將振 動資料收集;第二步驟是特徵擷取,目的是使用少量的數值代表整個訊號, 以減少運算量;第三步驟是特徵選取,將特徵擷取後的資料,選取其中較為 重要的特徵;最後將特徵經由分類器分類,分辨出元件損壞的種類。 首先介紹特徵擷取的部分,目前用於機械振動訊號的分析方法大致可分 為三種:(1)統計分析(2)頻譜分析(3)複雜度分析,統計分析方法中的方均根 值(Root-Mean-Square Value, RMS)是目前業界廣泛使用的方法,該方法也已 經被 International Organization for Standardization (ISO)列為機械故障檢測的 標準方法(ISO 10816) [3],而 ISO 2372 則是規範了振動訊號的量測方法 [4]。 此方法是振動分析方法中較基本且有效的方法之一,訊號的 RMS 值可以視 為此振動訊號的能量,一般而言,當訊號振動的振幅越大,代表損壞的情況 越嚴重,Barron 在 1996 年的文獻中便有討論不同的機械狀況與相對應振動 量的關係 [5],Heng 在 1998 的文獻中使用 RMS 當作軸承錯誤辨認的特徵 之一 [6],Ahmadi 在 2009 年的文獻中,也以實驗證實 RMS 與系統錯誤的 相關性 [7]。B. Sreejith 提出把訊號的峰值、 RMS 、標準差…等當作特徵, 最後經由前饋式倒傳遞網路配合不同演算法做訓練 [8]。其運用不同特徵做 訓練下的隱藏層神經元個數與迭代次數如表 1 所示。. 2.

(15) 表 1 不同特徵下的隱藏層神經元個數與迭代次數 [8]. 近年來使用複雜度來評估一個機械系統狀態的方法也同樣受到重視;多 尺度熵(Multiscale Entropy, MSE)的原理是使用粗粒化(Coarse-Grained)的方 法,計算系統在不同尺度下的取樣熵值 [9],近年來運用於生物醫學 [9]、 機械振動領域上,並在機械錯誤診斷上擁有很好的效果 [10, 11, 12, 13]。 Costa 在文獻指出,如果只用一個尺度(scale)的 Sample Entropy (SE)是無法分 辨出正常人(Normal)與充血性心力衰竭(Congestive Heart Fail, CHF)病人其心 律時序訊號的不同,但如果透過粗粒化(Coarse-grained)將原始訊號轉換成不 同尺度的訊號然後再計算其 SE 值,那麼就可以分辨出正常人與充血性心力 衰竭病人的差異 [9],其表示圖如圖 2。 Zhang 在文獻指出,由於機械系統的元件通常會相互影響,若只使用 Sample Entropy 可能無法完整與正確的代表機械振動訊號 [10],所以文獻中 使用 MSE 對軸承振動訊號做特徵擷取,計算 50 個尺度的 MSE 並當作特徵, 經由 support vector machines (SVMs)做分類。其軸承振動訊號計算 50 個尺度 的 MSE 如圖 3 所示。. 3.

(16) 圖 2 Normal 、 CHF 與 AF 經由 MSE 計算的表示圖 [9]. 圖 3 軸承振動訊號計算 50 個尺度的 MSE 表示圖 [10]. 4.

(17) Xiong 在文獻中使用 approximate entropy、sample entropy、fuzzy sample entropy 與 fuzzy approximate entropy 四種方式,去比較使用單尺度與多尺度 演算法的辨識率,結果使用多尺度演算法時,無論訊號是否有添加雜訊,辨 識率皆比使用單尺度高,因此可以得知使用 MSE 對軸承振動訊號做處理, 具有良好的結果 [13]。 接下來介紹特徵選取的部分,若特徵數太多時,對於訓練的時間與辨識 率將會有影響,若能選取重要的特徵,將不重要的特徵剃除,那對訓練是相 當有幫助的。而區別函數中的 Fisher score (或稱區別指標,distinction index) 應用於特徵選取有很好的效果 [14, 15, 16, 17]。Kao 在文獻中指出,在人臉 辨識的系統中,使用 FS 算出兩兩一類每個特徵的分數,並使用自適應特徵 選擇方法將特徵的重要性做排序,在找出重要的特徵後,經由 support vector machines 分類,可以有很好的辨識效果 [15],自適應特徵選擇方法如圖 4。. 圖 4 自適應特徵選擇示意圖 [15] 最後介紹分類器的部分,分類方法使用類神經網路的論文有很多 [8, 17, 18, 19, 20, 21, 22, 23, 24],都具有相當良好的結果。B. Sreejith 在文獻中比較 了 Levenberg-Marquardt 、Resilient propagation、scaled conjugate gradient、 Powell-Beale conjugate gradient 這四種演算法的迭代次數,發現 LM 法收斂. 5.

(18) 所需要的迭代次數最少 [8]。四種演算法迭代次數的比較如表 2 所示。Li 在文獻中指出,滾動軸承的振動訊號,經由時域與頻域分析取出特徵後,使 用類神經網路能夠有效的診斷出軸承的故障 [18]。 表 2 四種演算法迭代次數的比較 [8]. 前人所使用的 MSE 在粗粒化的過程會減少訊號的長度,尺度越大,訊 號長度越短,算出來的取樣熵誤差就會比較大。而 RMS 為一整體性的指標, 比較不受資料長短的影響,但若只以此統計量,較難精確地分辨不同種類的 錯誤,因此本文將結合多尺度演算法與 RMS 值,開發新的演算法稱多尺度 方均根(Multiscale Root Mean Square, MSRMS),並使用 FS 將特徵做近一步 的選取,配合前饋式倒傳遞網路(Feed-forward Backpropagation Network),開 發一個新的錯誤診斷系統,期望能將此方法運用於各種機械系統之故障診斷 中。. 6.

(19) 第三章. 研究方法. 本論文將介紹軸承的錯誤診斷系統。首先是錯誤診斷系統的流程;接下 來介紹特徵擷取的部分,這部分有方均根值、多尺度熵、多尺度方均根這三 種方法;再來是特徵選取部分,將介紹費雪法的理論;最後是分類,本論文 使用倒傳遞網路做訓練,並介紹 Levenberg-Marquardt 法與比例共軛梯度法 理論與特性。. 3.1 錯誤診斷系統流程 錯誤診斷系統流程如圖 5,可分為幾個部分,第一步驟是資料採集的部 分,經由儀器將振動資料收集;第二步驟是特徵擷取,將原始資料經由演算 法,取出資料的特徵;第三步驟是特徵選取,將特徵擷取後的資料,選取其 中較為重要的特徵;最後是分類,將特徵資料透過分類器學習後,訓練出數 學模型,自動的將資料進行分類。. Data acquisition. Feature extraction. Feature seletion. Classification 圖 5 錯誤診斷系統流程示意圖. 7.

(20) 3.2 特徵擷取 3.2.1方均根(Root Mean Square, RMS) 軸承的振動訊號分析,早在幾年前就被應用於迴轉機械的錯誤診斷中, 一般而言,一個正常的機械系統,其運轉時的振動量會與其元件損壞的程度 有關,若於系統運轉時,量測並分析系統的振動訊號,那便有可能估計元件 損壞的程度與種類。若要計算一個長度為 N 的時序訊號𝐱 = [𝑥1 𝑥2 … 𝑥𝑁 ]的 方均根值,其公式如式( 1 ) ∑. (𝑥 ) = √. 𝑁. (1). 但由於 RMS 為一整體性的指標,若只以此統計量來分析振動訊號,只 能分辨機械損壞的有無,所以需要配合其他訊號分析方式來分辨不同種類的 錯誤。. 3.2.2多尺度熵(Multiscale Entropy, MSE) 3.2.2.1 熵(Entropy) 熵被廣泛用來代表訊號的複雜性,可用來當作判斷隨機變數的複雜程度 的指標。 對一個隨機變數𝑋而言,其熵𝐻(𝑋)的定義如下: 𝐻 (𝑋 ) =. ∑ (𝑋 ). ( (𝑋 )). (2). 其中 (𝑋 )為隨機變數X的機率密度函數,log是以2或是自然對數e為底的 對數。 給 定 長 度 為 N 的 時 序 訊 號 𝑥1 𝑥2 … 𝑥𝑁 , 對 某 一 個 i ,. (𝑋 ) = 1, 則. 𝐻 (𝑋 ) = 0 ; 若 訊 號 為 均 勻 分 佈(uniform distribution) 的 雜 訊 , 對 所 有 的i, 8.

(21) (𝑋 ) = 1⁄𝑁時,則 𝐻 (𝑋 ) =. 𝑁。因此根據以上推論,可得知一個時序訊. 𝑁 之間。. 號的熵值介於 0 與. 3.2.2.2 取樣熵(Sample Entropy, SE) 對於一個長度為N的時序訊號𝑥1 𝑥2 … 𝑥𝑁 ,將連續m個點組合成一個樣 板(Pattern),則𝐗 = [𝑥. 𝑥 +1. …. 𝑥 +𝑚−1 ]代表第i個樣版。而這個時序訊號. 可以組成N-m+1個不同的樣板,X 稱為樣板空間(Pattern Space)。表示如式 ( 3 ):. 𝐗=[. 𝑥1 𝑥2. 𝑥2 𝑥. … 𝑥𝑚 … 𝑥𝑚+1. 𝑥𝑁−𝑚+1. 𝑥𝑁−𝑚+2. …. ]. 𝑥𝑁. (3). 時序訊號之取樣熵計算如下: (1) 以𝑑 𝑗 = ‖𝑋 – 𝑋𝑗 ‖∞ ,𝑖 ≠ 𝑗來計算樣板與樣板之間的距離。 (2) 再以𝐷 𝑗 (𝑟) = 𝐺(𝑑 𝑗 )將此距離轉換為樣板間的相似度(Similarity)。 𝐺(. )為Heaviside函數,定義為: 𝐺(𝑑 𝑗 ) = {. 1 𝑑𝑗 0 𝑑𝑗. 𝑟 𝑟. (4). (3) 求平均值𝐵 (𝑟) 𝐵 (𝑟 ) =. 𝑁−𝑚+1. 1 𝑁. 1. ∑ 𝐷 𝑗 (𝑟). (5). 𝑗 1. (4) 計算長度為m的樣板的平均相似度𝜙𝑚 (𝑟) 𝜙𝑚 (𝑟) =. 𝑁−𝑚. 1. ∑ 𝐵 (𝑟). 𝑁. 1. (5) 重複步驟(1)~(4)計算長度為m+1之𝜙𝑚+1 (𝑟)。 (6) 取樣熵(Sample Entropy, SE)之值為: 9. (6).

(22) ( 𝐷 𝑗 代表當𝑑 𝑗. 𝜙𝑚+1 (𝑟) 𝜙𝑚 (𝑟). 𝑟) =. (7). 𝑟 時,第i個樣板與第j個樣板的相似度等於1;而當𝑑 𝑗. 𝑟. 時,兩者的相似度等於0。𝐵 (𝑟) 代表第i個樣板與其他樣板的平均相似度, 𝜙𝑚 (𝑟)則代表在樣板空間X中,所有樣板的平均相似度。 SE值與樣板長度m、相似閾值r有關。SE的相似閾值r在計算每一個尺度 時,必須為定值,且不隨著尺度改變而變動。常用的樣板長度m值大概是2~6 [9, 25],相似閾值r則是0.1σ~0.2σ,而文獻 [9, 26]建議取m=2,r=0.15𝜎。𝜎是 原始訊號𝑥1 𝑥2 … 𝑥𝑁 的標準差。. 3.2.2.3 多尺度演算法 給定時序訊號𝑥1 𝑥2 … 𝑥𝑁,先將這些訊號分割成數個長度為τ的資料組, 𝜏 稱為尺度因數(Scale factor),然後可再利用式( 8 )把每個資料組的資料值 (𝜏). 平均,產生許多的新的時間序列{𝑦𝑗 }。 (𝜏). 𝑦𝑗. 1 = 𝜏. 𝑗𝜏. ∑. 𝑥 1. (𝑗−1)𝜏+1. 𝑗. 𝑁 𝜏. (8). 以上的步驟稱之為粗粒化(Coarse-Grained) [9],每一個時間序列的長度 等於原始序列的長度除以尺度因數τ。圖 6為粗粒化過程的示意圖。. 10.

(23) 圖 6 粗粒化示意圖. 3.2.2.4 多尺度熵演算法 多尺度熵的演算法是將時序訊號𝑥1 𝑥2 … 𝑥𝑁 經過粗粒化計算後,對每一 (𝜏). 個尺度的時間序列{𝑦𝑗 }進行SE的計算。圖 7為MSE演算法的流程圖。 由於熵值計算屬於統計的方法,時序訊號長度N的大小會對SE計算精度 產生誤差。此外,由於計算𝜙𝑚 (𝑟)時,閥值r正比於時序訊號的標準差,因此 訊號振幅的放大縮小皆不會影響SE之計算,所以在實際量測時,不須隨不同 機械而調整電路增益值的變化,可以省去調整的時間。. 11.

(24) 圖 7 多尺度熵演算法流程. 3.2.3多尺度方均根(Multiscale Root Mean Square, MSRMS) 本論文提出多尺度方均根演算法,其概念是使用多尺度演算法,將訊號 高頻成分逐次濾除,再計算其RMS值,因此MSRMS可視為估計訊號能量分 (𝜏). 布的演算法。MSE是將時序訊號做粗粒化後,對每一個尺度的時間序列{𝑦𝑗 } 進行取樣熵計算;而MSRMS則是將時序訊號粗粒化後,對每一個尺度的時 (𝜏). 間序列{𝑦𝑗 }進行方均根值的計算,即可求得時序訊號𝑥1 𝑥2 … 𝑥𝑁 的MSRMS。 圖 8為MSRMS的流程圖。. 12.

(25) 圖 8 多尺度方均根演算法流程. 3.3 特徵選取 3.3.1費雪法( Fisher Score, FS) 錯誤診斷系統的特徵選取部分,本研究使用費雪法(Fisher Score, FS) [14, 15, 16, 17],FS 屬於區別分析的一種,而區別分析的概念是在樣本歸屬 群集已知的情況下,使用變數來建立區別函數,以比較群集間的差異。並找 出在不同群集間,最具區別能力的變數。最後透過區別函數來預測新樣本屬 於那一群集 [27],若兩群集較為分開,代表區別函數的鑑別能力很好;若兩 群較為重疊,則代表區別函數的鑑別能力較弱。圖 9 為區別分析示意圖。 假設有兩個變數 X 與 Y,兩橢圓代表兩個族群 A 與 B 有部分相互重疊影響。 區別分析就是找出能劃分 A 與 B 兩族群的直線Ⅱ,直線 L 即是區別函數圖. 13.

(26) 形,線上每一點可由 X 與 Y 兩變數轉換而得,直線 L 上的分界點 b,將 L 值 分為兩部分,作為區分 A、B 兩族群之依據。. L 圖 9 區別分析示意圖 [28] FS 在分辨不同的兩類錯誤時,將選取較為重要的特徵進行辨識。以 FS 計算第 k 個特徵對於辨識第 i 類與第 j 類的重要性,其公式如下:. 𝑗. 其中. =. (. ). 𝑗. 𝜎2. 2. (9). 𝜎𝑗2. 為第 i 類第 k 個特徵的平均值,𝜎 為第 i 類第 k 個特徵的標準差。 𝑁. 1 ∑ = 𝑁𝑚. ( 10 ). 𝑚. 𝑚 1. 𝜎. =√. 𝑁. 1 𝑁𝑚. 1. ∑( 𝑚 1. 14. 𝑚. )2. ( 11 ).

(27) 𝑚. 為第 i 類第 m 個樣本的第 k 個特徵,𝑁𝑚 是第 i 類狀況的樣本個數。 計算出特徵的重要性後,再依重要性排序,並在每類比較中挑選出重要. 性最高的特徵作為辨識時使用的特徵。本研究是將各類兩兩一組做 FS 計算 後,找出每種組合 FS 最高的特徵在第幾個尺度,將每組最重要的特徵,所 有情況的特徵併在一起,去除掉重複選取到的特徵後,完成特徵選取步驟。 接下來舉個例子來闡述本論文 FS 的方法:比較 ABC 三類,每類有四個 特徵,兩兩一組取 FS,有 3 種組合,其經過 FS 計算後的值如圖 10 所示, 可以發現這三組經過 FS 計算後,其值最高的是[1, 1, 2]這三個尺度的特徵, 去除掉重複的特徵,在此案例將使用第一與第二個特徵當作重要的特徵,完 成特徵選取步驟。. 圖 10 ABC 三類經 FS 計算後的數值列表. 3.4 類神經網路(Artificial Neural Network, ANN) 類神經網路為使用相連人工神經元來模仿生物神經網路的計算系統,利 用一組輸入和輸出資料來建立系統模型,用來解決分類、預測、決策、診斷 等等。由於類神經網路已被應用於影像識別、醫學診斷、語音辨識、股票市 場等領域,並且有著許多成功的例子。再加上近來電腦技術的進步,大幅節 省運算所需時間,因此類神經網路的應用也越趨廣泛 [29]。 類神經網路系統,是用來模擬生物神經的運作方式,利用資料不斷的學 習及錯誤修正以達到正確的輸出。生物神經網路是由神經細胞或稱神經元 (Neuron)組成,人類的大腦是由大約一千億個神經細胞所構成,每個神經細. 15.

(28) 胞又經由約一萬個神經節與其餘神經細胞相互聯結成一個生物神經網路系 統,神經細胞包含了許多不同形態與不同功能的細胞,具有以下幾種構造 [30]: 1. 神經核(Soma):就目前研究所得知,其為神經細胞呈核狀的主體結構, 主要是將神經樹收集的訊號作加總後,再作一次非線性轉換,再經由神經軸 將訊號傳送到其它的神經細胞中。 2. 神經軸(Axon):為神經細胞呈軸索狀的輸送結構,用來連接神經細胞 核,用以傳送神經細胞核產生的訊號到其他的神經細胞中。 3. 神經樹(Dendrites):分為輸入和輸出神經樹,主要是用來接收外界或 其他神經細胞傳來的訊號或用來傳送訊號到其他神經細胞,為一呈現樹枝狀 結構的輸出入單元。 4. 神經節(Synapse):為神經樹輸入和輸出間呈點狀的連結結構,神經節 主要功能是神經網路上的記憶體,表示兩個神經細胞間的聯結強度,將此聯 結用權重值(Weight)來表示其強度。 類神經網路組成的基本單位是神經元,由處理單元組成層(layer),再由 層組成網路(network),成為三個層次的基本架構。一般而言,類神經網路結 構包括以下三種結構。 (1) 輸入層:負責處理網路之輸入變數,輸入層神經元個數則由問題領域之 輸入變數個數加以決定。 (2) 隱藏層:隱藏層位於輸入層與輸出層之間,是輸入層和輸出層之間許多 神經元和鏈接所組成,其神經元個數並無標準方法可以決定,通常以試誤法 來決定其最佳數目。隱藏層的層數並沒有限定,可以不只有一層隱藏層,也 可以沒有隱藏層。但一般來說都採用一至二層隱藏層的結構。 (3) 輸出層:用以表現網路的輸出變數,負責輸出網路處理後的結果,其處 理單元數目與待預測之目標數相同。 16.

(29) 類神經網路是由許多處理單元相互連結所成,每一個處理單元的輸出透 過神經節權重值的連接,可成為其他許多處理單元的輸入。由於神經節可視 為神經網路儲存資料的地方,因此神經網路的學習即在調整神經節的強度, 也就是調整類神經網路的權重值,藉此達到特定的目標。. 3.4.1倒傳遞網路(Backpropagation Neural Network, BPN) 倒傳遞網路為含有隱藏層的多層神經網路, 1986年由 Rumelhart & McClelland [31] 提 出 學 習 演 算 法 及 通 用 差 距 學 習 法 則 (Generalized Delta Learning Rule),是目前類神經網路學習模式中最具代表性且應用最普遍的方 法。並被廣泛地應用到各個層面,如股票投資、策略管理、機電設備診斷等 等都有很好的結果。學習過程是一種監督式學習,從問題領域中取得訓練範 例以及輸出期望值,並將訓練範例輸入至網路中,BPN 其基本原理是利用 最陡坡降法(Gradient descent Method) ,反覆的調節網路中各個神經元之間 的權重值以及偏權值,透過學習過程將網路的推論輸出值逼近於期望輸出值。 藉著誤差修正來調整網路的連接權重值與偏權值,使期望輸出值與實際輸出 值的誤差函數最小化。 而BPN架構如圖 11所示:. 17.

(30) 圖 11 倒傳遞網路的架構 以下說明倒傳遞演算法的流程 [32] 第n次迭代時,網路輸出層的第 j 個類神經元的誤差函數𝑒𝑗 (𝑛)定義為: 𝑒𝑗 (𝑛) = 𝑑𝑗 (𝑛). 𝑦𝑗 (𝑛). ( 12 ). 其中𝑑𝑗 (𝑛)與𝑦𝑗 (𝑛)分別為類神經元j之期望輸出值以及運算輸出值。 而瞬間誤差平方函數E(n),代表所有輸出層類神經元的平方差瞬間值總 合,表示為: (𝑛 ) =. 1. ∑ 𝑒𝑗 2 (𝑛). ( 13 ). 𝑗. 其中集合 C 是包含所有輸出層類神經元的子集合。 令 N 為輸入訓練資料的個數,則均方差(mean squared error)定義為: 𝑁. 1 = ∑ (𝑛 ) 𝑁 1. 18. ( 14 ).

(31) 類神經網路的學習過程就是將上述的誤差函數或均方差最小化,其方法 為最陡坡降法,即每當輸入一訓練向量後,就小幅調整網路的權重值,調整 的幅度正比於誤差函數和權重值的敏感程度。 𝑗. (𝑛 ) 𝑗 (𝑛 ). (𝑛 ) =. ( 15 ). 此方程式為倒傳遞演算法的關鍵公式。此學習過程通常以一次輸進一個 訓練範例的方式進行,直到學習完所有的訓練向量,稱為一個學習循環,反 覆數個學習循環直到網路達到收斂為止。 根據連鎖律(chain rule),可將梯度表示為: (𝑛 ) = 𝑗 (𝑛 ). (𝑛 ) 𝑗 (𝑛 ). 𝑗 (𝑛 ) 𝑗. (𝑛 ). ( 16 ). 其中第 j 個類神經元在第 n 次學習循環時的輸出為 𝑗 (𝑛 ). =∑. 𝑗. 𝑦 (𝑛 ) =. 𝑗 (𝑛)表示在第. (𝑛 ) 𝑦 (𝑛 ). 𝑗 ( 𝑗 (𝑛 )). ( 17 ) ( 18 ). n 次學習循環時之第 j 個類神經元的內部激發狀態。. 根據式( 17 ) 𝑗 (𝑛 ) 𝑗. (𝑛 ). =. 𝑗. (𝑛 ). [∑. 𝑗. (𝑛 ) 𝑦 (𝑛 )] = 𝑦 (𝑛 ). ( 19 ). (𝑛 ) 𝑗 (𝑛 ). ( 20 ). 定義區域梯度函數𝛿𝑗 (𝑛): 𝛿𝑗 (𝑛) = 那麼權重值. 𝑗. (𝑛)的修正量 𝑗. 其中. 𝑗. (𝑛)就可以寫成. (𝑛) = 𝛿𝑗 (𝑛) 𝑦 (𝑛). ( 21 ). 是學習速率。因此可以根據下式來調整權重值 𝑗. (𝑛. 1) =. 𝑗. (𝑛 ). 19. 𝑗. (𝑛 ). ( 22 ).

(32) =. (𝑛 ). 𝑗. 𝛿𝑗 (𝑛)𝑦 (𝑛). 若第 j 個類神經元是輸出層的類神經元的情況時,根據式( 12 )和式( 13 ) 得到輸出層與隱藏層的關係,所以可推得式( 23 ). 1. =. (. 2. 𝑦𝑗 (𝑛)). ( (. 𝑦𝑗 (𝑛))2 ]. [ ∑𝑗 (𝑑𝑗 (𝑛) ). = (𝑑𝑗 (𝑛) 其中. (𝑛) 𝑦𝑗 (𝑛) 𝑦𝑗 (𝑛) 𝑗 (𝑛). (𝑛 ) = 𝑗 (𝑛 ). 𝛿𝑗 (𝑛) =. ( ))) ( ). ( 23 ). 𝑗 ( 𝑗 (𝑛 )). 𝑗 表示第j個類神經元的活化函數(activation. function)。. 若第 j 個類神經元是隱藏層的類神經元的情況時,由於隱藏層的類神經 元沒有其本身期望輸出值的資訊,因此其誤差函數的計算,必須由其所直接 連結的類神經元以遞迴的方式計算。 𝛿𝑗 (𝑛) =. (𝑛) 𝑦𝑗 (𝑛) (𝑛 ) = 𝑦𝑗 (𝑛) 𝑗 (𝑛) 𝑦𝑗 (𝑛). 𝑗 ( 𝑗 (𝑛 )). ( 24 ). 若使用連鎖律來計算 ,推導如下: (𝑛 ) =∑ 𝑦𝑗 (𝑛). (𝑛 ) (𝑛 ) =∑ (𝑛) 𝑦𝑗 (𝑛). (𝑛 ) (𝑛 ). 𝑗 (𝑛). ( 25 ). 假設第 k 個類神經元是輸出層的類神經元,所以根據( 23 ) (𝑛 ) = (𝑛 ). 𝛿 (𝑛 ) =. (𝑑 (𝑛). 𝑦 (𝑛)). (. (𝑛 )). ( 26 ). 將式( 25 )與式( 26 )代入式( 24 )可得: 𝛿𝑗 (𝑛) = =. 𝑗 ( 𝑗 (𝑛 )) ∑ 𝛿. 𝑗 ( 𝑗 (𝑛)) ∑(𝑑 (𝑛). (𝑛 ). 𝑦 (𝑛)). (. 𝑗 (𝑛 ). (𝑛 )). 𝑗 (𝑛 ). ( 27 ). 3.4.2 Levenberg Marquardt 法 BPN通常採用最陡坡降法的觀念,將期望輸出值與運算輸出值之間的誤 差函數最小化,藉由不斷修正網路的連結權重值,達到網路學習的目的。但 是使用這樣的方法會有一些缺點,首先是容易收斂至局部最小值;再來是當 20.

(33) 搜尋結果愈靠近最小值時,由於梯度變小,權重值更新速率變慢,因此迭代 次數變多,學習時間變長;最後是當靠近最小值時,若提高學習速率值,可 能會使收斂速率變快,但增加太多時則可能造成發散而無法收斂。而牛頓法 在靠近最佳點時擁有極佳的收斂性,因此Levenberg Marquardt法主要的精神 就是結合牛頓法跟最陡坡降法的優點 [33]。根據Lourakis [34], LM法可表. 示為非線性最小平方法,已被廣泛的應用於各領域,成為標準技術。 接下來介紹 LM 演算法 [35],假設𝐱 代表第 k 次迭代的權重值與偏權值 所組成的向量,新的權重值與偏權值所組成的向量為𝐱 +1. 𝐱. =𝐱. +1. 𝐱. 。 ( 28 ). 權重值及偏權值的變化可看作 𝐱,對於牛頓法則是 𝐱= 其中. 2. [. 2. (𝐱)]−1. (𝐱 ). (𝐱)是瞬間誤差平方函數 (𝐱)的 Hessian 矩陣, (𝐱 ) =. 1. ( 29 ) (𝐱)代表梯度。設. 𝑁. ∑ 𝑒 2 (𝐱). ( 30 ). 1. 𝑒 (𝐱)為誤差,那麼上式可表示為 (𝑋 ) = 2. (𝐱 ) =. (𝐱 ) 𝑒 (𝐱 ). (𝐱 ) (𝐱 ). (𝐱 ). ( 31 ) ( 32 ). 其中 (𝐱)為 Jacobian 矩陣, (𝑥)為誤差函數,Jacobian 矩陣表示為下式. (𝐱 ) =. 𝑒1 (𝐱) 𝑥1 𝑒2 (𝐱) 𝑥1. 𝑒1 (𝐱) 𝑥2 𝑒2 (𝐱) 𝑥2. 𝑒1 (𝐱) 𝑥 𝑒2 (𝐱) 𝑥. 𝑒𝑁 (𝐱) [ 𝑥1. 𝑒𝑁 (𝐱) 𝑥2. 𝑒𝑁 (𝐱) 𝑥 ]. ( 33 ). 𝑁. (𝐱) = ∑ 𝑒 (𝐱) 1. 21. 2. 𝑒 (𝐱). ( 34 ).

(34) 對於高斯牛頓法(Gauss-Newton method),假設 (𝑋 ) ≈ 0則式( 29 )變為 𝐱=. [ (𝐱) (𝐱)]−1 (𝐱)𝑒(𝐱). ( 35 ). Levenberg-Marquardt 法是高斯牛頓法的改進 𝐱= 為比例係數,. ]−1 (𝐱)𝑒(𝐱). [ (𝐱 ) (𝐱 ). ( 36 ). 0,為常數;I為單位矩陣。. 從式( 36 )中可看出,如果 很大,LM演算法近似於梯度下降法,而若 為 0,則是高斯牛頓法,因為使用二階導數,LM演算法比梯度法快得多,並且 [ (𝐱 ) (𝐱 ). ]為正定矩陣,所以式( 36 )的解將恆有解,以此方面來講,LM. 演算法優於高斯牛頓法,因為對於高斯牛頓法,. 是否滿秩還是一個問題。. 此外,對於給定的 ,如果求得的 𝑋能使瞬間誤差平方函數 (𝐱)降低,則 除 以係數 ;若瞬間誤差平方函數 (𝐱)增加,則 乘以係數 。LM演算法的複 雜度為 (𝑛. ),若每次反覆運算效率提高時,整體性能就能夠大為改善。. 接下來介紹LM的計算步驟: (1)給定訓練誤差允許值 、係數 、係數 值和偏權值向量,令 = 0、 =. ( 的初始值),以及初始化權重. 。. (2)計算網路輸出及瞬間誤差平方函數 (𝐱)。 (3)按照式( 33 )計算Jacobian 矩陣 (𝐱)。 (4)分別由式( 36 )與式( 30 )得到 𝐱、 (𝐱 )。 (5)若 (𝐱 ) (6)若 (𝐱 (𝐱. +1. +1. ,轉到步驟七;否則計算𝐱 )< (𝐱 ),則令 =. ) = (𝐱 )、 =. +1. 1、 =. 與 (𝐱. +1. )。. ,回到步驟二;否則令. ,並回到步驟四。. (7)停止。. 3.4.3比例共軛梯度法(Scaled Conjugate Gradient Algorithm, SCG) SCG稱為比例共軛梯度演算法,是由Moller提出的改進演算法 [36],屬 於一種具有超線性收斂速度的監督式學習演算法,主要運算方法是將在 22.

(35) Levenberg-Marquardt演算法所使用的信賴模式(Model-Trust)區域方式跟共軛 梯度法結合在一起。此演算法基於共軛梯度法,利用神經網路的二階資料, 決定搜尋方向及步長大小。並且該演算法通過採用步長縮放機制,避免了在 每次學習反覆運算中所進行的線性搜索,大大降低了計算複雜度 [37]。 網路的權重向量表示為: =. +1. 其中. 為搜索步長、. ( 37 ). 為搜尋方向 =. 其中. ( 38 ). 表示當前函數的梯度。令𝐬 =. 表示Hessian矩陣,. 𝛿 =. 𝐬. =. 定義. =. 、則. ( 39 ). 𝐬 是一個與𝜆 相關的函數,其中𝜆 為尺度因子。透過調節尺度因子使得 𝛿. 0以保證Hessian矩陣的正定性。最後得到 =. =. 𝛿. 𝜆 |. 𝐬. ( 40 ). |2. 即透過調整尺度因子可以改變步長的大小,從而加速網路的收斂。 其演算法詳細步驟如下: (1)定義權重向量 0 設定 (2) 若. 1. =. 1. =. 為. 1 與純量𝜎、𝜆1. 10−. 𝜎 (. 1). 0. 10− ̅̅̅̅ 𝜆1 = 0. 𝜆1. =1. ( 41 ). =. ,則計算二階訊息 𝜎 = =. (. 𝜎 |. | ). 𝜎. (. ). 𝜎 𝛿 =. 𝐬. 23. ( 42 ).

(36) (3)尺度因子 𝛿 : 𝛿 (4)若𝛿. (𝜆. ̅̅̅̅̅ 𝜆 )|. |2. ( 43 ). 0,則Hessian矩陣正定 𝛿. ̅̅̅̅̅ 𝜆 = (𝜆 𝛿 =. |. |2. |2. 𝜆 |. 𝛿. ). 𝜆 = ̅̅̅̅̅ 𝜆. ( 44 ). (5) 計算步長 (step size) =. k . k. ( 45 ). δk. (6) 計算比較參數 = (7) 如果. 𝛿 [ (. ). (. 𝜎. 2. )]. ( 46 ). 0則 +1. = (. +1. +1 ). ̅̅̅̅̅ 𝜆 = 0, success =true. ( 47 ). 若 k 同餘(mod) N為0,則重新運行演算法 +1. =. +1. 否則產生一新共軛搜尋方向 = +1. |. 2 +1 |. =. +1 1. 若  k  0.75 , 則縮小參數尺度𝜆 = 𝜆 否則.  k   k , success =false 24. +1. ( 48 ).

(37) (8) 若. 0.. ,則增加參數尺度 𝜆 =𝜆. (9) 如果. ≠ 0 , 則設 =. 𝛿 (1 Δ ) | |2. ( 49 ). 1並回到步驟二,否則立即中止,然後返回. +1 ,當作所需的最小值。. 3.5 總結 最後總結本論文所用的方法,本論文使用的軸承錯誤診斷方法如圖 12 所示。首先是資料採集;接下來特徵擷取的部分使用方均根值、多尺度熵、 多尺度方均根這三種方法;再來是特徵選取部分,本論文使用費雪法選出重 要的特 徵; 最後 分 類的部 分, 本論 文 使用倒 傳遞 網路 架 構,以 及使用 Levenberg-Marquardt 法與比例共軛梯度法這兩種方法訓練網路。. 25.

(38) Data acquisition CWRU Singal. Segmentation Feature extraction MSE. MSRMS. Fisher score. Fisher score. RMS. Feature seletion. combination Classification Backpropagation Neural Networks LM. SCG. result. result. 圖 12 本論文軸承錯誤診斷方法. 26.

(39) 第四章 實驗結果與討論 接下來將介紹本論文所使用的軸承振動訊號資料,以及實驗步驟與流程, 並設計四組實驗,最後得出實驗結果並討論。. 4.1 實驗步驟與結果 本論文使用 CWRU 的軸承振動訊號資料 [38]驗證本系統的辨識率。圖 13 為 CWRU 實驗平台的照片,軸承異常發生的位置是位於驅動端(drive end, DE);軸承的異常狀態包含以下幾大類: (1) 正常狀態 (Normal, N) (2) 內圈缺陷(Inner raceway fault, I) (3) 滾珠缺陷(Ball fault, B) (4) 外圈缺陷於3點鐘方向(Outer raceway faults located at 3 o’clock, O3) (5) 外圈缺陷於6點鐘方向(Outer raceway faults located at 6 o’clock, O6) (6) 外圈缺陷於12點鐘方向(Outer raceway faults located at 12 o’clock, O12). 圖 13 CWRU 的實驗平台. 27.

(40) 其每一種異常狀態,均考慮缺陷直徑7 mil、14mil以及21mil,深度為11mil 的三種不同大小的孔洞(1mil=0.001 inches)。馬達的轉速有1730、1750、1772 以及1797 rpm四種狀況。加速規放置在風扇端(fan end, FE)量取系統的振動訊 號。取樣頻率是48000Hz。每筆訊號的長度約為十秒。 本論文的流程如圖 14,首先將CWRU的資料作切割後,分別作特徵擷取, 之後使用FS做本研究特徵選取的部分,最後使用前饋式倒傳遞網路做分類。 接下來本論文會做四個實驗來做細部的探討,第一個實驗會比較單尺度與多 尺度的差別,以及比例共軛梯度法與Levenberg Marquardt法對辨識率的影響 ;第二個實驗會探討本論文所提出來MSRMS的演算法與前人所使用的MSE 的差別;第三個實驗則是將MSE與MSRMS的特徵合併,與MSE、MSRMS 的比較;第四個實驗,探討MSE與MSRMS的特徵合併後,經由FS做特徵選 取後,其辨識率、實驗時間、隱藏層神經元個數的比較。詳細實驗資料可見 附錄。. CWRU Singal Segmentation. MSE. MSRMS. Fisher score. Fisher score. Feed-forward Backpropagation Neural Networks result 圖 14 本論文實驗流程圖 28.

(41) 4.1.1實驗一 首先,實驗一要探討,CWRU 的軸承振動訊號使用 RMS 與 MSRMS 之 間的差別,並比較使用比例共軛梯度法與 Levenberg Marquardt 法將資料做 訓練對辨識率的影響。 實驗一的流程圖如圖 15 所示,細部流程如下: 步驟一:振動訊號資料有 48 萬左右個點,將資料每長度 1024 個點切割 成一個樣本;以及將資料每長度 2048 個點切割成一個樣本;最後將資料每 長度 4096 個點切割成一個樣本。其每種狀態詳細的樣本數如表 3 至表 5。 步驟二:使用步驟一將振動訊號資料切割樣本後,進行樣本的特徵擷取, 實驗一將樣本的 RMS 與 MSRMS 當作特徵,因此在此步驟將計算每個樣本 的 RMS 與尺度 1 至 20 的 MSRMS。 步驟三:7mil 與 21mil 的資料有 Normal 與五種異常狀態資料(Ball、IR、 OR3、OR6、OR12) 共六類,14mil 則有 Normal、Ball、IR 與 OR6 共四類, 將資料分為訓練資料與驗證資料以及測試資料。而本論文訓練資料占整體資 料的百分比為 50%、驗證資料為 15%、測試資料為 35%。 步驟四:使用 MATLAB 內建的函式庫,分類器為前饋式倒傳遞網路, 並使用 LM 法(MATLAB 函數 trainlm)與 SCG(MATLAB 函數 trainscg)將資料 做訓練,其細部參數訓練如表 6 與表 7。隱藏層使用正切雙彎曲轉移函式 (MATLAB 函數 tansig),而輸出層使用線性轉移函數(MATLAB 函數 purelin), 如圖 16 與圖 17 表示。由於隱藏層神經元個數的設定,並沒有固定,而是 要經由試誤法(Try and Error)來決定,所以本論文隱藏層神經元個數的設定的 方法是使用式( 50 ),M 的範圍是 1 到 15,將輸入層神經元個數加上每種 M 值測試 10 次,取 10 次實驗辨識率的平均後,找出辨識率最高的 M 值,最 後使用此 M 值加上輸入層神經元個數,做為本實驗隱藏層的神經元個數。 其流程圖如圖 18。實驗各進行 200 次,最後統計 200 次實驗的平均辨識率。 29.

(42) 為了增加實驗的可靠度,本實驗會亂數將資料分類。其詳細辨識率如表 8 至表 10。 隱藏層神經元個數=輸入層神經元個數+M, M=1~15. ( 50 ). CWRU Singal Segmentation. RMS. MSRMS. Backpropagation Neural Networks LM. SCG. result. result 圖 15 實驗一流程圖. 表 3 長度 1024 各個錯誤種類之樣本數 實驗長度. 1024. 實驗轉速 缺陷直徑. 1730 rpm 7. N. 14. 1750 rpm 21. 7. 474. 14. 1772 rpm 21. 7. 473. 14. 21. 472. I. 474. 473. 477. 474. 476. 479. 474. 372. 473. B. 477. 475. 475. 475. 475. 475. 475. 474. 475. O3. 474. 473. 474. 475. 473. O6. 476. 477. 475. 476. 475. O12. 473. 474. 471. 475. 471. 477. 30. 475. 478 473. 477 474.

(43) 表 4 長度 2048 各個錯誤種類之樣本數 實驗長度. 2048. 實驗轉速 缺陷直徑. 1730 rpm 7. N. 14. 1750 rpm 21. 7. 237. 14. 1772 rpm 21. 7. 236. 14. 21. 236. I. 237. 236. 238. 237. 238. 239. 237. 186. 236. B. 238. 237. 237. 237. 237. 237. 237. 237. 237. O3. 237. 236. 237. 237. 236. O6. 238. 238. 237. 238. 237. O12. 236. 237. 235. 237. 235. 238. 237. 239 236. 238 237. 表 5 長度 4096 各個錯誤種類之樣本數 實驗長度. 4096. 實驗轉速 缺陷直徑. 1730 rpm 7. N. 14. 1750 rpm 21. 7. 118. 14. 1772 rpm 21. 7. 118. 14. 21. 118. I. 118. 118. 119. 118. 119. 119. 118. 93. 118. B. 119. 118. 118. 118. 118. 118. 118. 118. 118. O3. 118. 118. 118. 118. 118. O6. 119. 119. 118. 119. 118. O12. 118. 118. 117. 118. 117. 119. 31. 118. 119 118. 119 118.

(44) 圖 16 正切雙彎曲轉移函式 tansig [37]. 圖 17 線性轉移函數 purelin [37]. 圖 18 隱藏層的神經元個數流程圖. 32.

(45) 表 6 函數 trainlm 訓練參數 訓練參數. 設定值. 描述. net.trainParam.epochs. 1000. 設定訓練的最大循環次數. net.trainParam.goal. 0. 設定性能目標. net.trainParam.max_fail. 5. 設定最大驗證數據失敗次數. net.trainParam.min_reduc 1. 用於記憶/速度交換的係數. net.trainParam.min_grad. 1.00E-10. 設定最小性能梯度. net.trainParam.mu. 0.001. μ 的初始值. net.trainParam.mu_dec. 0.1. μ 的減少係數. net.trainParam.mu_inc. 10. μ 的增加係數. net.trainParam.mu_max. 1.00E+10. μ 的最大值. 訓練參數. 設定值. 描述. net.trainParam.epochs. 1000. 設定訓練的最大循環次數. net.trainParam.goal. 0. 設定性能目標. net.trainParam.max_fail. 6. 設定最大驗證數據失敗次數. net.trainParam.min_grad. 1.00E-06. 設定最小性能梯度. net.trainParam.sigma. 5.00E-05. 二階偏導逼近權值變化. net.trainParam.lambda. 5.00E-07. Hessian 矩陣調整參數. 表 7 函數 trainscg 訓練參數. 33.

(46) 圖 19 單尺度與多尺度使用 SCG 法的辨識率. 圖 20 單尺度與多尺度使用 LM 法的辨識率. 34.

(47) 圖 21 MSRMS 使用 LM 法與 SCG 的辨識率 表 8 實驗一資料長度為 1024 之辨識率 MSRMS(LM). RMS(LM). MSRMS(SCG). RMS(SCG). 1730-7mil. 99.300%. 62.152%. 99.485%. 62.135%. 1730-14mil. 98.023%. 64.692%. 91.631%. 64.168%. 1730-21mil. 93.652%. 54.915%. 87.116%. 55.481%. 1750-7mil. 99.559%. 76.114%. 99.515%. 76.488%. 1750-14mil. 98.620%. 62.721%. 93.621%. 62.975%. 1750-21mil. 96.207%. 54.389%. 91.045%. 54.837%. 1772-7mil. 99.706%. 75.011%. 99.685%. 75.370%. 1772-14mil. 96.731%. 66.380%. 92.144%. 66.413%. 1772-21mil. 96.018%. 58.412%. 92.407%. 58.520%. 35.

(48) 表 9 實驗一資料長度為 2048 之辨識率 MSRMS(LM). RMS(LM). MSRMS(SCG). RMS(SCG). 1730-7mil. 99.788%. 71.863%. 99.842%. 72.684%. 1730-14mil. 98.992%. 70.224%. 96.804%. 70.645%. 1730-21mil. 97.396%. 68.992%. 95.174%. 69.842%. 1750-7mil. 99.952%. 82.669%. 99.968%. 83.289%. 1750-14mil. 98.920%. 67.711%. 96.136%. 68.152%. 1750-21mil. 98.381%. 65.437%. 96.515%. 66.327%. 1772-7mil. 99.997%. 82.131%. 99.997%. 82.094%. 1772-14mil. 98.115%. 74.700%. 96.714%. 75.018%. 1772-21mil. 98.258%. 70.045%. 96.898%. 70.486%. 表 10 實驗一資料長度為 4096 之辨識率 MSRMS(LM). RMS(LM). MSRMS(SCG). RMS(SCG). 1730-7mil. 99.994%. 83.879%. 100.000%. 83.494%. 1730-14mil. 99.021%. 75.982%. 98.657%. 76.386%. 1730-21mil. 99.196%. 75.843%. 98.956%. 76.919%. 1750-7mil. 99.990%. 89.743%. 99.998%. 89.674%. 1750-14mil. 99.509%. 71.235%. 98.617%. 72.313%. 1750-21mil. 99.456%. 72.950%. 99.433%. 73.046%. 1772-7mil. 100.000%. 92.617%. 100.000%. 92.575%. 1772-14mil. 99.096%. 77.401%. 97.946%. 79.228%. 1772-21mil. 99.528%. 77.131%. 99.361%. 78.226%. 36.

(49) 觀察圖 19 至圖 21 與表 8 至表 10,在資料長度 1024 時,MSRMS 使 用 LM 的辨識率,除了在 1730-7mil 少於 MSRMS 使用 SCG 的辨識率,其他 狀況的辨識率,都是 LM 高於 SCG,最高可好於 SCG 的辨識率 6.536%。雖 在單尺度時,SCG 辨識率幾乎高於 LM。但無論是用 LM 或 SCG,MSRMS 的辨識率都高於 RMS 許多,而且在多尺度時,使用 LM 的辨識率幾乎會高 於 SCG,所以本論文將採用多尺度配合 LM 演算法作為接下來實驗的方法。. 4.1.2實驗二 接下來,實驗二要探討本論文提出的 MSRMS 與前人使用的 MSE 差別。 實驗二的流程圖如圖 22 所示,細部流程如下: 步驟一:振動訊號資料有 48 萬左右個點,將資料每長度 1024 個點切割 成一個樣本;以及將資料每長度 2048 個點切割成一個樣本;最後將資料每 長度 4096 個點切割成一個樣本。其每種狀態詳細的樣本數如表 3 至表 5。 步驟二:進行樣本的特徵擷取,本實驗將樣本的 MSRMS 與 MSE 分別 當作特徵,因此在步驟二將計算每個樣本尺度一至二十的 MSRMS 與 MSE。 步驟三:7mil 與 21mil 的資料有 Normal 與五種異常狀態資料(Ball、IR、 OR3、OR6、OR12) 共六類,14mil 則有 Normal、Ball、IR 與 OR6 共四類, 將資料分為訓練資料與驗證資料以及測試資料。而本論文訓練資料占整體資 料的百分比為 50%、驗證資料為 15%、測試資料為 35%。 步 驟 四 : 使 用 MATLAB 內 建 的 函 式 庫 , 使 用 前 饋 式 倒 傳 遞 網 路 (feed-forward backpropagation network)並使用 LM 法(MATLAB 函數 trainlm) 將資料做訓練,圖 23 為 MSE 與 MSRMS 的辨識率,其詳細辨識率如 表 11 至表 13。. 37.

(50) CWRU Singal. Segmentation. MSE. MSRMS. Backpropagation Neural Networks LM. result 圖 22 實驗二流程圖. 圖 23 MSE 與 MSRMS 的辨識率. 38.

(51) 表 11 實驗二資料長度為 1024 之辨識率 MSE. MSRMS. 1730-7mil. 86.169%. 99.300%. 1730-14mil. 92.478%. 98.023%. 1730-21mil. 84.056%. 93.652%. 1750-7mil. 93.198%. 99.559%. 1750-14mil. 90.080%. 98.620%. 1750-21mil. 84.060%. 96.207%. 1772-7mil. 92.828%. 99.706%. 1772-14mil. 87.608%. 96.731%. 1772-21mil. 83.517%. 96.018%. 表 12 實驗二資料長度為 2048 之辨識率 MSE. MSRMS. 1730-7mil. 96.400%. 99.788%. 1730-14mil. 98.685%. 98.992%. 1730-21mil. 95.689%. 97.396%. 1750-7mil. 98.234%. 99.952%. 1750-14mil. 96.742%. 98.920%. 1750-21mil. 94.840%. 98.381%. 1772-7mil. 98.526%. 99.997%. 1772-14mil. 94.968%. 98.115%. 1772-21mil. 94.898%. 98.258%. 39.

(52) 表 13 實驗二資料長度為 4096 之辨識率 MSE. MSRMS. 1730-7mil. 99.480%. 99.994%. 1730-14mil. 99.642%. 99.021%. 1730-21mil. 99.302%. 99.196%. 1750-7mil. 99.729%. 99.990%. 1750-14mil. 99.057%. 99.509%. 1750-21mil. 99.218%. 99.456%. 1772-7mil. 99.700%. 100.000%. 1772-14mil. 98.647%. 99.096%. 1772-21mil. 99.210%. 99.528%. 觀察表 11,發現資料長度為1024時MSRMS的辨識率相當高,在轉速 1730rpm的7mil時,辨識率高達99.3%,遠遠高於MSE的86.169%,高出辨識 率13.131%;MSRMS與MSE辨識率最接近的是在轉速1730rpm的14mil時, MSRMS的辨識率為98.023%,高出MSE的辨識率5.545%。觀察表 12,可發 現在資料長度為2048時,MSRMS的辨識率也皆高於MSE與RMS,在轉速 1750rpm的21mil時MSRMS辨識率98.381%,高出MSE辨識率3.541%。觀察 表 13,在資料長度為4096時,MSRMS的辨識率仍幾乎高於MSE,在轉速 1730rpm的7mil時MSRMS辨識率為99.994%,高出MSE辨識率0.514%。只有 轉速1730rpm的14mil與21mil,MSE的辨識率比MSRMS高。 由以上表格數據與觀察圖 23,可得知MSRMS的辨識率幾乎好過MSE, 尤其在短資料長度1024與2048時,其差距會更明顯。 接下來畫出輸入特徵的error bar,由於若把所有情況畫出將太瑣碎,本 研究只採用轉速1730與7mil進行討論。觀察圖 24與圖 25,可發現在資料長 40.

(53) 度1024時,比較MSE與MSRMS,MSE六種狀態的資料幾乎都混在一起,所 以辨識率沒有MSRMS高;觀察圖 24至圖 31可發現隨著資料長度增加,資 料特徵越集中;但MSE比MSRMS更容易受到資料長度的影響,其變動較大。 基於上述實驗,本論文提出短資料長度時,使用MSRMS做特徵擷取的 方式,並配合倒傳遞網路做資料的訓練,將比MSE有更好的系統辨識率。. MSRMS-1024-1730-7mil 0.25 N I B O3 O6 O12. 0.2. RMS. 0.15. 0.1. 0.05. 0. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 20. 圖 24 MSRMS 於資料長度 1024 轉速 1730-7mil 時的 error bar. 41.

(54) MSE-1024-1730-7mil N I B O3 O6 O12. 3. Entropy. 2.5. 2. 1.5. 1. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 20. 圖 25 MSE 於資料長度 1024 轉速 1730-7mil 時的 error bar MSRMS-2048-1730-7mil 0.24 N I B O3 O6 O12. 0.22 0.2 0.18. RMS. 0.16 0.14 0.12 0.1 0.08 0.06 0.04. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 20. 圖 26 MSRMS 於資料長度 2048 轉速 1730-7mil 時的 error bar 42.

(55) MSE-2048-1730-7mil 2.6 N I B O3 O6 O12. 2.4. 2.2. 2. Entropy. 1.8. 1.6. 1.4. 1.2. 1. 0.8. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 20. 圖 27 MSE 於資料長度 2048 轉速 1730-7mil 時的 error bar MSRMS-4096-1730-7mil 0.24 N I B O3 O6 O12. 0.22 0.2 0.18. RMS. 0.16 0.14 0.12 0.1 0.08 0.06 0.04. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 圖 28 MSRMS於資料長度4096轉速1730-7mil時的error bar 43. 20.

(56) MSE-4096-1730-7mil 2.6 N I B O3 O6 O12. 2.4. 2.2. 2. Entropy. 1.8. 1.6. 1.4. 1.2. 1. 0.8. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 圖 29 MSE 於資料長度 4096 轉速 1730-7mil 時的 error bar MSE-Normal-1730-7mil 2.8 MSE1024 MSE2048 MSE4096 2.6. 2.4. Entropy. 2.2. 2. 1.8. 1.6. 1.4. 0. 2. 4. 6. 8. 10 scale. 12. 14. 16. 18. 20. 圖 30 MSE 於 1730-7mil 時不同長度的 error bar 比較 44. 20.

(57) MSRMS-Normal-1730-7mil 0.09 MSRMS1024 MSRMS2048 MSRMS4096. 0.085 0.08. RMS. 0.075 0.07 0.065 0.06 0.055 0.05 0.045. 0. 2. 4. 6. 8. 10 12 scale. 14. 16. 18. 20. 圖 31 MSRMS 於 1730-7mil 時不同長度的 error bar 比較. 4.1.3實驗三 接下來,實驗三要探討若將MSE與MSRMS兩者特徵合併,對辨識率的 影響。 實驗三的流程圖如圖 32所示,細部流程如下: 步驟一:振動訊號資料有48萬左右個點,將資料每長度1024個點切割成 一個樣本;以及將資料每長度2048個點切割成一個樣本;最後將資料每長度 4096個點切割成一個樣本。其每種狀態詳細的樣本數如表 3至表 5。 步驟二:進行樣本的特徵擷取,本實驗將樣本的MSE與MSRMS兩者特 徵合併,總共四十個特徵。 步驟三:7mil與21mil的資料有Normal與五種異常狀態資料(Ball、IR、 OR3、OR6、OR12) 共六類,14mil則有Normal、Ball、IR與OR6共四類,將 資料分為訓練資料與驗證資料以及測試資料。而本論文訓練資料占整體資料. 45.

(58) 的百分比為50%、驗證資料為15%、測試資料為35%。 步 驟 四 : 使 用 MATLAB 內 建 的 函 式 庫 , 使 用 前 饋 式 倒 傳 遞 網 路 (feed-forward backpropagation network)並使用LM法(MATLAB函數trainlm)將 資料做訓練,圖 33為MSE、MSRMS與MSE+MSRMS的辨識率比較,其詳 細辨識率如表 14至表 16。 觀察圖 33 與表 14 至表 16,可以發現將 MSE 與 MSRMS 合併後的辨 識率,除了在資料長度 4096 轉速 1730-14mil 時,MSE+MSRMS 辨識率略小 於 MSE,其他情況的辨識率都比 MSE 高;而與 MSRMS 比較的結果, MSE+MSRMS 的辨識率幾乎都有改善。. CWRU Singal Segmentation. MSE. MSRMS. combination Backpropagaion Neural Networks LM result 圖 32 實驗三流程圖 46.

(59) 圖 33 MSE、MSRMS 與 MSE+MSRMS 的辨識率. 表 14 實驗三資料長度為 1024 之辨識率 MSE. MSRMS. MSE+MSRMS. 1730-7mil. 86.169%. 99.300%. 99.361%. 1730-14mil. 92.478%. 98.023%. 98.604%. 1730-21mil. 84.056%. 93.652%. 94.967%. 1750-7mil. 93.198%. 99.559%. 99.399%. 1750-14mil. 90.080%. 98.620%. 99.064%. 1750-21mil. 84.060%. 96.207%. 97.148%. 1772-7mil. 92.828%. 99.706%. 99.664%. 1772-14mil. 87.608%. 96.731%. 96.809%. 1772-21mil. 83.517%. 96.018%. 97.860%. 47.

(60) 表 15 實驗三資料長度為 2048 之辨識率 MSE. MSRMS. MSE+MSRMS. 1730-7mil. 96.400%. 99.788%. 99.913%. 1730-14mil. 98.685%. 98.992%. 99.578%. 1730-21mil. 95.689%. 97.396%. 98.247%. 1750-7mil. 98.234%. 99.952%. 99.953%. 1750-14mil. 96.742%. 98.920%. 99.571%. 1750-21mil. 94.840%. 98.381%. 99.007%. 1772-7mil. 98.526%. 99.997%. 99.971%. 1772-14mil. 94.968%. 98.115%. 98.249%. 1772-21mil. 94.898%. 98.258%. 99.289%. 表 16 實驗三資料長度為 4096 之辨識率 MSE. MSRMS. MSE+MSRMS. 1730-7mil. 99.480%. 99.994%. 99.992%. 1730-14mil. 99.642%. 99.021%. 99.470%. 1730-21mil. 99.302%. 99.196%. 99.514%. 1750-7mil. 99.729%. 99.990%. 99.992%. 1750-14mil. 99.057%. 99.509%. 99.877%. 1750-21mil. 99.218%. 99.456%. 99.790%. 1772-7mil. 99.700%. 100.000%. 99.996%. 1772-14mil. 98.647%. 99.096%. 99.417%. 1772-21mil. 99.210%. 99.528%. 99.784%. 48.

(61) 4.1.4實驗四 接下來,實驗四要探討將MSE與MSRMS兩者特徵合併後,使用FS的方 法,對實驗的影響。 實驗四的流程圖如圖 34所示,細部流程如下: 步驟一:振動訊號資料有48萬左右個點,將資料每長度1024個點切割成 一個樣本;以及將資料每長度2048個點切割成一個樣本;最後將資料每長度 4096個點切割成一個樣本。其每種狀態詳細的樣本數如表 3至表 5。 步驟二:進行樣本的特徵擷取,7mil與21mil的資料有Normal與五種異常 狀態資料(Ball、IR、OR3、OR6、OR12) 共六類,所以兩兩一組去比較,總 共有15種情況;14mil則有Normal、Ball、IR與OR6共四類,所以兩兩一組去 比較,總共有6種情況。找出每種情況FS最高的特徵在第幾個尺度,將所有 情況的特徵併在一起,去掉重複選取到的特徵。例如MSE有20個特徵,其 14mil算出FS最高的尺度特徵,其六種情況分別是[1, 3, 7, 1, 9, 7],那本論文 就使用[1, 3, 7, 9]當作本實驗的特徵。本實驗將樣本的MSE與MSRMS兩者特 徵分別取FS,再將經過FS選取的MSE與MSRMS特徵合併在一起,當作本實 驗的特徵。FS特徵選取流程如圖 35所示。 步驟三:7mil與21mil的資料有Normal與五種異常狀態資料(Ball、IR、 OR3、OR6、OR12) 共六類,14mil則有Normal、Ball、IR與OR6共四類,將 資料分為訓練資料與驗證資料以及測試資料。而本論文訓練資料占整體資料 的百分比為50%、驗證資料為15%、測試資料為35%。 步驟四:使用 MATLAB 內建的函式庫,使用前饋式倒傳遞網路(feed-forward backpropagation network)並使用 LM 法(MATLAB 函數 trainlm)將資料做訓練。 圖 36 為 MSE+MSRMS 與 MSE+MSRMS+FS 的辨識率比較圖,圖 37 為 MSE+MSRMS+FS、MSE 與 MSRMS 的辨識率比較圖,其詳細辨識率如表 17 至表 19,平均實驗時間如表 20,實驗平均隱藏層神經元個數如表 21。 49.

(62) CWRU Singal Segmentation. MSE. MSRMS. combination. MSE. MSRMS. Fisher score. Fisher score. combination. Backpropagation Neural Networks LM result 圖 34 實驗四流程圖. 兩兩一組做Fisher score 計算. 找出每種組合Fisher score最高的特徵在第幾個尺度. 所有情況的特徵併在一起,去除 掉重複選取到的特徵. 完成特徵選取步驟 圖 35 FS 特徵選取流程圖 50.

(63) 圖 36 MSE+MSRMS 與 MSE+MSRMS+FS 的辨識率. 圖 37 MSE+MSRMS+FS、MSE 與 MSRMS 的辨識率. 51.

(64) 表 17 實驗四資料長度為 1024 之辨識率 MSE. MSRMS. MSE+MSRMS MSE+MSRMS+FS. 1730-7mil. 86.169%. 99.300%. 99.361%. 99.782%. 1730-14mil. 92.478%. 98.023%. 98.604%. 98.527%. 1730-21mil. 84.056%. 93.652%. 94.967%. 96.364%. 1750-7mil. 93.198%. 99.559%. 99.399%. 99.428%. 1750-14mil. 90.080%. 98.620%. 99.064%. 99.107%. 1750-21mil. 84.060%. 96.207%. 97.148%. 98.133%. 1772-7mil. 92.828%. 99.706%. 99.664%. 99.765%. 1772-14mil. 87.608%. 96.731%. 96.809%. 96.261%. 1772-21mil. 83.517%. 96.018%. 97.860%. 98.462%. 表 18 實驗四資料長度為 2048 之辨識率 MSE. MSRMS. MSE+MSRMS. MSE+MSRMS+FS. 1730-7mil. 96.400%. 99.788%. 99.913%. 99.943%. 1730-14mil. 98.685%. 98.992%. 99.578%. 99.580%. 1730-21mil. 95.689%. 97.396%. 98.247%. 99.075%. 1750-7mil. 98.234%. 99.952%. 99.953%. 99.844%. 1750-14mil. 96.742%. 98.920%. 99.571%. 99.860%. 1750-21mil. 94.840%. 98.381%. 99.007%. 99.542%. 1772-7mil. 98.526%. 99.997%. 99.971%. 99.974%. 1772-14mil. 94.968%. 98.115%. 98.249%. 98.422%. 1772-21mil. 94.898%. 98.258%. 99.289%. 99.627%. 52.

(65) 表 19 實驗四資料長度為 4096 之辨識率 MSE. MSRMS. MSE+MSRMS. MSE+MSRMS+FS. 1730-7mil. 99.480%. 99.994%. 99.992%. 100.000%. 1730-14mil. 99.642%. 99.021%. 99.470%. 99.325%. 1730-21mil. 99.302%. 99.196%. 99.514%. 99.845%. 1750-7mil. 99.729%. 99.990%. 99.992%. 99.984%. 1750-14mil. 99.057%. 99.509%. 99.877%. 99.925%. 1750-21mil. 99.218%. 99.456%. 99.790%. 99.956%. 1772-7mil. 99.700%. 100.000%. 99.996%. 99.994%. 1772-14mil. 98.647%. 99.096%. 99.417%. 99.510%. 1772-21mil. 99.210%. 99.528%. 99.784%. 99.966%. 表 20 實驗平均所需訓練時間 平均所需訓練時間(sec) MSE. 5663. MSRMS. 23001. MSE+MSRMS. 51021. MSE+MSRMS+FS. 5541. 表 21 實驗平均隱藏層神經元個數 平均隱藏層神經元個數 MSE. 26.44. MSRMS. 28.3. MSE+MSRMS. 46.11. MSE+MSRMS+FS. 19.74. 53.

(66) 觀察圖 36 與圖 37 與表 17 至表 21,可發現 MSE+MSRMS 使用 FS 後, 其辨識率幾乎都比 MSE+MSRMS 高,這是因為特徵數過多時容易產生 overfitting 的現象,使得辨識率下降。使用 FS 後不但訓練時間縮短,只需要 MSE+MSRMS 運算時間的九分之一,隱藏層所需神經元減少為二分之一, 辨識率也有些微提高。並且辨識率也幾乎好過 MSE 與 MSRMS。當輸入特 徵個數過多時,對於類神經網路辨識所需時間會有影響,若使用 FS 可減少 辨識時間、減少特徵個數以及增加辨識率。. 54.

(67) 第五章 結論與建議 近年來機械的錯誤診斷日漸重要,本研究提出結合 MSE 的多尺度演算 法與統計方法中的 RMS,開發了新的演算法稱為 MSRMS,並將 MSE 與 MSRMS 分別使用 FS 做特徵選取後合併特徵,經由倒傳遞網路訓練,並將 這套流程應用於 CWRU 的軸承訊號上,獲得結論與建議如下。. 5.1 結論 1. 本研究提出新的演算法稱作 MSRMS,並建立一套錯誤診斷流程,使用 MSE 與 MSRMS 兩種演算法做特徵擷取,並使用 FS 選取重要的特徵, 最後使用倒傳遞網路訓練,以供辨識軸承的不同種類錯誤。 2. 本研究比較 SCG 與 LM 法,發現多尺度時使用 LM 法的辨識率較高。 3. 本研究比較 MSE 與 MSRMS,使用 MSRMS 的辨識率比 MSE 高。此外, MSRMS 比 MSE 較不受到資料長度的影響。 4. 本研究結合 MSE 與 MSRMS 的特徵,發現辨識率比單獨使用 MSE 或 MSRMS 的辨識率還高。 5. 本研究把 MSE 與 MSRMS 分別使用 FS 後,將重要的特徵合併,發現這 樣的分析方法不但比 MSE 的辨識率高,在資料長度 4096 時的辨識率都 有 99.3%以上,而且使用 FS 也成功地降低特徵數,也減少了使用倒傳遞 網路分類時的實驗時間與 overfitting 的現象。此外,此分析方法在短資料 長度時,更能展現本研究所使用方法的好處:振動訊號分析所需的點數 減少,樣本數增加,更能代表樣本的泛用性。. 5.2 建議 1. 本研究所使用的類神經參數為大略粗估之數值,未來可進行更多的實驗 來找出最佳的實驗參數,並尋找更多其他最佳化方法,使倒傳遞網路在 錯誤診斷上能更加有效與精確。 55.

(68) 2. 可再加上其他特徵做為類神經網路輸入變數,也許能加強類神經網路之 辨識率。 3. 一般類神經網路訓練資料與測試資料長短之比例沒有一定的限制,所以 應比較不同資料長短之比例下,對於演算法的影響。 4. 找尋其他特徵選取方式,以減少 FS 的盲點。. 56.

(69) 參考文獻 , 台灣區工具機暨零組件工 [1] 黃建中, 「2011 年工具機產銷年度統計」 業同業公會網站, http://www.tmba.org.tw/type3_show_detail.asp?1125, 24,5,1。 [2] 朱鳳傳、康鳳梅、黃泰翔、施議訓、劉紀嘉、許榮添、簡慶郎、詹世良, 機械設計製造手冊,全華科技圖書股份有限公司,2003。 [3] “ISO 10816,” 1995. [4] “ISO 2372,” 1974. [5] R. Barron, “Engineering Condition Monitoring: Practice, Methods and Applications,” University of Strathcycle, Glasgow, Longman, 1996. [6] R.B.W. Heng and M.J.M. Nor, "Statistical analysis of sound and vibration signals for monitoring rolling element bearing condition," Applied Acoutics, vol. 53, no. 1-3, pp. 211-226, 1998. [7] H. Ahmadi and K. Mollazade, "Bearing Fault Diagnosis of a Mine Stone Crasher by Vibration Condition Monitoring Technique," Research Journal of Applied Sciences, Engineering and Technology, vol. 1, no. 3, pp. 112-115, 2009. [8] B. Sreejith, A. K. Verma and A. Srividya, "Fault Diagnosis of Rolling Element Bearing Using Tme-Domain Features and Neural Networks," IEEE Proceedings of ICIIS, pp. 1-6, 2008. [9] M. Costa, A. L. Goldberger and C. K. Peng, "Multiscale Entropy Analysis of Complex Physiologic Time Series," Physical Review Letters, vol. 89, no. 6, pp. 068102-1 - 068102-4, 2002.. 57.

(70) [10] L. Zhang, G. Xiong, H. Liu, H. Zou and W. Guo, "An Intelligent Fault Diagnosis. Method. Based. on. Multiscale. Entropy. and. SVMs,". Springer-Verlag Berlin Heidelberg, pp. 724-732, 2009. [11] J. L. Lin, J. Y. C. Liu, C. W. Li, L. F. Tsai and H. Y. Chung, "Motor Shaft Misalignment Detection Using Multiscale Entropy with Wavelet Denoising," Expert Systems with Applications, vol. 37, pp. 7200-7204, 2010. [12] 吳求文、王俊傑、吳順德,「基於多尺度熵、區別指標與支持向量機之 旋轉機械異常診斷系統」, 第二十八屆中國機械工程全國學術研討會 , 台中市,2011。 [13] G. L. Xiong, L. Zhang, H. S. Liu, H. J. Zou and W. Z. Guo, "A Comparative Study on ApEn, SampEn and Their Fuzzy Counterparts in a Multiscale Framework. for. Feature. Extraction,". Journal. of. Zhejiang. University-SCIENCE A (Applied Physics & Engineering), vol. 11, no. 4, pp. 270-279, 2010. [14] J. Weston, S. Mukherjee, O. Chapelle, M. Pontil, T. Poggio and V. Vapnik, "Feature Selection for SVMs," Advances in Neural Information Processing Systems, 2000. [15] W. C. Kao, M. C. Hsu and Y. Y. Yang, "Local Contrast Enhancement and Adaptive Feature Extraction for Illumination-Invariant Face Recognition," Pattern Recognition, vol. 43, no. 5, pp. 1736-1747, May 2010. [16] H. Wang and P. Chen, "Intelligent Diagnosis Method for Rolling Element Bearing Faults Using Possibility Theory and Neural Network," Computers & Industrial Engineering, vol. 60, no. 4, pp. 511-518, May 2011. [17] H. Wang and P. Chen, "Fuzzy Diagnosis Method for Rotating Machinery in 58.

(71) Variable Rotating Speed," IEEE Sensors Journal, vol. 11, no. 1, pp. 23-34, Jan. 2011. [18] B. Li, M. Y. Chow, Y. Tipsuwan and J. C. Hung, "Neural-Network-based Motor Rolling Bearing Fault Diagnosis," IEEE Transactions on Industrial Electronics, vol. 47, pp. 1060-1069, Oct. 2000. [19] N. Gebraeel, M. Lawley, R. Liu and V. Parmeshwaran, "Residual Life Predictions from Vibration-Based Degradation Signals: A Neural Network Approach," IEEE Transactions on Industrial Electronics, vol. 51, no. 3, pp. 694-700, 2004. [20] I. M. Lee and J. H. Lee, "Prediction of Pile Bearing Capacity Using Artificial Neural Networks," Computers and Geotechnics, vol. 18, no. 3, pp. 189-200, 1996. [21] N. S. Vyas and D. Satishkumar, "Artificial Neural Network Design for Fault Identification in a Rotor-Bearing System," Mechanism and Machine Theory, vol. 36, no. 2, Feb. 2001. [22] J. Rafiee, F. Arvani, A. Harifi and M. H. Sadeghi, "Intelligent Condition Monitoring of a Gearbox Using Artificial Neural Network," Mechanical Systems and Signal Processing, vol. 21, no. 4, pp. 1746-1754, May 2007. [23] C. C. Wang, Y. Kang, P. C. Shen, Y. P. Chang and Y. L. Chung, "Applications of Fault Diagnosis in Rotating Machinery by Using Time Series Analysis with Neural Network," Expert Systems with Applications, vol. 37, no. 2, pp. 1696-1702, 2010. [24] J. D. Wu and J. J. Chan, "Faulted Gear Identification of a Rotating Machinery Based on Wavelet Transform and Artificial Neural Network," 59.

參考文獻

相關文件

( )如圖,已知康橋大樓建地有一輛吊車,吊杆頭正要吊起一重物,已知吊車的高度為 2 公 尺,若沿著吊杆延長線接觸到地面 A 點,A 點距離吊車 5 公尺,且距離重物 50 公尺,試

Thus, our future instruction may take advantages from both the Web-based instruction and the traditional way.. Keywords:Traditional Instruction、Web-based Instruction、Teaching media

教育局網頁 www.edb.gov.hk &gt; 課程發展 &gt; 課程範疇 &gt; 全方位學習. 與津貼有關的重要資訊 會通過聯遞系統 Communication and Delivery

朝陽科技大學 資訊與通訊系. 107

教育局網頁 www.edb.gov.hk &gt; 課程發展 &gt; 課程範疇 &gt; 全方位學習. 與津貼有關的重要資訊 會通過聯遞系統 Communication and Delivery

潘銘基, 1999 年畢業於香港中文大學中國語言 及文學系,繼而於原校進修,先後獲得哲學碩士

又比門高多 0.3 公尺,也過不去;於是昆鈴建議竹竿斜 拿,剛好等於門的對角線長,順利通過,則竹竿長度為 多少公尺?. 1.5 公尺

After the learning and test are finished and the results are figured out, the teacher can make students practice or review their weak or unskilled patterns and offer some