• 沒有找到結果。

第三章 研究方法

一、 特徵計算

本篇的特徵參考ADJUST 和 ICMARC 時域特徵和空間域的特徵。時間峰度(Temporal Kurtosis,TK)[1]峰度特徵在時間域中量化分布的峰值,從時間序上可以看到大部分分布 的峰值接近平均數,而一些高的數值會造成高峰度出現,這些通常出現在眼睛部分的雜 訊所引起的。

( 9 ) 時間偏度(Temporal Skewness; TS) [2][3]偏度在時間域上量化分布中不對稱的程度,此特 徵從時間序列分為數個間隔然後找到間隔中的偏度平均值來計算的,當眼睛眨眼會導致 高電位點時間的間隔增加分佈的不對稱性,會使獨立成分產生高度的正負性。

( 10 )

最大方差(Maximal Variance; MV) [1]通過時間序上最大方差與時間序變化的平均值相除,

若沒有時間區間會以數據分割解決這個問題,由於眼動和眨眼相似,然而眼動的持續時 間會比眨眼長,因此在在峰度上眨眼會高於眼動,這意味著最高的峰值居分為眨眼不是 眼動,所以我們可以用時間序列的方差與峰值計算出是否為眼動雜訊

( 11 )

空間間斷(Generic discontinuity; GD) [1]表示為一個電位不連續性的獨立成分,例如失真 temporal skewness =

1

maximal variance = 1

temporal kurtosis = 1

𝑛∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅)4 (1

𝑛∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅)2)

2− 3

17

電極,通過計算所以有電極,使用最大值作為特徵在與身邊最接近十個電極之間的差異 量化空間的濃度程度。眼位空間差(Spatial eye difference; SED) [1][2][3]此特徵代表該獨 立成分中前額左邊與右邊的電極之間的差異,通過絕對值來量化左右的電極活化差異,

平均空間差(Spatial average difference; SAD) [1][2][3]此特徵代表該獨立成分中前額與後

葉的電極之間的差異,通過絕對值來量化前後的電極活化差異,以半徑為 1 的圓來說

18

( 16 )

( 17 )

( 18 )

( 19 ) 𝑆𝑖 = √1

𝑖∑(𝑥𝑖− 𝑥̅)2

𝑛

𝑖=1

, 𝑖 = 1,2, ⋯ , 𝑛

(𝑅 𝑆⁄ )𝑖 = 𝑅𝑖⁄𝑆𝑖, 𝑖 = 1,2, ⋯ , 𝑛 𝑍𝑖 = ∑ 𝑌𝑖

𝑛

𝑖=1

, 𝑖 = 1,2, ⋯ , 𝑛

𝑅𝑖 = max(𝑍1, 𝑍2, … , 𝑍𝑖) − mini(𝑍1, 𝑍2, … , 𝑍𝑖), 𝑖 = 1,2, ⋯ , 𝑛

19

二、變異數檢定

變異數檢定(Analysis of Variance; ANOVA)變異數檢定針對組對組之間做比較,比較 的對象可以針對單個變異數或多個,單個變異數的檢定稱為單因子變異數分析(One-way ANOVA),多個變異數為多因子變異數分析(Factorial ANOVA) ,本篇探討的方向針對特 徵對應於一般訊號和干擾訊號之前是否具有差異性所以使用的方式為單因子變異分析,

在此分析中須有下列三大前提,各組的樣本分佈需要為常態分佈或者近似常態分佈、各 組的樣本之間獨立、群組之間的變異數必須相等;在我們進行變異數分析要先計算總變 量、組間變異數和組內變異數,總變量可以得知所有樣本的離散程度,組間變異數可以 得知每個組和總平均的差異,組間變異數越大表示分離的越好,組內變異數得知組內樣 本的離散程度,組內變異數越小表示組內的樣本越相近,也就是說當組間變異數越大且 組內變異數越小組和組之間的差異性越大是可以具有比較性的,其計算式如下式下圖四 所示,n 表示總樣本數、j 表示組別數

總變量(TSS) = ∑(𝑥𝑖 − 𝑥̅𝑡𝑎𝑡𝑜𝑙)2

𝑛

𝑖=1

( 20 ) 組間變量(BSS) = ∑ 𝑛𝑗(𝑥̅𝑗− 𝑥̅𝑡𝑜𝑡𝑎𝑙)2

𝑗

( 21 ) 組內變異數(WSS) = ∑ ∑(𝑥𝑗 − 𝑥̅𝑗)2

𝑛𝑗 𝑗

( 22 )

20

圖四 ANOVA 變異數

最後再透過組間變異數除以組間自由度和組內變異數除以組內自由度計算出組間均 方和以及組內均方和,兩者相除便會獲得F 值,當 F 值越大也代表著組之間的差異越大 是具有比較性,在變異數分析中的另一個檢定值p 值(pooled T-test)與 F 值相反當 p 值越 小差異性越大,p 值代表事件觸發的機率,當 p 值越小表示可信度是越高的,在 ANOVA 中當 p 值<0.05 表示事情觸發很低若發生事件是具有可信度。一般在變異數檢定產生的 表如下表三

表三 ANOVA 檢定表

平方和(SS) 自由度(df) 均方和(MS) F 值 p 值 組間 BSS j-1 BSS/df𝑏 BMS/WMS p 值 組內 WSS (n-1)-(j-1) WSS/df𝑤

全部 TSS n-1

21

三、分類器

這 邊 介 紹 本 篇 中 使 用 的 六 種 分 類 器 說 明 這 些 分 類 器 的 分 類 方 式 , 隨 機 森 林 (random forests; RF) [21][22]是屬於一種集成學習的方法,其原理是生成多個分類器模型,

各自獨立地學習並作出預測,最後結合起來進行投票的方式得到預測結果,因此和單獨 分類器的結果相比,結果一樣或更好,隨機樹林也是同一種應用方式,建立多個決策樹 進行決策,在建立每一棵決策樹的過程中,有兩個隨機的過程,隨機採樣與完全分裂,

對資料要進行行、列的採樣,對於行採樣使用放回的方式,也就是在採樣得到的樣本集 合中,其樣本是具有重複性,在進行列採樣中決策樹會從M 個特徵中,選擇 m 個(m 的

選擇數量必須小於 M),進行採樣之後的資料使用完全分裂的方式建立出新的決策樹,

這樣決策樹的某一個葉子節點要麼是無法繼續分裂的,要麼裡面的所有樣本的都是指向 的同一個分類。由於之前的兩種隨機採樣的過程保證了隨機性,所以比起一般的決策樹 就算不剪枝,也不會出現過度訓練。線性判別式分析(Linear Discriminant Analysis; LDA) [23] 是監督式分類算法中的一種,線性判別分析通過對資料進行降維度的投影,投影是 從向量空間映射到自身的一種降維度線性變換,使投影後同一類別的資料儘量靠近,不 同類別的數據儘量分開,並生成線性判別模型對新生成的資料進行分離和預測。支援向 量機(Support Vector Machine; SVM)[24]是一種監督式學習分類的方法,可應用於統 計分類以及回歸分析,支持向量機將向量投射到一個更高維度的空間裡,在這個空間 裡建立使兩種不同種類的資料分割成兩類的一個最大間隔超平面。在超平面其兩邊建 有兩個互相平行的超平面,當兩個平行超平面的距離或差距越大會使分類器的總誤差 越小。樸素貝葉斯(Naive Bayes; NB) [25]基於貝葉斯定理的統計資料,針對訓練資料所 產生的類別,計算資料的機率分佈,去判斷該特徵對於測試資料的類別機率從而實現分 類,在此的前提特徵條件必須為獨立。邏輯回歸模型 (Logistic Regression; LR) [26] 是一 種統計學上的分析方法,利用線性回歸對自變數與應變數之間的關係進行建模,套用邏 輯函數,在訓練模型前期變化較大以指數成長,隨後逐漸飽和最後會停止增加,主要是

22

用來瞭解變數間的相關性。最近鄰居法(K-Nearest Neighbor ;KNN) [27]是一種監督式學 習分類的方法,和一般的監督式學習有些不同,這種方法並沒有進行訓練的過程,直

接透過分類好的資料,進行比較在附近 K 個標記分類的資料中尋找分類中數量較多個

的類別進行分類。

23

相關文件