• 沒有找到結果。

fMRI資料架構分析為主之分類研究 - 政大學術集成

N/A
N/A
Protected

Academic year: 2021

Share "fMRI資料架構分析為主之分類研究 - 政大學術集成"

Copied!
39
0
0

加載中.... (立即查看全文)

全文

(1)國⽴立政治⼤大學統計學系研究所 碩⼠士學位論⽂文. 政 治 大. 立 fMRI 資料架構分析為主之分類研究. ‧ 國. 學 ‧. A Geometry analysis based classification study of fMRI patterns. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 指導教授:周珮婷 博⼠士 研究⽣生:章珅鎝 撰. 中華民國 104 年 7 ⽉月.

(2) 摘要 此篇論⽂文研究哪種幾何架構較適合 fMRI 資料,我們使⽤用 DCG tree 做分析, 使⽤用的資料為 POP 課題的紅與綠實驗數據,此資料的表現形式由 Beta-series 相 關係數矩陣所呈現。︒。在分析幾何形式時為了考慮變數分組之情形,使⽤用了雙層距 離的⽅方法計算了個體間的距離。︒。為避免太多變數導致有多餘的雜訊,使⽤用了獨⽴立. 政 治 大. 雙樣本 t 檢定、︑、主成份分析、︑、個別區域之預測結果篩選出部分變數。︒。我們使⽤用交. 立. 叉驗證的⽅方式去算出我們的準確率,由 DCG tree 得到的分群結果,再使⽤用cos 𝜃值. ‧ 國. 學. 去預測測試集的分類,為了使結果更好,我們提⾼高 DCG tree 中的⾨門檻值與將資. ‧. 料標準化。︒。為了確認 DCG tree 較適合拿來做這類型研究,也使⽤用 SVM、︑、LDA、︑、. sit. y. Nat. er. io. KNN、︑、K-means 和 HC tree 這些演算法來與其做⽐比較。︒。最後得出使⽤用歐幾⾥里德雙. al. n. v i n 層距離與 t 檢定篩選變數並提⾼高⾨門檻值能有最好的分類結果,且與其它⽅方法⽐比較 Ch engchi U 後,也得出確實 DCG tree 有較精確的分類預測。︒。. 關鍵詞:fMRI、︑、DCG tree、︑、機器學習、︑、雙層距離. i.

(3) Abstract In this research, in order to better capture fMRI data geometry, we built a learning rule by computing data-geometry via Data Cloud geometry (DCG), which is a recently developed computational algorithm. We modified the empirical distance by using a two-layered distance procedure through the DCG clustering algorithm to fMRI data. In addition, we tried different methods for feature extraction to reduce the effect of noise. The fMRI datasets came from Dr. Solomon in M.I.N.D. institute and. 政 治 大. Dr. Carter in Imaging Research Center of UC Davis Medical School. The datasets. 立. included one hundred and sixteen 106 times 106 beta-series correlation matrices. We. ‧ 國. 學. found that our algorithm performed well with the feature selected by t-test. In the end,. ‧. we demonstrated the advantages of our learning rule by comparing its performance to. al. er. io. sit. y. Nat. the other commonly used machine learning techniques.. v. n. Keyword: fMRI, DCG tree, Machine Learning, 2-layered Distance. Ch. engchi. ii. i n U.

(4) 謝辭 ⾸首先感謝我⽗父母強⼒力要求我考研究所,讓我了解⾃自⼰己對統計的熱愛,也讓我 有幸來到政⼤大念書。︒。在政⼤大時,陳麗霞⽼老師的精美講義,丁兆平⽼老師的教學熱誠, 鄭宗記⽼老師的⽣生活態度,劉惠美⽼老師的媽媽性格,鄭宇庭⽼老師的幽默⾵風趣,洪英 超與⿈黃⼦子銘⽼老師的認真教學,都讓我在政⼤大的⽣生活充滿樂趣,也讓我對學術更感. 政 治 大. 興趣,⾮非常感謝這些⽼老師。︒。感謝薛慧敏⽼老師碩⼀一時當我的學術導師,給了我很好. 立. 的選課建議。︒。感謝逕讀博⼠士時的⼝口試委員翁久幸⽼老師、︑、江振東⽼老師與蔡紋琦⽼老師. ‧ 國. 學. 讓我通過⼝口試,讓您們跟助教花了時間卻⽩白忙⼀一場感到很抱歉。︒。寫這篇論⽂文時,. ‧. 有問題周⽼老師都會幫忙解決,寫論⽂文期間因英⽂文與⽣生活雜事⼀一直拖進度,已經提. sit. y. Nat. er. io. 早的論⽂文進度就這樣⼀一直拖到跟很晚開始寫⼀一樣,以⾄至於最後⼀一直趕⼯工,趕⼯工時. al. n. v i n 很感謝周⽼老師與朋友蕭濤穎,周⽼老師幫我⼀一起趕進度,蕭濤穎則幫我檢查論⽂文格 Ch engchi U 式和內⽂文流暢性且陪我練習⼝口試,⼝口試時該準備的,該⽤用的⽼老師也幫忙⼀一起⽤用, 甚⾄至結束時還幫我們辦慶功宴,真的很感謝這⼀一年來周⽼老師的包容與幫助,也因 趕⼯工⽽而沒寫的很完善的論⽂文對⽼老師感到很抱歉。︒。感謝張葶葶⽼老師與林耕霈⽼老師來 當我的⼝口試委員,提供了許多很好的建議。︒。感謝楊⽂文敏與許秋燕助教在很多學⽣生 事務上的幫忙。︒。最後感謝所有同學這兩年來的陪伴與幫助。︒。. iii.

(5) ⽬目次. 第⼀一章 緒論.......................................................................................................... 1   第⼀一節 研究動機與⽬目的.............................................................................. 1   第⼆二節 演算法介紹...................................................................................... 3   第⼆二章 ⽂文獻探討................................................................................................ 10  . 政 治 大 第三章 研究⽅方法................................................................................................ 12   立. ‧ 國. 學. 第⼀一節 研究資料........................................................................................ 12  . ‧. 第⼆二節 研究⽅方法........................................................................................ 13  . y. Nat. n. al. er. io. sit. 第三節 雙層距離........................................................................................ 14  . i n U. v. 第四節 實驗過程........................................................................................ 16  . Ch. engchi. 第四章 研究結果................................................................................................ 21   第⼀一節 資料分析........................................................................................ 21   第⼆二節 與其它⽅方法之⽐比較........................................................................ 27   第五章 結論與探討............................................................................................ 28   第六章 參考⽂文獻................................................................................................ 31  . iv.

(6) 表次 表 1 由獨⽴立雙樣本 t 檢定選出之變數去分析之結果 ............................................. 23   表 2 由獨⽴立雙樣本 t 檢定選出之變數,並提⾼高閥值後去分析之結果 ................. 24   表 3 由獨⽴立雙樣本 t 檢定選出之變數標準化,並提⾼高閥值後去分析之結果 ..... 24   表 4 由個別區域之預測結果選出之變數,並提⾼高閥值後去分析之結果............. 25  . 政 治 大. 表 5 DCG tree 與其它演算法結果之⽐比較表 ............................................................ 27  . 立. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. v. i n U. v.

(7) 圖次 圖 1 選定 T 之下的 eigen value 圖 ............................................................................. 5   圖 2 圖 1 之樹狀圖與分群結果................................................................................... 6   圖 3 使⽤用歐幾⾥里德距離當作個體間距離,做 DCG tree 後之分群結果 ............... 21   圖 4 使⽤用⽪皮爾遜積差相關係數當作個體間距離,做 DCG tree 後之分群結果 ... 22  . 政 治 大. 圖 5 使⽤用斯⽪皮爾曼等級相關係數當作個體間距離,做 DCG tree 後之分群結果. 立. ...................................................................................................................................... 22  . ‧ 國. 學. 圖 6 由獨⽴立雙樣本篩選完變數後之 heat map ......................................................... 26  . ‧. n. er. io. sit. y. Nat. al. Ch. engchi. vi. i n U. v.

(8) 第⼀一章緒論. 第⼀一節研究動機與⽬目的 19 世紀時研究學者已知道腦的神經網路結構⾮非常複雜,20 世紀時學者使⽤用 腦剖⾯面圖來得知腦處理訊息的物理活動⽅方式,到了 1990 年因網路科學的興起,. 政 治 大. ⽽而開始有跨學科合作研究腦神經網路的結構和功能,整合腦剖⾯面圖與功能性磁振. 立. ‧ 國. 學. 造影(Functional magnetic resonance imaging (fMRI)),逐漸了解複雜神經網路系統 的⾏行為(Bullmore & Sporns, 2009)。︒。功能性磁振造影是⼀一種利⽤用磁振造影來測量腦. ‧. sit. y. Nat. 部神經活動所產⽣生的局部⾎血液流動變化,進⽽而得知腦部神經活動與測試中的⾏行為. er. io. 關係(Kwong et al., 1992)。︒。近年來 fMRI 科技和其圖形理論分析的不斷進步,讓. al. n. v i n Ch 神經學家能研究如何建構腦神經連結的複雜網路,藉此了解腦是如何運作的。︒。 engchi U. 要建構腦神經連結的複雜網路,必須找出其結構,但現實的資料結構為多維 度,要畫出真正的圖形來建構腦神經網路結構是有難度的,因此需要⼀一個能將多 維資料整合,且能拿來分析使⽤用的分類⽅方法(H. Wang, Chen, & Fushing, 2012)。︒。 因為分為同群表⽰示,在幾何上他們的距離很接近或特性上很相似;⽽而不同群的則 反之,就能由這些結果構築出⼀一個⼤大概的散佈圖。︒。. 1.

(9) 由研究得知機器學習分類演算法可有效的從 fMRI 資料得知有⽤用的資訊 (Pereira, Mitchell, & Botvinick, 2009),因此⽤用機器學習分類演算法分析 fMRI 資料 也越來越盛⾏行,且隨著廣泛的應⽤用,分類 fMRI 資料的⽅方法也在不斷更新與產⽣生 分⽀支,也有研究者試圖整合幾種⽅方法使得分析更準確(Pereira et al., 2009)。︒。然⽽而, 要從各式各樣有不同屬性和假設的機器學習演算法中,找出適當的分類⽅方法是很. 政 治 大. 困難的。︒。由 Jenatton et al.於 2011 年的⽂文章可知若有⼀一個能分析多尺度並整合的. 立. 演算法,較能降低只有單尺度時的誤差(Jenatton et al., 2011),故我們縮⼩小尋找的. ‧ 國. 學. 範圍,⽬目標為找到⼀一個能看多尺度下結構的分類演算法,在 2012 年 Wang、︑、Chen. ‧. & Fushing 就利⽤用了 DCG 這個演算法,去看⼩小尺度與⼤大尺度下的 ASD(⾃自閉症. sit. y. Nat. n. al. er. io. 譜系障礙)與 TD(正常發展)之 fMRI 資料結構,與拿來分類 ASD 與 TD (H. Wang et al., 2012)。︒。. Ch. engchi. i n U. v. 但⼩小尺度與⼤大尺度分開看並不是這類研究最終的⽬目的,最後還是希望能得到 ⼀一個完整且接近真實的結構,以了解腦的運作⽅方式。︒。但在這個最終⽬目標前,我們 想先找出適合這類資料的幾何形式,即研究不同距離下,哪種較適合描述 fMRI 資料的幾何結構,若能找到便能更完善的分析結構,讓腦科學研究者能利⽤用此⽅方 法得到更精確的研究結果。︒。. 2.

(10) 但我們必須找到⼀一個能正確分析資料結構的分類演算法,才能確實說找到的 幾何形式是正確的。︒。提出 DCG 的 Fushing & McAssey 在 2013 年修正的演算法 DCG tree,為總結多個尺度下的結構得出總結構。︒。在 Wang、︑、Chen & Fushing 於 2012 年的⽂文章中得知 DCG 在此研究資料的不同尺度下的表現不錯,且總結不同 尺度下的結構得出的總結構也不會太差,因此使⽤用此演算法當作主要研究⼯工具。︒。. 政 治 大. 為了驗證 DCG tree 確實適合拿來做這類的研究,我們也使⽤用⼀一些較熱⾨門的. 立. 演算法當作⽐比較對象,有 SVM、︑、LDA、︑、KNN、︑、K-means 和 HC tree(Hastie, Tibshirani,. ‧ 國. 學. & Friedman, 2009), ⽐比較最後的預測率來看選擇是否正確。︒。我們會在下⼀一節介. ‧. 紹這幾種演算法。︒。. n. engchi. er. io. Ch. sit. y. Nat. al. 第⼆二節演算法介紹. i n U. v. 資料雲幾何樹(Data Cloud Geometry tree(DCG tree)) Fushing & McAssey 於 2010 年提出提出⼀一個機器學習的演算法,資料雲幾何 (Data Cloud Geometry),並於 2013 年加以修正此⽅方法為資料雲幾何樹 (Data Cloud Geometry tree)(Fushing, Wang, Vanderwaal, McCowan, & Koehl, 2013)。︒。此無 監督式學習演算法⽬目的是找出資料在事前資訊未知下之多維度結構。︒。主要運作⽅方. 3.

(11) 式為在不同尺度下,藉由常⽤用的距離矩陣算出的資料相似性,找出資料結構,再 總結多個尺度下的結構資訊,以下為資料雲幾何樹的運作⽅方式。︒。 1.. 先決定距離矩陣(D),常⽤用的有歐幾⾥里德距離、︑、相關係數等等,然後算出 矩陣W,矩陣 W 為距離矩陣的轉換,若 D 為歐幾⾥里德矩陣,則𝑊=ℯ !!,若 D 為相關係數,則𝑊 = 𝐷 ,且對⾓角線設為 0,𝑤!" 越⼤大表⽰示 i 跟 j 這兩個個體. 政 治 大. 越相近,越可能是同⼀一群,越⼩小則表⽰示差越多,越不可能是同⼀一群。︒。 接著加. 立. !. 上⼀一個尺度(T) ,𝑆! = 𝑊 ! ,當尺度越⼤大時,距離的差異越不明顯,使得個. ‧ 國. 學. 體間的差異不⼤大,不容易區分出多群,當尺度越接近 0 則距離的差異會被加. ‧. 倍放⼤大,容易區分出多群。︒。. sit. y. Nat. er. 要從𝑆! 判斷資料真正的結構不是件容易的事,作者選擇⽤用 MCMC(Markov. io. 2.. al. n. v i n Chain Monte Carlo)的⽅方式來讓結構具象化。︒。實際操作⽅方式為,選擇⼀一個 T, Ch engchi U 接著隨機選出⼀一個個體 i,將𝑆! 中第 i 列加總,再將 i 列除以這個總數,這⼀一 列就是個體 i 到其它個體的機率,照該機率抽出⼀一個 j,將𝑆! 的第 j 列加總, 再重複上述步驟,直到跑到最後⼀一個個體為⽌止,且為了避免永遠都在相近的 個體間跳來跳去,當同⼀一個個體被選中 N 次後就將之移除,這裏我們將 N 定為 5。︒。記錄下每⼀一個個體從被選中到被移除中間,程式執⾏行了幾次選取的. 4.

(12) 動作,與每個個體被選中的順序,就能使⽤用這組數據來分群,因為每⼀一群第 ⼀一個被選中的個體再到被移除之前中間⼀一定會經過最多的時間,所以把每個 ⾼高頻率到下⼀一個⾼高頻率之間的那些個體歸類為與前⼀一個⾼高頻率為⼀一組,並創 出⼀一個矩陣,M,當 i 跟 j 被分為同⼀一群時,𝑚!" 為 1,反之為 0。︒。 3.. 接著重複 2.的動作 1000 次,將這 1000 次的 M 加總再除以 1000,算出同群. 政 治 大. 機率矩陣(K),𝑘!" 表⽰示 i 跟 j 同群的機率,將 K 算出來即為資料雲幾何演. 立. 算法做的事。︒。. ‧ 國. 學. 4.. 由K的分類樹分群與特徵值圖判斷在選定 T 之下的分群數。︒。由特徵值圖中,. ‧. 趨勢平緩前共有幾個點,決定該 T 之分組,再畫出 K 的分類樹,確定該分. sit. y. Nat. Ch. engchi. v. 0.8. ●. i n U. 0.4. 0.6. ●. ●. ●. 0.2. ● ● ●. ● ●. ●. ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●. 0.0. Normalized Eigenvalue. 1.0. n. al. er. io. 組確實是存在的。︒。由下列圖 1 及圖 2 來⽰示範如何看圖決定組數。︒。. 0. 10. 20. 30. 40. Order. 圖 1 選定 T 之下的 eigen value 圖. 5. 50. 60.

(13) y. 樣多組的 T 各選⼀一個,如同樣分 3 組的 T 只要選⼀一個就好,最後照著少到多. ‧. Nat. io. 組的順序依序將 T 的分組情形畫出⼀一棵樹,即為資料雲幾何樹。︒。. sit. 立. n. al er. 此例⼦子,由圖 1 得知⾮非 0 的特徵值約有 3 個,再由圖 2 確認資料可以分出三. 學. ‧ 國 圖 2 圖 1 之樹狀圖與分群結果 as.dist(L) hclust (*, "complete"). 政 治 大. 群。︒。選擇多個 T 後,執⾏行 2.、︑、3.的步驟,每個 T 都判斷出分為幾群後,分⼀一. ngch ⽀支持向量機(Support Vector Machine(SVM) ). Ch. e. i. 6. i n U. v. SVM 為 Cortes & Vapnik 於 1995 年提出(Cortes & Vapnik, 1995),概念為從. 所有能完善分割不同組別資料的超平⾯面中,找出⼀一個邊界最寬的超平⾯面,即與最. 近資料點距離最⼤大的超平⾯面,這樣即使資料點有些許的誤差,也不容易判斷錯誤。︒。. 但不可能所有的資料分組都是線性可分,此時只要將資料⽤用函數轉換,使分割平 391 432 81 119 354 392 368 120 121 88 128 140 129 141 425 430 423 223 224 25 29 42 199 344 114 130 138 139 126 50 51 127 355 266 274 265 273 286 222 272 18 293 304 307 311 271 285 16 444 338 384 450 279 428 110 113 237 440 445 446 99 386 45 96 23 98 52 83 89 21 22 32 84 31 91 87 10 236 24 387 332 349 322 325 326 356 287 376 64 65 334 414 333 107 131 142 294 310 296 297 312 205 241 377 378 41 30 37 421 366 367 353 389 390 194 19 20 214 215 264 278 263 267 281 220 270 284 379 439 260 275 261 276 242 210 243 268 282 218 219 211 217 216 340 343 269 283 345 352 350 351 335 336 346 347 337 339 370 371 374 375 28 44 43 53 362 116 192 383 385 48 49 7 6 85 5 82 86 12 14 135 123 134 341 342 57 90 93 221 225 244 245 246 360 291 230 231 191 232 233 412 238 324 436 369 372 373 330 348 328 327 329 62 202 79 415 422 357 413 331 80 380 417 418 100 452 212 441 447 363 442 448 27 424 58 59 67 70 358 364 365 388 426 431 382 187 185 171 170 184 197 188 190 189 172 173 165 166 167 168 256 253 254 255 163 164 103 104 300 60 61 419 74 78 323 251 158 160 108 109 55 56 38 92 34 54 162 148 161 315 381 299 314 298 313 195 198 118 33 427 429 46 47 193 196 252 117 26 124 136 36 125 137 302 317 301 316 318 303 319 111 112 213 280 35 226 239 438 443 209 437 228 229 147 76 77 71 75 15 68 63 66 69 206 207 240 203 204 39 449 17 40 97 105 106 95 102 292 305 361 154 157 250 247 249 259 306 178 181 182 159 183 186 359 420 9 115 393 72 73 433 434 435 201 397 398 404 411 321 146 143 145 144 257 451 3 4 409 410 407 408 406 402 403 405 394 400 169 94 101 309 295 308 150 175 289 177 174 176 208 227 262 277 1 2 13 133 11 122 132 288 200 290 234 235 155 179 156 180 248 258 151 153 149 152 395 396 8 399 320 401 416. 0.990. 0.994. Height 0.998.

(14) ⾯面趨近線性,就能處理了。︒。不同的轉換函數稱為 kernel,常⾒見的 kernel 有 Polynomial、︑、Radial 和 Neural network。︒。. 線性判別分析(Linear Discriminant Analysis(LDA)). LDA 最原始的概念來⾃自 Fisher 於 1936 年的⽂文章(Fisher, 1936),⽬目的是找到 ⼀一個將資料投影⾄至⼀一個超平⾯面的函數,使得投影後資料組間變異達到最⼤大,且組. 治 政 大 內變異達到最⼩小。︒。作法為:假設每⼀一個組別的資料分佈皆為常態分佈,且具同質 立 ‧ 國. 𝑃 𝐺=𝑘𝑋=𝑥 𝜋! 1 = 𝑙𝑜𝑔 − (𝜇! + 𝜇! )! Σ !! (𝜇! + 𝜇! ) + 𝑥 ! Σ !! (𝜇! + 𝜇! ) 𝑃 𝐺=𝑙𝑋=𝑥 𝜋! 2. ‧. 𝑙𝑜𝑔. 學. 性下,將給定資料點的每組機率相除再取⾃自然對數,即. y. Nat. n. al. er. io. sit. ,G為組別變數,k & l為不同的組別,x為資料點,𝜋為該組別之事前機率, 𝜇為該組別之平均,Σ為所有組別之共變異矩陣。︒。. Ch. engchi. i n U. v. 若假設𝑃 𝐺 = 𝑘 𝑋 = 𝑥 = 𝑃 𝐺 = 𝑙 𝑋 = 𝑥 ,則此⽅方程式即為x之線性函數, !. !. 即線性判別函數,若𝑥 ! Σ !! (𝜇! + 𝜇! ) >   (𝜇! + 𝜇! )! Σ !! (𝜇! + 𝜇! ) − 𝑙𝑜𝑔 !! ,則分 !. !. ⾄至k組,反之則分⾄至l組。︒。. 7.

(15) K-近鄰算法(K-Nearest Neighbor(KNN)) KNN 的概念是在 1951 年由 Fix & Hodges Jr 提出(Fix & Hodges Jr, 1951), 作法為找出離要分類的樣本最近的 k 個點,看 k 個點中,哪⼀一組的點最多,則該 樣本就被分到該組,為機器學習演算法中,最簡單的其中⼀一種。︒。如若是 1-NN, 則表⽰示最接近的點為哪⼀一組,樣本就會被分到該組。︒。唯⼀一的參數 k 則是由使⽤用者 ⾃自⼰己決定的。︒。. 學. ‧ 國. 立. 政 治 大. K 平均演算法(K-means). ‧. K-means 的概念是在 1956 年由 Steinhaus 所提出(Steinhaus, 1956),在 1967. sit. y. Nat. er. io. 年時 MacQueen ⾸首次提到這個名稱 (MacQueen, 1967),其作法為,先決定 k 個起. al. n. v i n 始點當作組中⼼心,將所有點與⾃自⼰己最近的起始點分為同組,這時就會有 k 組,接 Ch engchi U 著將這 k 組的組平均算出來,當成新的組中⼼心,再重複做⼀一樣的動作直到收斂為 ⽌止。︒。⾄至於 k 要設為多少則是由使⽤用者⾃自⼰己決定。︒。. 階層式分群法(Hierarchical Clustering). 此演算法是 Johnson 於 1967 年所發表的(Johnson, 1967),是將資料透過階層 架構的⽅方式,反覆的進⾏行聚合或分裂,以產⽣生最後的樹狀結果。︒。如假設我們要使 8.

(16) ⽤用聚合的⽅方式為 n 筆資料找出分類樹,⾸首先會有 n 個群,即每⼀一群只有⼀一筆,接 著將最接近的兩群合併,若總群數還是⾼高於我們希望的 k 群,則反覆進⾏行此動作 直到剩下 k 群為⽌止。︒。但要怎麼決定群與群之間的距離呢?有幾種⽐比較常⾒見的⽅方法, 如取兩群間距離最近的點的距離當作兩群的距離(SL),或是最遠的(CL),還 有取所有點間的距離平均(GA)。︒。. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. 9. i n U. v.

(17) 第⼆二章⽂文獻探討 Filzmoser 等⼈人於 1999 年使⽤用 K-means 來對 fMRI 資料分群,但 k-means 初 始群數選擇對結果有很⼤大的影響,通常會嘗試過所有可能,並選出最好的,但很 花時間,因此使⽤用以下⽅方法分群,⾸首先將全部使⽤用 k-means 分成兩群,接著使⽤用 主成份分數、︑、特徵值、︑、WSS(Within cluster sum of squares)與統計分析去判斷是. 政 治 大 否應該在分群(Filzmoser, Baumgartner, & Moser, 1999)。︒。使⽤用此⽅方法在個體較多時 立. ‧ 國. 學. 能較準確的判斷初始值該設多少,但因較複雜,在個體較少時使⽤用反⽽而浪費時間,. ‧. 因此個體少時還是試著嘗試所有可能會較迅速。︒。. y. Nat. n. al. er. io. sit. Cordes 等⼈人於 2002 年使⽤用 HC tree 分析 fMRI 時,特別去定義距離,由. i n U. v. EPI-time series 的相關係數,並限制在⾮非常低的頻率下(< 0.1 Hz),⽽而群與群間. Ch. engchi. 的距離計算⽅方式為 SL,在最後⼀一個群時會去計算 linkage inconsistency threshold, 它是⼀一種由資料集判斷會分出幾群的⽅方法,若 < 0.8 則不能產⽣生正常的分群情形, 結果約 15~25 群典型的包含⾄至少 5 個元素,少數幾個會超過 10 個,偶爾會有⼀一 群的⼤大⼩小為 30~50,⽬目的是改善對 fMRI 資料的分群結果,並找出影響分群的可 能原因(Cordes, Haughton, Carew, Arfanakis, & Maravilla, 2002)。︒。此篇並無使⽤用後 續⽅方法讓⾮非監督式轉成監督式學習,故只能⼤大概探討分群結果,且距離計算⽅方式 10.

(18) 也為較特別的定義,需要有 fMRI 的初始資料才能使⽤用。︒。 X. Wang 等⼈人於 2003 年也使⽤用 SVM、︑、KNN 等⽅方法來證明機器學習確實是 能拿來有效分類 fMRI 的資料,SVM 的 kernel 是使⽤用 linear,KNN 考慮 1-NN、︑、 3-NN、︑、5-NN,都使⽤用 leave one out 的交叉驗證⽅方式,正確率 SVM 最⾼高為 71%, KNN 則是 5-NN 的 64%,作者確實驗證機器學習能有效分類 fMRI 的資料(X.. 政 治 大. Wang, Hutchinson, & Mitchell, 2003)。︒。我們這篇還會試不⼀一樣的 kernel 與更⾼高的. 立. K,看是否會有更好的結果。︒。. ‧ 國. 學. Misaki 等⼈人於 2010 年則是使⽤用 LDA、︑、SVM、︑、KNN 等⽅方法去分析 fMRI 的. ‧. 資料,他們使⽤用了兩種交叉驗證的⽅方式,第⼀一種為 6-fold 交叉驗證,第⼆二種⽐比較. sit. y. Nat. er. io. 特別,稱為 leave-one-stimulus-pair-out cross-validation,隨機抽出⼀一種刺激,將. al. n. v i n 所有組別使⽤用該種刺激的個體取出當作測試集,剩下的當作訓練集,由結果可知 Ch engchi U LDA 的準確率⼤大概有 65%,作者認為該實驗的數據較符合線性模型假設,且每 個刺激具有典型的反應,但在現實中,組內差異不太可能只來⾃自雜訊,組內每個 刺激都會引發⼀一個獨特的反應,多項模型較能提供合理的近似(Misaki, Kim, Bandettini, & Kriegeskorte, 2010) 。︒。 我 們 沒 有 使 ⽤用 leave-one-stimulus-pair-out cross-validation,因為必須有多種刺激才好使⽤用該⽅方法。︒。. 11.

(19) 第三章研究⽅方法. 第⼀一節研究資料 本篇使⽤用的資料,是由 POP(Preparing to Overcome Prepotency)課題的紅 與綠實驗所得來的,此實驗開始時屏幕上會出現紅或綠的信號 500 毫秒,經過 7. 政 治 大. 秒後,會在同⼀一個位置出現「l」或「r」500 毫秒,接著會請受試者按按鍵,若. 立. ‧ 國. 學. ⼀一開始是出現綠信號,後續出現「r」則按右邊按鍵,出現「l」則按左邊按鍵, 若⼀一開始是紅信號,則反之。︒。因綠信號時出現「r」就是右,出現「l」就是左,. ‧. sit. y. Nat. 較直覺的情況下測驗結果都差不多,但紅信號則剛好相反,所以會有落差。︒。實驗. er. io. 參與者為 58 位青少年,29 位有 ASD(⾃自閉症譜系障礙),29 位為 TD(正常發. al. n. v i n Ch 展),⽽而 29 位 ASD 都接受過評估確定確實有此症狀。︒。為了與真實的⾃自閉症整體 engchi U 男⼥女⽐比例近似,兩組實驗參與者皆有 5 位⼥女性(Solomon, Ozonoff, Cummings, & Carter, 2008)。︒。每位參與者的實驗數據為兩個由腦部的 106 個區域所⽣生成的 Beta-series 相關係數矩陣(Rissman, Gazzaley, & D'Esposito, 2004)。︒。Beta-series 相 關係數的算法為,將個別區域每次實驗中每個階段得到的訊號對⼀一個有興趣的變 量,⽤用廣義線性模型做出⼀一個模型,再將所有參數估計照原本的階段去排序,如. 12.

(20) 第⼀一次實驗第⼀一階段、︑、第⼆二次實驗第⼀一階段…⋯…⋯等等先排在最前⾯面,在排所有實 驗的第⼆二階段,以此類推,最後⽤用這筆向量將所有區域兩兩之間的相關係數算出 來。︒。 將 Beta-series 相關係數矩陣的上三⾓角當成變數,但不包含對⾓角線。︒。因想看紅 與綠實驗誰的兩組差異較⼤大,故⾸首先把紅跟綠兩種實驗同⼀一變數中⾃自閉症患者與. 政 治 大. 正常發展組做⽪皮爾遜積差相關係數,如將所有個體 1 區跟 2 區的 Beta-series 相關. 立. 係數取出,分成⾃自閉症患者與正常發展組,這兩組算出⼀一個⽪皮爾遜積差相關係數,. ‧ 國. 學. 剩餘變數也做同樣的事,再分別將紅跟綠實驗算出來的所有⽪皮爾遜積差相關係數. ‧. 取絕對值後平均,發現紅實驗的相關係數平均較接近 0,可⾒見紅實驗中⾃自閉症患. sit. y. Nat. n. al. er. io. 者與正常發展組的變數差異較⼤大,也剛好對應本來實驗設計的概念,因此最後選. Ch. 擇紅實驗的資料當作研究數據,此數據共有 58. engchi. v i !"#×!"# n 個觀察個體,變數有 = ! U. 5565個。︒。. 第⼆二節研究⽅方法 此篇論⽂文所⽤用的⽅方法皆屬於機器學習,機器學習為設計⼀一種演算法讓電腦可 以從數據中⾃自動分析規律,並⽤用此規律去預測未知數據的結果。︒。⼜又此研究的資料 分組皆為已知,故使⽤用監督式學習,即為所有資料資訊皆知道的情況下,學習或 13.

(21) 建⽴立⼀一個模型,以預測其它實例。︒。⽤用交叉驗證法估計模型準確率,即將資料切為 數個⼦子集,每次將其中幾個當作訓練集,剩餘的為測試集,將訓練集所有資訊放 ⼊入演算法讓它分析,再將分析結果⽤用測試集去測試並算出預測率,接著再換另外 幾個當訓練集,剩餘當測試集,重複以上動作,最後將預測率平均,得出最後結 果,以了解研究⽬目的是否達到。︒。⽽而在本篇之研究⽬目的即為是否找到正確的結構以. 政 治 大. 利分類的準確度提升。︒。本篇使⽤用的程式語⾔言軟體皆為 R。︒。. 立. 實驗中,準確率⼀一直無法提⾼高,考慮到可能為使⽤用 DCG tree 時,為了讓程. ‧ 國. 學. 式不會永遠在相同的點跑來跑去,我們有設定選中 5 次就移除資料點,這個⾨門檻. ‧. 太低了,因此提⾼高到 25 次,看是否會有改善。︒。也考慮到每個個體與變數的數值. sit. y. Nat. er. io. 範圍不同,以致於演算法分類結果不佳,因此考慮在分類變數時,對每個變數向. n. al. i n 量做標準化,分類個體時,對每個個體向量做標準化。︒。 Ch engchi U. v. 第三節雙層距離 要正確分析出數據結構,測量距離的⽅方式是很重要的,為了更好的抓出結構, 我們選擇使⽤用雙層距離(Chou, 2014),為由原始之距離,再加上已知變數分組情 況之距離,此距離的優點為考慮到變數間分組可能對結構產⽣生的影響。︒。以下為 Chou 在 2014 年所提出的兩種距離的雙層距離公式。︒。 14.

(22) 歐幾⾥里德. 𝑑! =. 𝑋!" − 𝑋! ! !. !. , 𝑖, 𝑖 ! = 1, … , 𝑛. !. 𝑑! =. 𝑁! 𝑋!" − 𝑋!" !. !. , 𝑖, 𝑖 ! = 1, … , 𝑛. !. 雙層距離= 𝑑 ! + 𝑑!,其中 X 為個體-變數矩陣,𝑋!" 表第 i 個個體的第 j 個變. 政 治 大. 數,g 為第幾分組,𝑁! 為第 g 組變數的個數,𝑋!" 為第 i 個個體的第 g 組變數平均。︒。. 立. 即向量的平⽅方差總和開根號,⽽而雙層距離則再加上,向量內分組平均減另⼀一. ‧ 國. 學. 向量之同分組平均,平⽅方後乘該組個數,將所有組別加總後開根號之值。︒。. !. al. y. 𝑁! 𝜌 𝑁 !. sit. io. 𝑑 ! = 𝜌 &𝑑! =. er. Nat. v i n + 𝑑 ,其中𝜌為相關係數,N 為個體總數,𝑁! 為第 g 組變數的 Ch engchi U n. 雙層距離= 𝑑. !. ‧. 相關係數. !. 個數,𝜌! 為使⽤用第 g 組變數算出之相關係數。︒。 在雙層距離中,將原本的相關係數取絕對值,再加上,分組相關係數取絕對 值,乘上該組佔總體⽐比例,最後將所有組別相加之值。︒。 在此篇論⽂文使⽤用上,我們是將⼀一開始的分組資訊當成已知訊息放⼊入變數的雙 層距離,⽤用此距離放⼊入 DCG tree 分完變數後,再⽤用變數分組結果放⼊入個體之雙. 15.

(23) 層距離,再次使⽤用 DCG tree 去做個體分組。︒。若已知個體分組情形後去分變數, 同組的變數即表⽰示在此個體分組下影響⼒力是相似的,再利⽤用雙層距離能考慮到同 組變數所產⽣生的影響,就能更好的抓出真正的結構。︒。. 第四節實驗過程. 維度縮減. 立. 政 治 大. 此篇使⽤用的變數太多,會增加分析問題的複雜性,並可能會有共線性的問題,. ‧ 國. 學. ⼜又某些變數有可能包含實驗中我們不希望出現的雜訊,如界外值、︑、錯誤紀錄等等,. ‧. 或其實某些根本無法⽤用來區別兩組,因此決定刪減維度,我們使⽤用以下幾種⽅方. n. al. er. io. sit. y. Nat. 法:. i n U. Ch. v. 獨⽴立雙樣本 i e n g ct h檢定. 將所有變數之⾃自閉症患者與正常發展組做獨⽴立雙樣本 t 檢定,在 0.05 的顯著 ⽔水準下,有 452 個變數對兩種組別達到顯著差異,表⽰示這 452 個變數的每⼀一個皆 能看出兩組的差異,因此最後選擇這 452 個變數。︒。. 16.

(24) 主成分分析 由變數之共變異數矩陣得到特徵值,將特徵值由⼤大排到⼩小,並得出對應之特 徵向量,再將觀察個體-變數之矩陣乘上特徵向量矩陣,因觀察個體只有 58 個, 故得出之特徵值只有 58 個,因此最後取由 5565 個變數組合出之 58 個變數。︒。. 個別區域之預測結果篩選. 立. 政 治 大. 將個別區域與剩餘區域之 Beta-series 相關係數當作變數,例如將第⼀一個區域. ‧ 國. 學. 與其它區域共 105 個相關係數當作每⼀一個個體之變數,由資料雲幾何樹預測結果,. ‧. 接著將第⼆二個區域與其它區域之 Beta-series 相關係數當作每⼀一個個體之變數,重. n. er. io. al. 篩選出 21 個區域:. sit. y. Nat. 複以上動作,由 106 個結果相⽐比之下較好的篩選出來。︒。. Ch. engchi. i n U. v. 3,5,6,29,30,40,47,49,50,53,55,62,67,84,88,89,97,101,102,104,105 將原本 Beta-series 相關係數矩陣中,這幾個區域間的 Beta-series 相關係數取 !"×!". 出當作變數,共. !. = 210個。︒。. 由於主成份分析篩選後之資料雲幾何樹的正確預測率低於 50%,可能因 58 個變數解釋 5565 個變數的能⼒力很低,當變數遠⼤大於資料點時主成份分析篩選變 17.

(25) 數之結果不是很理想。︒。由個別區域之預測結果篩選出 21 個區域的 Beta-series 相 關係數當作變數跑資料雲幾何樹之正確預測率也低於 50%。︒。⽽而由獨⽴立雙樣本 t 檢定篩選之變數跑資料雲幾何樹之正確預測率約 60%,故選擇之。︒。. 實驗步驟. DCG tree. 立. 政 治 大. 先將全部資料切為 58 個⼦子集,即每個觀測對象為⼀一個⼦子集,每次將⼀一個⼦子. ‧ 國. 學. 集當作測試集,剩下 57 個⼦子集為訓練集,接著在訓練集裡的 ASD 與 TD 各放⼀一. ‧. 筆測試集,因測試集是假設不知道其實際為哪組,故兩組各放⼀一筆,並以這兩組. sit. y. Nat. er. io. 當作雙層距離中𝑑! 之分組,去得出變數的雙層距離,由演算法分組後再利⽤用此分. al. n. v i n 組當做雙層距離中𝑑 之分組,做出個體的雙層距離 ,最後⽤用演算法分組即為結果。︒。 Ch engchi U !. 最後,決策準則為 Chou 在 2014 年提出的,由結果中分到與測試組同組或相近 組別之個體分別由公式 cos 𝜃 =. 𝑣! ∙ 𝑣! 𝑣! 𝑣!. 其中𝑣! 為測試集之變數向量,𝑣! 為與測試集分在同組或相近組別之個體變數 向量,𝜃為兩向量之夾⾓角。︒。. 18.

(26) 求出餘弦值,並以每個個體原本的組別分別畫出分佈密度圖,兩組的分佈密度圖 峰值較⼤大者表⽰示測試集與此組之餘弦值較接近 1,即表⽰示兩向量的夾⾓角較⼩小,較 靠近,故測試集將分在此組。︒。58 個分組情形都算出後就可求出在選定資料架構 下演算法正確分組之準確率為何,是否為適合的架構。︒。. SVM. 治 政 大 ⼀一樣將資料分為 58 個⼦子集,使⽤用交叉驗證的⽅方式得出預測率,並從所有 立 ‧. ‧ 國. 學. kernel 中選出預測率最⾼高的,最後 kernel 選擇 sigmoid。︒。. LDA. sit. y. Nat. n. al. er. io. ⼀一樣將資料分為 58 個⼦子集,使⽤用交叉驗證的⽅方式得出預測率,並模擬 1000 次取算術平均值。︒。. Ch. engchi. i n U. v. KNN. ⼀一樣將資料分為 58 個⼦子集,使⽤用交叉驗證的⽅方式得出預測率,並模擬 1000 次取算術平均值。︒。但不同的 k 值會影響預測率,因此從 1 到 57 都試過⼀一次,選 出預測率最⾼高的,最後 k 選擇 19。︒。. 19.

(27) K-means. 先決定 k 筆資料當作起始點,分完 k 群後,⼀一樣⽤用 DCG tree 中利⽤用兩兩個 體間cos 𝜃值的結果去決定預測率,並模擬 1000 次,取算術平均值。︒。不同的 k 會 影響預測率,因此 k 從 1 到 20 都試過⼀一次,選出預測率最⾼高的,最後 k 選擇 15。︒。. 階層式分群法. 立. 政 治 大. 使⽤用階層式分群法分完群後,⼀一樣⽤用 DCG tree 中利⽤用兩兩個體間cos 𝜃值的. ‧ 國. 學. 結果去決定預測率,並模擬 1000 次,再取算術平均值。︒。但群與群間的距離計算. ‧. ⽅方式會影響結果,因此所有⽅方式都試過⼀一次,最後選擇 GA。︒。. n. er. io. sit. y. Nat. al. i n U. v. 接下來考慮歐幾⾥里德、︑、 相關係數 、︑、斯⽪皮爾曼相關係數三種距離,並執⾏行研 究⽅方法之步驟。︒。. Ch. engchi. 20.

(28) 第四章研究結果. 第⼀一節資料分析. 選出適合的距離. ⼀一開始直接將不同距離之資料⽤用演算法做分組,選出分組較好的距離,再繼. 學. ‧ 國. 政 治 大 續執⾏行後續的動作,以快速選出較好的結構,再繼續分析。︒。 立 歐幾⾥里德. ‧. n. al. ●. Ch. engchi. er. io. sit. y. Nat ●. autism control. i n U. v. 1 27 26 25 12 3 10 11 29 56 33 21 17 14 2 6 32 47 44 43 41 37 36 19 18 8 4 7 58 53 48 28 16 9 13 39 57 55 54 52 51 50 46 42 40 5 38 49 45 35 34 31 30 24 23 22 15 20. ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●. 圖 3 使⽤用歐幾⾥里德距離當作個體間距離,做 DCG tree 後之分群結果. 21.

(29) ⽪皮爾遜積差相關係數. ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●. 44 43 36 19 18 15 4 5 58 54 53 48 47 45 42 41 40 38 37 31 30 29 22 21 20 13 11 8 7 6 1 3 56 55 49 35 34 33 32 27 26 25 24 17 16 14 12 10 2 9 57 52 51 39 50 28 23 46. 政 治 大. 立. ‧ 國. 學. 圖 4 使⽤用⽪皮爾遜積差相關係數當作個體間距離,做 DCG tree 後之分群結果. 斯⽪皮爾曼等級相關係數. ‧. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 39 35 5 20 57 52 51 44 43 36 18 19 7 27 50 53 42 31 4 15 22 46 54 47 41 40 38 37 21 13 11 1 3 58 55 48 45 34 30 23 6 8 16 25 2 32 56 49 28 26 24 17 12 9 10 29 14 33. ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●. 圖 5 使⽤用斯⽪皮爾曼等級相關係數當作個體間距離,做 DCG tree 後之分群結果. 由上⾯面三圖可看出,歐幾⾥里德有兩⼤大組顏⾊色還蠻⼀一致的,因此使⽤用歐幾⾥里德 雙層距離再繼續往下分析。︒。 22.

(30) 由獨⽴立雙樣本 t 檢定選出的變數之分析結果 Predict Autism. Control. Autism. 18. 11. Control. 13. 16. True. 表 1 由獨⽴立雙樣本 t 檢定選出之變數去分析之結果. 政 治 大. Accuracy: 0.59. 立. Precision: 0.58. !"!!". Accuracy=預測正確的個數除上總個數,此例即為. !". ,表⽰示預測為真的準確率. Nat. y. ‧. ‧ 國. 學. Recall: 0.62. Ch. engchi. er. al. ,表⽰示預測是 Autism,實際上也是的機率。︒。. n. !". !"!!". io. 即. sit. Precision=預測為 Autism 且真實也為 Autism 的個數除上預測為 Autism 的個數,. i n U. v. Recall=預測為 Autism 且真實也為 Autism 的個數除上真實為 Autism 的個數,即 !" !"!!!. ,表⽰示若真為 Autism,能準確預測出來的機率。︒。. 雖然總預測率接近 60%,但並不是很理想,因此提⾼高移除資料點的⾨門檻值, 再重新跑⼀一次分類。︒。由下表可知提⾼高後的確能使得預測結果更準確,特別是預測 是⾃自閉症患者的精確性極⾼高。︒。. 23.

(31) Predict Autism. Control. Autism. 20. 9. Control. 0. 29. True. 表 2 由獨⽴立雙樣本 t 檢定選出之變數,並提⾼高閥值後去分析之結果. Accuracy: 0.84 Precision: 1 Recall: 0.69. 立. 政 治 大. 接著試著將資料標準化,看是否可再提升預測率。︒。由下表發現,標準化使得. ‧ 國. 學. 結果⽐比原本還要差,可能是因為標準化捨棄掉部分資料資訊,因此結果不是⾮非常. ‧ Predict. n. al. Ch. er. io. sit. y. Nat. 理想。︒。. i n U. Autism. v. Control. Autism. e n g c h i 13. 16. Control. 13. 16. True. 表 3 由獨⽴立雙樣本 t 檢定選出之變數標準化,並提⾼高閥值後去分析之結果. Accuracy: 0.5 Precision: 0.5 Recall: 0.45. 24.

(32) 由上述結果可知,由 t 檢定篩選出變數資料的分析,會得到⾮非常好的精確性, 但閥值越⾼高才能得到越好的結果,因此下列結果閥值都為 25 次。︒。. 由個別區域之預測結果篩選出變數之分析 Predict Autism. Control. 12 政 治 大 12 立Control Autism. True. 17 17. al. er. io. sit. y. Nat. Recall: 0.41. ‧. Precision: 0.5. ‧ 國. Accuracy: 0.5. 學. 表 4 由個別區域之預測結果選出之變數,並提⾼高閥值後去分析之結果. n. 由上表可看出結果⾮非常之差,可⾒見此篩選⽅方法篩選後之變數可能不夠能⼒力解. Ch. engchi. i n U. v. 釋原始資料結構。︒。⽽而主成份分析篩選出之變數分析結果也⼀一樣不是很好。︒。 由以上結果可知,歐幾⾥里德雙層距離加上 t 檢定篩選出之變數資料能使資料 雲幾何樹對 fMRI 資料的分析更加準確。︒。. 25.

(33) 獨⽴立雙樣本 t 檢定選出的變數效果. 立. 政 治 大. ‧ 國. 學 ‧. 圖 6 由獨⽴立雙樣本篩選完變數後之 heat map. sit. y. Nat. 上圖為由 t 檢定篩選完變數後,將個體從上到下依照判斷正確的 Autism、︑、判. n. al. er. io. 斷錯誤的 Autism 和所有 Control 的順序排序後,畫出的 heat map,由此圖可看出,. Ch. engchi. i n U. v. 在藍線上⽅方的顏⾊色較深,下⽅方則較淺,藍線剛好分隔了 Autism 判斷正確的個體 與錯誤的個體,由此可看出為何篩選出的變數會將藍線下⽅方的 Autism 個體判斷 錯誤,反過來說,這些篩選出的變數也能⼤大致分出 Autism 與 Control。︒。. 26.

(34) 第⼆二節與其它⽅方法之⽐比較 ⽤用其它⽅方法預測同樣⼀一組資料並與 DCG tree ⽐比較。︒。 所有⽅方法結果表格如下: Accuracy. Precision. Recall. DCG tree. 0.84. 1. 0.69. SVM. 0.72. 0.74 政 治 大 0.5 0.5. 0.67. 0.67. 0.91. 0.38. K-means. 0.66. 0.67. Hierarchical Clustering. 0.62. 0.88. 立. 0.51. 學. 0.64. 表 5 DCG tree 與其它演算法結果之⽐比較表. io. sit. Nat. y. ‧. 0.27. al. er. KNN. ‧ 國. LDA. n. 以 Accuracy 來看,DCG tree 與 SVM 都⾼高於 0.7;以 Precision 來看,DCG tree、︑、. Ch. engchi. i n U. v. SVM、︑、KNN & Hierarchical Clustering 都⾼高於 0.7;以 Recall 來看,全部的表現都 平平,⽽而 DCG tree 和 SVM 接近 0.7。︒。但總體來說 DCG tree 的表現還是⽐比較好, 故選擇 DCG tree 作為研究的主要演算法是正確的。︒。. 27.

(35) 第五章結論與探討 這篇論⽂文⾸首先先將原本為 Beta-series 相關係數矩陣的資料轉成能讓演算法 去運算的資料,再使⽤用 DCG tree 去看不同距離下的 ASD 與 TD 的 fMRI 資料結 構,得出了歐幾⾥里德距離是最適合拿來分析此類型資料。︒。為了減少多變數產⽣生的 缺點,也使⽤用了多種刪減維度的⽅方式,選出最能顯⽰示兩類差異的變數,⽽而 t 檢定. 政 治 大 篩選出了最後的答案。︒。考慮變數間分組可能影響資料結構分析,使⽤用雙層距離來 立. ‧ 國. 學. 減少變數間分組產⽣生的誤差,最後得出歐幾⾥里德雙層距離加上 t 檢定篩選出之變. ‧. 數最能表⽰示此資料的幾何型態。︒。. y. Nat. n. er. io. al. sit. 由以上敘述列出此篇論⽂文之重點結論:. i n U. v. i. 使⽤用獨⽴立雙樣本 t 檢定能有效的得出確實有差異之變數,以篩選多餘之資訊. Ch. engchi. ii. 歐幾⾥里德雙層距離能有效地表達出此 fMRI 資料的幾何型態 iii. DCG tree 由不同尺度總結之結構有很好的結果(H. Wang et al., 2012),在本篇 論⽂文中也呈現並應證了在總結結構上的良好結果 iv. 若結果不是很理想,可試著提⾼高閥值,讓 DCG tree 能有更多時間去確定資 料幾何的形態,以得到更好的結果. 28.

(36) 以上幾點希望可作為未來 fMRI 分類分析之參考資料,以得到更好的結果。︒。 若能增進 fMRI 的研究結果,並將 fMRI 的數據進⾏行分析,就可使研究學者檢測 ⼤大腦的活動和對象執⾏行任務之間的相關性,進⽽而確定⼤大腦的活動,並提取有⽤用的 信號。︒。將⼤大腦區域中分群,有相似的活動模式地⽅方分在同⼀一群,可以幫助⽣生理學 家獲得更多關於⼤大腦功能的信息。︒。此外,依研究對象⼤大腦活動模式將其分群,可. 政 治 大. 以幫助醫療專業⼈人員確定⼈人的臨床診斷狀況。︒。. 立. 雖然本研究的的 Accuracy 達到 0.84,Precision 更達到 1,與其它演算法相⽐比. ‧ 國. 學. 已經勝出許多,但此類型研究的最終⽬目的,仍希望得到較準確的診斷預測,以正. ‧. 確判斷有疾病的⼈人。︒。從原始資料轉換的⽅方⾯面來說,Rissman, Gazzaley, & D'Esposito. sit. y. Nat. er. io. 於 2004 年的⽂文章提到 Beta-series 相關係數為⼀一種新的⽅方法,能特徵化不同區域. al. n. v i n 之間的交互關係,且跟以往不同的是,能使⽤用到腦連結不同階段的數據,能更穩 Ch engchi U 健,不會受到不同階段的影響,因此是⽬目前很好的選擇了。︒。 從資料後續處理⽅方⾯面來說,篩選變數⽅方式,如直接使⽤用 Tzourio-Mazoyer et al. 於 2002 年提到 106 個 ROI 所在的 10 個腦域(Tzourio-Mazoyer et al., 2002)當作分 組根據,將同個腦域 ROI 間的 Beta-series 相關係數取出,使⽤用得到的相關係數 矩陣來做分析,還能由此分析哪個腦域是主要影響來源;距離的選擇,如曼哈頓. 29.

(37) 距離、︑、⾺馬⽒氏距離等,嘗試看不同的距離是否能更好的表現出資料的結構,由不同 篩選變數的⽅方式加上不同距離的選擇,都可作為後續研究的材料。︒。 我們相信,這項研究將對功能磁共振成像數據分群研究帶來更多的資訊與想 法。︒。我們使⽤用雙層距離⽅方法來揭開隱藏在多維資料下變數間的相互依存模式。︒。所 計算的模式信息可被⽤用為構建學習演算法的基礎。︒。我們可以提供⼤大腦活動和臨床. 政 治 大. 狀況有意義的關係。︒。識別患者的臨床狀況,使他們能早期治療。︒。這⽅方法不局限於. 立. 功能磁共振成像數據。︒。我們可以將我們的學習⽅方法⽤用於任何⼤大數據集並找到雙關. ‧ 國. 學. 係,縮⼩小數據集的⼤大⼩小。︒。例如,此⽅方法可以應⽤用到⼈人類⾏行為的研究,了解⼤大眾的. ‧. 意⾒見和他們的⾏行為或基因藥物和基因疾病的研究。︒。我們提出的學習規則可應⽤用到. sit. y. Nat. n. al. er. io. 許多不同的領域,並為社會做出貢獻。︒。. Ch. engchi. 30. i n U. v.

(38) 第六章參考⽂文獻 Bullmore, E., & Sporns, O. (2009). Complex brain networks: graph theoretical analysis of structural and functional systems. Nat Rev Neurosci, 10(3), 186-198. doi: 10.1038/nrn2575 Chou, E. (2014). Computed Data-geometry based Supervised and Semi-supervised Learning in High Dimensional Data. ProQuest, UMI Dissertations Publishing. Cordes, D., Haughton, V., Carew, J. D., Arfanakis, K., & Maravilla, K. (2002). Hierarchical clustering to measure connectivity in fMRI resting-state data. Imaging, 治 20(4), 305-317. doi: 政 10.1016/s0730-725x(02)00503-9 大 立 Support-vector networks. Machine Learning, 20(3), Cortes, C., & Vapnik, V. (1995). Magnetic. Resonance. ‧ 國. 學. 273-297. doi: 10.1007/bf00994018. Filzmoser, P., Baumgartner, R., & Moser, E. (1999). A hierarchical clustering method. ‧. for analyzing functional MR images. Magnetic Resonance Imaging, 17(6), 817-826. doi: 10.1016/s0730-725x(99)00014-4. Nat. sit. y. Fisher, R. A. (1936). The use of multiple measurements in taxonomic problems.. er. io. Annals of eugenics, 7(2), 179-188.. Fix, E., & Hodges Jr, J. L. (1951). Discriminatory analysis-nonparametric. n. al. Ch. i n U. v. discrimination: consistency properties: DTIC Document.. engchi. Fushing, H., Wang, H., Vanderwaal, K., McCowan, B., & Koehl, P. (2013). Multi-scale clustering by building a robust and self correcting ultrametric topology. on. data. points.. PLoS. One,. 8(2),. e56259.. doi:. 10.1371/journal.pone.0056259 Hastie, Tibshirani, & Friedman. (2009). The Elements of Statistical Learning (2 ed.). New York: Springer-Verlag. Jenatton, R., Gramfort, A., Michel, V., Obozinski, G., Bach, F., & Thirion, B. (2011). Multi-scale mining of fMRI data with hierarchical structured sparsity. Paper presented at the Pattern Recognition in NeuroImaging (PRNI), 2011 International Workshop on. Johnson, S. C. (1967). Hierarchical clustering schemes. Psychometrika, 32(3), 31.

(39) 241-254. Kwong, K. K., Belliveau, J. W., Chesler, D. A., Goldberg, I. E., Weisskoff, R. M., Poncelet, B. P., . . . Turner, R. (1992). Dynamic magnetic resonance imaging of human brain activity during primary sensory stimulation. Proceedings of the National Academy of Sciences, 89(12), 5675-5679. MacQueen, J. (1967). Some methods for classification and analysis of multivariate observations. Paper presented at the Proceedings of the fifth Berkeley symposium on mathematical statistics and probability. Misaki, M., Kim, Y., Bandettini, P. A., & Kriegeskorte, N. (2010). Comparison of multivariate classifiers and response normalizations for pattern-information fMRI. Neuroimage, 53(1), 103-118. doi: 10.1016/j.neuroimage.2010.05.051. 政 治 大 overview. 立 Neuroimage, 45(1. Pereira, F., Mitchell, T., & Botvinick, M. (2009). Machine learning classifiers and fMRI: a tutorial. ‧ 國. 學. 10.1016/j.neuroimage.2008.11.007. Suppl), S199-209. doi:. Rissman, J., Gazzaley, A., & D'Esposito, M. (2004). Measuring functional connectivity during distinct stages of a cognitive task. Neuroimage, 23(2),. ‧. 752-763. doi: 10.1016/j.neuroimage.2004.06.035. y. Nat. Solomon, M., Ozonoff, S. J., Cummings, N., & Carter, C. S. (2008). Cognitive. io. sit. control in autism spectrum disorders. International Journal of Developmental. n. al. er. Neuroscience, 26(2), 239-247.. i n U. v. Steinhaus, H. (1956). Sur la division des corp materiels en parties. Bull. Acad. Polon. Sci, 1, 801-804.. Ch. engchi. Tzourio-Mazoyer, N., Landeau, B., Papathanassiou, D., Crivello, F., Etard, O., Delcroix, N., . . . Joliot, M. (2002). Automated anatomical labeling of activations in SPM using a macroscopic anatomical parcellation of the MNI MRI single-subject brain. Neuroimage, 15(1), 273-289. Wang, H., Chen, C., & Fushing, H. (2012). Extracting multiscale pattern information of fMRI based functional brain connectivity with application on classification of autism. spectrum. disorders.. PLoS. One,. 7(10),. e45502.. doi:. 10.1371/journal.pone.0045502 Wang, X., Hutchinson, R. A., & Mitchell, T. M. (2003). Training fMRI classifiers to discriminate cognitive states across multiple subjects. Paper presented at the Advances in neural information processing systems. 32.

(40)

參考文獻

相關文件

實務上在應用 SPSS 軟體 run 完主 成分分析後,應該進一步進行因素 轉軸,在社會科學研究中,varimax 法為最常使用的,varimax

搜集 / 分析 再作探究 資料.. 一起試教

▸ 學校在收集學生的個人資料前,必須徵得學生的同意,並向所

在這一節中,我們將學習如何利用 變數類 的「清 單」來存放資料(表 1-3-1),並學習應用變數的特

本論文之目的,便是以 The Up-to-date Patterns Mining 演算法為基礎以及導 入 WDPA 演算法的平行分散技術,藉由 WDPA

由於資料探勘 Apriori 演算法具有探勘資訊關聯性之特性,因此文具申請資 訊分析系統將所有文具申請之歷史資訊載入系統,利用

本章將對 WDPA 演算法進行實驗與結果分析,藉由改變實驗的支持度或資料 量來驗證我們所提出演算法的效率。實驗資料是以 IBM synthetic data generator

樹、與隨機森林等三種機器學習的分析方法,比較探討模型之預測效果,並獲得以隨機森林