• 沒有找到結果。

為醫生僅看影像就能確認正常之影像編號為543、568、587 與 616,這些影像尚 需醫生協助進一步的檢測去排除,在此部分將正常的人視為異常雖然無傷大雅,

12 別為Naïve Bayes、XGboost、Random Forests 與羅吉斯迴歸,此四種分類器為文 獻中較常被拿來做比較的方法,通常也有較好的結果,其餘訓練分類器的設定如 下,Naïve Bayes 使用預設值,XGboost 使用 10 次的迭代,Random Forests 建立 了500 棵樹來穩定準確度,羅吉斯迴歸的分布假設使用二項式。數值結果呈現如 表21 與表 22,SVM、Naïve Bayes、XGboost、Random Forests 與羅吉斯迴歸的 訓練集的準確率依序為可以達到 96%、85%、97%、100%與 89%,測試集的準 確率可以達到85%、79%、82%、82%與 81%,可看出羅吉斯迴歸與 Naïve Bayes 在訓練集有較差的表現,而Random Forests 有著完美結果,但可能會有過度配飾 導致測試集較差的可能性,再結合測試集來看,SVM 表現最優,XGboost 與 Random Forests 次之,再者為羅吉斯迴歸,Naïve Bayes 最後。表中仍有四個變 量探討各種方法之優劣,分別為敏感度(sensitivity)表示在所有實際為異常的

13

14

15

參考文獻

1. Boser, B., Guyon, I. and Vapnik, V. (1992). A Training Algorithm for Optimal Margin Classifiers. In Proceedings of the Fifth Annual Workshop on Computational Learning Theory, pages 144-152.

2. Chang, C. C. and Lin, C. J. (2011) LIBSVM: A Library for Support Vector Machines. ACM Trans-actions on Intelligent Systems and Technology, pages 27:1-27:27.

3. Choi, H., Ha, S., Im, H. J., Paek, S. H., Lee, D. S. (2017). Refining diagnosis of Parkinson's Disease with Deep Learning-based Interpretation of Dopamine Transporter Imaging. NeuroImage: Clinical, pages 586-594.

4. Drucker, H., Burges, C., Kaufman, L., Smola, A. and Vapnik, V. (1997).

Support Vector Regression Machines. Advances in Neural Information Processing Systems, pages 155-161.

5. Illán, I. A., Górriz, J. M., Ramírez, J., Segovia, F., Jiménez‐Hoyuela, J. M.

and Lozano, S. J. O. (2012). Automatic Assistance to Parkinson’s Disease Diagnosisin DaTSCAN SPECT Imaging. Nuclear medicine physics, pages 5971-5980.

6. Iwabuchi, Y., Nakahara, T., Kameyama, M., Yamada, Y., Hashimoto, M., Matsusaka, Y., Osada, T., Ito, D., Tabuchi, H. and Jinzaki, M. (2019). Impact of a Combination of Quantitative Indices Representing Uptake Intensity, Shape, and Asymmetry in DAT SPECT using Machine Learning:

Comparison of Different Volume of Interest Settings. EJNMMI Research 9:7.

7. Kim, Daniel, H., Wit, Huub, Thurston, Mark. (2018). Artificial Intelligence in the Diagnosis of Parkinson’s Disease from Ioflupane-123 Single-Photon Emission Computed Tomography Dopamine Transporter Scans using Transfer Learning. Nuclear Medicine Communications, pages 887-893(7).

8. Li, C. L., Ferng, C. S. and Lin, H. T. (2012). Active Learning with Hinted Support Vector Machine. Proc. ACML’12, pages 221-235.

9. Li, C. L., Ferng, C. S. and Lin, H. T. (2015). Active Learning using Hint Information. Neural Computation 27, pages 1738-1765.

10. Nicastro, N., Wegrzyk, J., Preti, M. G., Fleury, V., Van de Ville, D., Garibotto, V. and Burkhard, P. R. (2019). Classifcation of Degenerative Parkinsonism Subtypes by Support‐Vector‐Machine Analysis and Striatal

123𝐼‐FP‐CIT Indices. Journal of Neurology, pages 1-11.

16

11. Oliveira, F. P. M, Faria, D. B., Costa, D. C., Castelo-Branco, M. and Tavares, J. M. R. S. (2018). Extraction, Selection and Comparison of Features for an Effective Automated Computer-Aided Diagnosis of Parkinson’s Disease based on 123𝐼-FP-CIT SPECT Images. European Journal of Nuclear Medicine and Molecular Imaging, pages 1052-1062.

12. Palumbo, B., Fravolini, M. L., Buresta, T., Pompili, F., Forini, N., Nigro, B., Calabresi, P. and Tambasco, N. (2014). Diagnostic Accuracy of Parkinson Disease by Support Vector Machine (SVM) Analysis of 123𝐼-FP-CIT Brain SPECT Data: Implications of Putaminal Findings and Age. Medicine (Baltimore), e228.

13. Prashanth, R., Roy, S. D., Mandal, P. K. and Ghosh, S. (2014). Automatic Classification and Prediction Models for Early Parkinson’s Disease Diagnosis from SPECT Imaging. Expert Systems with Applications, pages 3333-3342.

14. Prashanth, R., Roy, S. D., Mandal, P. K., Mandal and Ghosh, S. (2017). High Accuracy Classification of Parkinson‘s Disease through Shape Analysis and Surface Fitting in 123𝐼-Ioflupane SPECT Imaging. IEEE Journal of Biomedical and Health Informatics, pages 794-802.

15. Taylor, J. C. and Fenner, J. W. (2017). Comparison of Machine Learning and Semi-Quantification Algorithms for 123𝐼 -FP-CIT Classification: the beginning of the end for Semi-Quantification? EJNMMI Physics 4:29.

17

附錄

圖1:紋狀體之三部分,前殼核、後殼核與尾狀核

圖2A:SVM 與 HintSVM 之超平面比 較圖,黑色實線為SVM 之超平面,紫 色虛線為HintSVM 之超平面

圖2B:經 ALHS 迭代之結果圖,經 ALHS 迭代後得到最後之分類超平面

18

SPECT 影像

影像標準化

特徵提取

特徵正規化

訓練模型

圖3:本系統分析流程圖

圖4:編號 1 受檢者之最清晰影像與前後 4 張

19

0 3 1 2

殘 差

圖5:第一維特徵數值與年齡之散布圖,黑線為正常資料與年齡做出之迴歸線,

黑點為正常資料,紅點為異常資料

圖6:第一維特徵之殘差盒鬚圖,在四分法下之殘差分布 年齡

特 徵 數 值

20

圖7:ROC 曲線,紅色點為能將圖 6 之盒鬚圖前兩個類別區分的最佳切點

圖8:第一維特徵之殘差盒鬚圖,紅線為圖 7 最佳切點之對應直線 殘

0 3 1 2

1−specificity sensitivity

AUC = 0.897

21

圖9:第一維特徵之正規化區間

圖10:編號 1 受檢者在特徵正規化前後之特徵數值 年齡

特 徵 數 值

22

圖11:變數之重要性排序比較圖。算出所有變數在將其扔掉後的測試集準確率 下降數值,並依照程度排序。

23

圖12:本系統和醫生 ABC 與四分法結果對照圖,前方淺色為分錯的張數,深 色為分對的張數;後方淺色為分對的張數,深色為分錯的張數,x 座標為照時 間順序之編號,y 座標為四種本系統和醫生 ABC 的結果

24

25

26

27

圖19A:第 1~9 維特徵在四分法下的分布盒鬚圖

圖19B:第 10~18 維特徵在四分法下的分布盒鬚圖

圖19C:第 19~27 維特徵在四分法下的分布盒鬚圖

28

29

表3 本系統在訓練集之分類準確率 預測

真實 正常 異常

正常 242 0 準確率

異常 6 286 98.88%

表4 本系統在測試集之分類準確率 預測

真實 正常 異常

正常 47 12 準確率

異常 3 38 85.00%

表5 訓練集:真實為異常→系統判別為正常編號 編號 78 166 188 377 394 459 四分法 2 2 2 2 2 2

表6 測試集:真實為異常→系統判別為正常編號 編號 596 620 631

四分法 2 2 2

表7 測試集:真實為正常→系統判別為異常編號

編號 535 543 545 550 555 568 587 595 604 613 616 625 四分法 1

0

1 1 1

0 0

1 1 1

0

1

30

表8 在訓練集中,醫生 AB 之間之相似矩陣 醫生B

醫生A

正常 異常

正常 219 13 相似率

異常 40 262 90%

表9 在訓練集中,醫生 AC 之間之相似矩陣 醫生C

醫生A

正常 異常

正常 221 11 相似率

異常 28 278 93%

表10 在訓練集中,醫生 BC 之間之相似矩陣 醫生C

醫生B

正常 異常

正常 226 33 相似率

異常 23 252 90%

31

表11 在訓練集中,本系統與醫生 A 之相似矩陣 系統

醫生A

正常 異常

正常 229 3 相似率

異常 19 283 96%

表12 在訓練集中,本系統與醫生 B 之相似矩陣 系統

醫生B

正常 異常

正常 236 23 相似率

異常 12 263 93%

表13 在訓練集中,本系統與醫生 C 之相似矩陣 系統

醫生C

正常 異常

正常 236 13 相似率

異常 12 273 95%

32

表14 在測試集中,醫生 AB 之間之相似矩陣 醫生B

醫生A

正常 異常

正常 52 6 相似率

異常 8 34 86%

表15 在測試集中,醫生 AC 之間之相似矩陣 醫生C

醫生A

正常 異常

正常 48 10 相似率

異常 4 38 86%

表16 在測試集中,醫生 BC 之間之相似矩陣 醫生C

醫生B

正常 異常

正常 45 15 相似率

異常 7 33 78%

33

表17 在測試集中,本系統與醫生 A 之相似矩陣 系統

醫生A

正常 異常

正常 46 12 相似率

異常 4 38 84%

表18 在測試集中,本系統與醫生 B 之相似矩陣 系統

醫生B

正常 異常

正常 47 13 相似率

異常 3 37 84%

表19 在測試集中,本系統與醫生 C 之相似矩陣 系統

醫生C

正常 異常

正常 40 12 相似率

異常 10 38 78%

34

表20 在訓練集中,呈現出各分類器之五種量。分別為敏感度(sensitivity)、特 異度(specificity)、陽性預測值(PPV)、陰性預測值(NPV)與準確率(accuracy)。

Sensitivity Specificity PPV NPV Accuracy SVM 0.9281 1.0000 1.0000 0.9202 0.9607 Naïve Bayes 0.7705 0.9545 0.9534 0.7752 0.8539 XGboost 0.9555 0.9959 0.9964 0.9488 0.9738 Random Forests 1.0000 1.0000 1.0000 1.0000 1.0000 Logistic Regression 0.8562 0.9380 0.9434 0.8439 0.8933

表21 在測試集中,呈現出各分類器之五種量。分別為敏感度(sensitivity)、特 異度(specificity)、陽性預測值(PPV)、陰性預測值(NPV)與準確率(accuracy)。

Sensitivity Specificity PPV NPV Accuracy SVM 0.8537 0.8475 0.7955 0.8929 0.8500 Naïve Bayes 0.6829 0.8644 0.7778 0.7969 0.7900 XGboost 0.8537 0.7966 0.7447 0.8868 0.8200 Random Forests 0.8537 0.7966 0.7447 0.8868 0.8200 Logistic Regression 0.7805 0.8305 0.7619 0.8448 0.8100

35

表22 在兩種不同排除方式與三種不同的挑點方式下,最高之挑點方法加總。在 每次迭代加入1 筆至 50 筆下,將每次迭代下測試集準確率最高之挑點方法記 1,

比較加總50 筆之結果,在𝜙𝑖(x̃)大於 0.4 的情況下,在加入 20 筆的前後有分歧,j 故將其前後分別呈現。

挑點方式

加入筆數 Hint Mean Median 𝜙𝑖(x̃)大於 0.4 j

50 筆 17 25 8

𝜙𝑖(x̃)大於 0.4 j

前20 筆 15 0 5

𝜙𝑖(x̃)大於 0.4 j

後30 筆 2 25 3

歐式距離小於0.5

50 筆 6 5 39

歐式距離小於0.4

50 筆 5 34 11

相關文件