• 沒有找到結果。

使用圖形處理器加速糖尿病視網膜病變偵測

N/A
N/A
Protected

Academic year: 2021

Share "使用圖形處理器加速糖尿病視網膜病變偵測"

Copied!
40
0
0

加載中.... (立即查看全文)

全文

(1)國立臺灣師範大學科技應用與人力資源發展學系 碩士論文. 使用圖形處理器加速糖尿病視網膜病變偵測 Accelerating detection of diabetic retinopathy using graphic processing unit. 研 究 生:吳鎬孙 指導教授:林政宏. 中 華 民 國 一 ○ 二 年 六 月.

(2)

(3) 使用圖形處理器加速糖尿病視網膜病變偵測 研 究 生:吳鎬孙 指導教授:林政宏. 中文摘要 根據世界衛生組織統計,預估 2030 年糖尿病患者將會成長至 366 百 萬人,其中因糖尿病而引發的糖尿病視網膜病變是成年人致盲主因之一, 其病變特徵有微血管瘤、出血、滲出物等。本研究發展出一套糖尿病視 網膜病變眼底影像量化評估系統,擷取視網膜病變特徵,並以支援向量 機進行病變的分類與識別,可以辨識並計算病變的區域面積與成長趨勢 等量化資訊,其正確率可達 94%。 關鍵詞:糖尿病視網膜病變、支援向量機. i.

(4) Accelerating detection of diabetic retinopathy using graphic processing unit Author: Hao-Yu, Wu Adviser: Cheng-Hung, Lin. ABSTRACT According to the World Health Organization, the total number of diabetic patients will grow to 366 million in 2030. One of serious complications caused by diabetes is retinopathy which will lead to blindness. The symptoms of retinopathy include microaneurysms, hemorrhages, and exudates. This paper proposes a quantitative evaluation system for diabetic retinopathy fundus image. The system extracts retinal lesion features and uses support vector machine for lesion classification. The system achieves an average of 94% of accuracy for lesion identification. Keyword:diabetic retinopathy, support vector machine. ii.

(5) 目. 錄. 中文摘要 ................................................................................................... i 英文摘要 ................................................................................................... ii 目. 錄 ................................................................................................... iii. 表. 次 ................................................................................................... iv. 圖. 次 ................................................................................................... v. 第一章 緒論 ........................................................................................... 1 第一節. 研究背景 ........................................................................... 1. 第二節. 研究動機與目的 ............................................................... 2. 第三節. 研究貢獻 ........................................................................... 2. 第二章 文獻探討 ................................................................................... 3 第一節. 眼底影像預處理 ............................................................... 3. 第二節. 病變區域分割與特徵擷取 ............................................... 4. 第三節. 病變區域分類與辨識 ....................................................... 6. 第三章 研究方法 ................................................................................... 9 第四章 研究結果 ................................................................................... 17 第五章 結論 ........................................................................................... 27 參考文獻 ................................................................................................... 29. iii.

(6) 表. 次. 表 2-1 糖尿病視網膜病變偵測相關文獻彙整 ....................................... 3 表 4-1 開發環境與工具............................................................................ 17 表 4-2 執行時間詳細記錄(單位:毫秒) ........................................... 22 表 4-3 白色病變分割結果(單位:pixels) .......................................... 23 表 4-4 紅色病變分割結果(單位:pixels) .......................................... 23. iv.

(7) 圖. 次. 圖 3-1 系統流程 ........................................................................................ 8 圖 3-2 原始影像與 RGB 頻道灰階影像.................................................. 10 圖 3-3 綠色頻道灰階影像對比增強結果 ................................................ 11 圖 3-4 移除雜訊前後對照 ........................................................................ 11 圖 3-5 OTSU 閾值分割結果 .................................................................... 12 圖 3-6 OTSU 閾值錯誤分割結果 ............................................................ 12 圖 3-7 ROI 二次直方圖等化與 SVM 分類結果 ..................................... 13 圖 4-1 系統起始畫面 ................................................................................ 18 圖 4-2 系統調閱病患資料與電子病歷 ................................................... 19 圖 4-3 眼底影像病變區域量化資訊 ........................................................ 20 圖 4-4 調閱眼底影像 ................................................................................ 20 圖 4-5 ROI 定位結果 ................................................................................ 21 圖 4-6 手動註記流程 ................................................................................ 21 圖 4-7 執行時間紀錄 ................................................................................ 22 圖 4-8 病變區域在影像上所占的面積 .................................................... 24. v.

(8)

(9) 第一章 緒論 第一節. 研究背景. 根據世界衛生組織統計,2000 年的糖尿病患者估計約有 171 百萬人, 預估在 2030 年將會有 366 百萬名糖尿病患者 (Wild, Roglic, Green, Sicree & King, 2004) 。而其中糖尿病視網膜病變(diabetic retinopathy)是由糖 尿病所引起的慢性併發症,同時也是成年人致盲主因之一。 糖尿病視網膜病變依照顏色特性可分為紅色病變(red lesion)與白 色病變(white lesion) 。紅色病變在視網膜影像中呈現暗紅色,如微血管 瘤(microaneurysms)、出血(hemorrhage)等症狀,在灰階影像時與其 他物件相比顏色較暗沉,因此也有學者將這些病變以暗沉病變(dark lesion)稱之。白色病變在視網膜影像中呈現白偏黃的顏色,而在灰階影 像時與其他物件相比顏色較為明亮,故亦有人以明亮病變稱之(bright lesion) ,其中包含滲出物(exudate)與棉絮狀斑(cotton wool spot) (Zhang & Chutatape, 2004) 。這些病變的主要成因是因為血糖過高導致血管開始 產生變化,進而使微血管脆弱化或阻塞。微血管脆弱化容易使管壁破裂, 導致產生出血、滲出物等症狀。拜科技進步之賜,這些病變都能由資訊 科技做更有效且更可靠的處理、分析、傳送、儲存,更可以透過影像處 理技術得到更多量化資訊。. 1.

(10) 第二節. 研究動機與目的. 諸多研究提出各種不同的糖尿病視網膜病變偵測方法,希望輔助眼 科醫生診斷,降低醫生的工作負擔,但並未著墨於評估病變的消長變化。 且醫生在做診斷時,同一張影像由不同的醫師判讀容易得到不同的數據。 因此本研究將發展一套糖尿病視網膜病變眼底影像量化評估系統,先透 過眼科醫生對眼底影像進行病變區域的標註,然後針對病變區域進行特 徵擷取,以支援向量機將特徵進行分類與辨識,並使用圖形處理器 (graphic processing units, GPU)加速支援向量機訓練過程。最後計算病 變區域的面積與成長趨勢等量化資訊,希冀提供客觀的數據結果供醫師 作為診斷的輔助資料參考。. 第三節. 研究貢獻. 本研究發展一套糖尿病視網膜病變眼底影像量化評估系統,與過往 研究相比,該系統可以有效地計算出病變面積,並使用 GPU 減少機器 學習的訓練時間,與人工標記的病變面積相比其平均精確度可達 94%, 意即與人為判斷的平均近似度可達 94%。此外,該系統記錄歷史病變面 積,與當次影像中的病變面積計算消長變化的比例,提供客觀的數據供 醫師評估診療結果。. 2.

(11) 第二章. 文獻探討. 本研究彙整了部分有關視網膜病變偵測的文獻並製下表 2-1,其目標 代表該研究所偵測的病變分類,R 表示紅色病變、W 表示白色病變;系 統精確度以 Se 表正確判斷為病變的精確度、Sp 表正確判斷為非病變的 精確度、Ac 表整體精確度、AUC (area under curve)表示為接收操作 特徵曲線(receiver operative characteristic curve, ROC 曲線)下面積,ROC 曲線下面積可以用來評估分類的準確度,其繪製方法是將 Y 軸資料定為 true positive,scale 為 0 到 1,表正確判斷為病變的機率;X 軸資料定為 false positive,scale 亦為 0 到 1,若該研究無詳細描述資料則以 NA 表示。 表 2-1. 糖尿病視網膜病變偵測相關文獻彙整 年分. 目 標. Niemeijer. 2005. R. mathematical morphology k-th nearest neighbor. 21. Garcia. 2008. R. multilayer perceptron classifier. 29. Kande. 2009. R. Giancardo. 2011. W. Rocha. 2012. R W. 作者(et al.). 方法. relative entropy based thresholding Support Vector Machine Kirsch’s edges Stationary wavelets speeded-up robust feature Support Vector Machine. 特徵 數量. 33 NA 128. 精確度 (%) Se:100 Sp:87 Se:82 Sp:86.5 Ac:84.2 Se:96.22 Sp:99.53 AUC:86 AUC:81 AUC:93.3 AUC:95.3. 透過影像技術進行糖尿病視網膜病變偵測,基本上包含「眼底影像 預處理」 、 「病變區域分割與特徵擷取」 、 「病變區域分類與辨識」等三大 步驟,以下將逐一探討各個流程的相關技術。. 3.

(12) 第一節. 眼底影像預處理. 視網膜影像中的前景物件如血管、病變區域、黃斑、視神經盤等前 景物件與背景對比度低,使得偵測感興趣物件的困難度提高,諸多研究 為了改善這個問題首先將影像分割成 RGB 三個頻道,並使用綠色頻道 (green channel)的灰階影像來做為系統的輸入(Ghadiri, Pourreza, Banaee & Delgir, 2011;Selvathi & Balagopal, 2012)。雖然綠色頻道的明 暗對比可以比原始影像更高,但前景物件與背景的對比度仍舊不足,因 此許多研究便在對比增強方面多做著墨。 對比增強最典型的方法為直方圖等化(histogram equalization) 。雖然 直方圖等化可以將前景物件的對比度提高,但背景雜訊卻也跟著提升, 也因此近年來有關視網膜影像辨識的研究也從各種的增強對比的方法 切入。其中 Wu, Zhang, Liu & Bauman(2006)的研究指出自適性直方圖 等化(adaptive histogram equalization, AHE)比傳統的直方圖等化有更好 的效果,特別是應用在低亮度的小血管上,原因在於 AHE 是逐步地做 區塊調整。在降低背景雜訊的部份,許多研究使用了均值濾波器(mean filter)(Badea, Danciu & Davidescu, 2008;Chaudhuri, S., Chatterjee, S., Katz, N., Nelson, M., & Goldbaum, M.,1989)與中值濾波器(median filter) (Hafez & Azeem, 2002;Verma, Deep & Ramakrishnan, 2011)等方法, 都得到了不錯的效果。. 4.

(13) 第二節. 病變區域分割與特徵擷取. 區域分割是進行影像分析中重要的一環,其處理的方法有很多,大 致上可分為「閾值分割」 、 「邊緣偵測」 、 「區域增長」三類(Tamilarasi & Duraiswamy, 2013)。 閾值分割方法是找出一個閾值(threshold value) ,將每個像素值與閾 值相比,若小於閾值則分割出血管或紅色病變,此法是最簡單也最好實 作的分割方式,其重點是找出最能將前景物件與背景分離出來的閾值, 但眼底影像的複雜度高,且紅色病變、血管及中央窩的顏色資訊非常接 近,難以單一閾值做最佳分割。Garcia, Sanchez, Lopez, Diez & Hornero (2008)基於閾值分割方法,將 DIRVE 視網膜影像資料庫的每張影像 切成許多 20*20 的子影像,去計算子影像的平均值,若子影像像素值小 於 0.9 乘以平均值,則分割出紅色病變,之後分別計算每個病變區域在 RGB 色彩空間的像素平均值、標準差、面積與邊緣等共計 29 個特徵值。 雖然閾值分割方法在整張眼底影像中無法使用單一閾值做最佳化分割, 但根據 Gracia et al.(2008)等人的經驗來看,透過預先將影像分割出子 影樣的方法,可以將影像複雜度降低,針對不同子影像去計算閾值的方 法,的確可以將感興趣的物件分割出來,但分割的精確度仍有改善空 間。. 5.

(14) 邊緣偵測方法是利用邊緣偵測運算子如 Sobel 運算子、Canny 運算子, 將物件的邊緣分割出來,此方法適合偵測具有銳利邊緣的物件,例如 Giancardo, Meriaudeau, Karnowski, Li, Tobin & Chaum(2011)使用了 Kirsch 運算子分割出硬滲出物,但缺點是容易受到背景雜訊的干擾。 Hafez 和 Azeem(2002)使用了 Sobel 運算子分割微血管瘤,並以大小 為依據先行預判分割出來的物體是否為血管,再以是否為近似封閉曲線 決定分割出來的是否為微血管瘤,最後以微血管瘤周長、涵蓋微血管瘤 矩形長寬比、微血管瘤灰階值總和與平均、微血管瘤與背景灰階值的差 做為判斷的依據。邊緣偵測方法雖然在分割銳利邊緣物件上有良好的效 果,然而許多感興趣物件不具有明顯的邊緣資訊如棉絮狀斑,細小血管 附近的小塊狀出血與滲出物,因此套用此法容易遺漏這些感興趣的物件, 且同時容易分割出背景中具有銳利邊緣的雜訊,使得後處理程序更加複 雜。 區域增長方法是基於 Flood Fill 演算法,將鄰近相似區域分割出來, 此方法普遍適用於有背景雜訊干擾的影像,但需要人工選取一個像素作 為 輸 入 , 因 此 選 取 對 的 像 素 將 是 分 割 成 功 的 關 鍵 ( Tamilarasi & Duraiswamy, 2013) 。Jaafar, Nandi & Al-Nuaimy(2011)使用了區域增長 的方法先分割出紅色病變,之後計算其形狀特徵(長寬比、周長、面積) 與顏色特徵,在顏色特徵方面除了計算影像處理後的灰階值平均與標準. 6.

(15) 差,另外也計算在原始綠色頻道上的灰階值平均與標準差共計 9 種作為 特徵值。雖然區域增長方法必須人為手動給定或是透過計算去找出一個 起始像素,但此法只要將起始像素落在感興趣物件之上,與其他方法相 比可以更有效、精確地分割出感興趣物件,唯一必須克服的是感興趣物 件與背景的像素值必須要有一定的距離,若感興趣物件為暗沉病變,期 平均像素值為 20,而坐落在平均像素值為 25 的背景上,這種情況就難 以分割。 綜合上述對於病變分割及特徵擷取的文獻,本研究決定嘗詴基於閾 值分割與區域增長方法進行病變分割,透過感興趣區域的定位將影像複 雜度降低,以閾值分割方法做第一次影像分割,若第一次影像分割結果 不佳,則以區域增長方法做第二次影像分割,修補其分割結果並將物件 像素值與背景像素值作為特徵值。. 第三節. 病變區域分類與辨識. 得到病變特徵後必須透過機器學習來做分類與辨識,常見的方法有類 神經網路(Artificial Neural Network) 、第 k 位最接近的鄰居(k-th nearest neighbor, KNN)與支援向量機(Support Vector Machine, SVM) ,這些方 法被廣泛應用於資料分群的應用上。 在醫學影像分類應用方面,Gracia et al.(2008)將 100 張眼底實驗影 像分成一半,50 張訓練組影像在計算完紅色病變的 29 種特徵值以後,. 7.

(16) 得到 2360 組紅色病變區域與 2360 組非紅色病變區域的訓練樣本,透過 類神經網路的其中一種「多層感知神經網路」架構,將其正規化參數與 隱藏層數量設為 8 和 30,另外 50 張測詴組的分類結果精確度達 84.2%。 Niemeijer, Ginneken, Staal, Maria & Michael(2005)以人工註解方式 先將紅色病變區域找出來,之後拆分成訓練組與測詴組。訓練組有 28 張,其中有 510 個紅色病變;測詴組有 27 張,其中有 348 個紅色病變。 計算病變在 RGB 色彩空間與 HSI 色彩空間的顏色特徵(平均數、標準 差等)與形狀特徵(面積、周長等)後,使用 k-th nearest neighbor 進行 訓練,其 k 值設為 11 時,得到的最佳敏感性(sensitivity, SN)為 100%, 特異性(specificity, SP)為 87%。SN 表正確判斷為病變的精確度,SP 表正確判斷為非病變的精確度。 Kande, Savithri, Subbaiah & Tagore ( 2009 ) 以 DIARETDB0 和 DIARETDB1 視網膜影像資料庫為實驗資料,分割出 116 個紅色病變區 域與 1489 個非紅色病變區域,取得每個區域的特徵值後使用 SVM 進行 分類,其 SN 為 96.22%,SP 為 99.53%。SVM 最初是由 Cortes & Vapnik 在 1995 年提出,其概念是找出一個最佳的超平面(hyper plane)去求得 兩個組別的最大距離。SVM 在二分類的應用上有良好的表現,故本研究 在分類與辨識階段使用 SVM 來將病變區域與非病變區域的像素加以分 類。. 8.

(17) 第三章. 研究方法. 本研究發展一套糖尿病視網膜病變量化評估系統,分析病變區域面 積,提供客觀數據輔助眼科醫生進行診斷。系統流程分為「眼底影像預 處理」 、 「病變區域分割與特徵擷取」 、 「病變區域分類與辨識」三個階段 如下圖 3-1 所示。. 眼底影像 預處理. 分離綠色頻道灰階影像 直方圖等化 中值模糊. 病變區域分割 與特徵擷取. 感興趣區域定位 自適閾值基礎分割 區域增長分割補強 感興趣區域背景與病變像素值紀錄. 病變區域 分類與辨識. 以 GPU 加速支援向量機訓練/分類. 圖 3-1 系統流程. 9.

(18) 一、眼底影像預處理 在眼底影像預處理階段,先將彩色眼底影像從 RGB 色彩空間分離出 綠色頻道灰階影像,其結果如圖 3-2 所示,圖 3-2 是從 DIARETDB0 影 像資料庫第 109 張分割出的三個頻道的灰階影像,從結果可明顯看出, 紅色頻道灰階影像亮度偏高,藍色頻道灰階影像亮度偏低,只有綠色頻 道的顏色對比適中,保有病變區域、血管、中央窩的顏色特徵,故取綠 色頻道灰階影像做直方圖等化增強影像對比。. (a). (b). (c). (d). 圖 3-2 原始影像與 RGB 頻道灰階影像 (a)紅色頻道灰階影像 (b)綠色頻道灰階影像 (c)藍色頻道灰階影像 (d)原始影像. 10.

(19) 對比增強結果如圖 3-3 所示,顯而易見的是雖然感興趣物件的對比 提升了,但連帶的也一起提升了背景雜訊的對比度,使得背景更加複雜, 增加了影像分割的困難度,所以本研究使用中值模糊移除背景雜訊,其 結果如圖 3-4 所示。. (a). (b). 圖 3-3 綠色頻道灰階影像對比增強結果 (a)直方圖等化前 (b)直方圖等化後. (a). (b). 圖 3-4 移除雜訊前後對照 (a)中值模糊前 (b)中值模糊後. 11.

(20) 二、病變區域分割與特徵擷取 在病變區域分割與特徵擷取階段則是由先醫師圈選病變區域,其目 的在於鎖定感興趣區域(region of interest, ROI)並且將影像複雜度降低 與來自背景的雜訊干擾最小化,之後再以閾值分割方法為基礎,計算其 感興趣區域內的自適閾值,計算自適閾值的方法有很多如:平均灰階值 法、百分比法、歐蘇法等。平均灰階值法是算其感興趣區域的平均灰階 值作為閾值,與 Gracia et al.(2008)作法類似,只差乘上一個係數 0.9; 百分比法是基於分割物件與背景的大小的比例,在直方圖上找出相對應 的閾值;歐蘇法(Otsu's method, OTSU)是由 Otsu 在 1979 年時所發表 的一種在灰階影像中計算自適閾值的方法,其目的從 0 到 255 循序找出 一個值,以此值劃分可以使得影像的直方圖分成兩個組間差異大、組內 差異小的組別,其定義如下。 2 𝜎𝑊 (𝑇) = 𝜔0 (𝑇)𝜎02 (𝑇) + 𝜔1 (𝑇)𝜎12 (𝑇). 𝜎𝐵2 (𝑇) = 𝜔0 (𝑇)𝜔1 (𝑇)[𝜇0 (𝑇) − 𝜇1 (𝑇)]2 255. 𝑇−1. 𝜔0 (𝑇) = ∑ 𝑝(𝑖). 𝜔1 (𝑇) = ∑ 𝑝(𝑖). 𝑖=0. 𝑖=𝑇. T 為暫定的閾值,其值為 0 到 255 之間,對於每一個 T 值而言都可 2 2 以求得組內變異數(𝜎𝑊 )與組間變異數(𝜎𝐵2 )。𝜎𝑊 可視為背景的變異. 數(𝜎02 )乘上一個權重(𝜔0 )再加上前景的變異數(𝜎12 )乘以權重(𝜔1 ) 。而. 12.

(21) 權重定義為像素值出現的累積機率(𝑝) 。當找到一個 T 值可以求得最小 2 的𝜎𝑊 與最大的𝜎𝐵2 ,則視該值為最佳閾值。. 因為在眼底影像會因為病患的眼球構造而有不同的明暗分布,加上 病變大小無法事先預測,故難以使用平均灰階值法或百分比法來計算 ROI 的閾值,故本研究在此階段使用 OTSU 計算選取 ROI 的最佳閾值。 相較於 Gracia et al.(2008)的方法,由於 OTSU 是從 0 到 255 逐一找出 最佳解,故不會受到影像明暗分布的影響,但 Gracia 等人的方法無論在 明暗對比度高或低的子影像都是乘上同一個係數 0.9,明顯的只有在某 種明暗分布才適用。找出其閾值後以此為依據分割出大致的病變區域, 如圖 3-5 所示,此 ROI 為實驗資料第 109 張,左上到右下座標分別為(846, 332)和(952, 430)。. (a). (b). 圖 3-5 OTSU 閾值分割結果 (a)原始 ROI (b)OTSU 分割結果. 雖然使用閾值分割大致可分割出 ROI 內的病變,但在對比度較差的 區域仍舊難以分割出來如視神經盤附近的白色病變與陰影處附近的紅 色病變,由於這些病變座落在與他們顏色特徵相近的背景之下,導致只 用閾值分割會遇到分割不完整或是分割錯誤的情況,如圖 3-6 所示,左 13.

(22) 上和右下座標分別為(1156, 214)和(1224, 342),圖 3-6 可明顯看出在暗沉 背景之下紅色病變容易有錯誤的分割。. (a). (b). 圖 3-6 OTSU 閾值錯誤分割結果 (a)原始 ROI (b)OTSU 錯誤分割. 因此再配合區域增長的方法,由醫師點選部分遺漏的病變區域,透 過 Flood Fill 演算法找出鄰近區域內相似的像素,使得分割出來的病變更 加貼近醫師所觀察的樣子,之後取其 ROI 內的病變像素值與背景像素值 作為特徵值,使用 SVM 進行訓練。針對低對比的 ROI 如落在暗沉背景 的紅色病變,另外將 ROI 再做一次直方圖等化如圖 3-7 所示,使病變與 背景的像素值有更大的差異,得到更好的 SVM 分類效果。. (a). (b). (c). 圖 3-7 ROI 二次直方圖等化與 SVM 分類結果 (a)原始 ROI (b)第二次直方圖等化 (c)SVM 分類結果. 14.

(23) 三、病變區域分類與辨識 由於眼底影像的明暗呈現會受拍攝的環境光源與病患視網膜結構影 響,導致同一張眼底影像內會有不同的明亮分布,進而造成同為紅色病 變或白色病變,卻有些微不同的顏色特徵,因此每一個病變都由一個 SVM 負責分類。SVM 分類的過程中可分為訓練與預測兩個階段,訓練 階段為資料預處理的動作,其流程通常會設計在晚上或是系統工作負擔 低的時段執行。雖然系統設計上可以使用者操作的時刻,讓使用者不必 等待資料訓練完成,但整體上來講訓練階段仍是 SVM 最耗時的一個環 節,因此本研究使用 GPU 加速後的 LIBSVM(Athanasopoulos, Dimou, Mezaris & Kompatsiaris, 2011) ,透過 CUBLAS 函示庫將資料映射到更高 的特徵空間時所必須計算的 kernel matrix 做平行運算,本系統所使用的 kernel 為 radial based function(RBF) ,其 kernel 做內積後展開可得下式, 𝑥𝑖 和𝑦𝑖 表示為欲分類類別的訓練向量。 ‖𝑥 − 𝑦‖2 = ∑(𝑥𝑖 )2 + ∑(𝑦𝑖 )2 − 2 × ∑(𝑥𝑖 × 𝑦𝑖 ) 其作法是先在 CPU 上計算每一個訓練向量的平方和 (sum of squares), 然後將訓練向量的陣列轉換成直欄取向(column wise)的形式,接著分 配 GPU 的記憶體給此陣列,並把陣列載入進去,使用 CUBLAS 函示庫 針對每一個訓練向量去做內積,最後根據上式算出 RBF kernel,以達減 少執行時間之目的。當同一病患的眼底影像進來時,根據該病患上一張. 15.

(24) 眼底影像所感興趣的區域進行定位,並將區域內的像素分類成病變像素 與背景像素,計算病變面積並與上次的病變面積紀錄做成長比率的計 算。 四、實驗與評估方法 本研究從 DIARETDB0 影像資料庫裡 110 張異常影像中隨機取十張 影像,並對每張影像的病變區域做手動分割與 SVM 分割,手動分割的 方法是使用 Flood Fill 演算法人為給予起始像素,從起始像素開始找尋鄰 近區域相似的像素,直到填滿整個病變區域為止;SVM 分割為系統執行 之結果。 在評估系統執行速度方面,本研究在 SVM 訓練階段各在 CPU 與 GPU 執行十次並求其平均,分析整體執行時間、SVM 訓練時間。在評估精確 度方面,本研究將手繪標記的病變區域與系統結果逐一比對,按正確分 類像素與像素總數的比率算出分類正確率。. 16.

(25) 第四章. 研究結果. 本研究使用 DIARETDB0 影像資料庫為實驗資料,其影像解析度為 1500*1152,內容包含 20 張的正常視網膜影像與 110 張的異常視網膜影 像,每張影像也附上其病癥的註解(Kauppi, Kalesnykiene, Kamarainen, Lensu, Sorri, Uusitalo, Kälviäinen & Pietil, 2006) 。本研究除了從過往文獻 與資料庫註解了解眼底影像病變特徵以外,也訪談兩位眼科醫生,探究 如何判讀眼底影像中的糖尿病視網膜病變與其代表含意。本研究開發環 境與工具如表 3-1 所示,另外使用由 Intel 開發的影像處理函示庫 OpenCV、 LIBSVM (Chang & Lin, 2011)與 GPU 加速後的 LIBSVM (Athanasopoulos et al. , 2011)建置系統。. 表 4-1 開發環境與工具. 處理器. Inter(R) Core(TM) i7-3770 CPU @ 3.40GHz 3.40GHz. 顯示卡. NVIDIA GeForce GTX 560. 記憶體. 16GB. 作業系統. Windows 7 enterprise. 開發工具. Microsoft visual studio 2010 professional. 17.

(26) 本研究模擬醫院環境,將本研究開發的糖尿病視網膜病變眼底影像 量化評估系統結合電子病歷管理系統與醫學影像儲傳系統( picture archiving and communication system, PACS) ,其介面與使用流程如下,當 病患完成掛號手續時,加入等候的佇列,如圖 4-1 所示,左邊的資料表 擺置的是電子病歷,本系統以姓名、身分證字號、出生年月日做為代表, 右邊的資料表則為等候佇列。為了方便進行實驗,左邊資料表上方設置 了勾選是否使用 GPU 加速支援向量機訓練的功能。. 圖 4-1 系統起始畫面. 18.

(27) 而當醫師叫出優先權最高的病患後,即調閱該病患的資料與電子病 歷,若之前有拍攝過眼底影像的紀錄,則亦可按下快捷鍵 z 調閱該病患 的影像,圖 4-2 與圖 4-3 顯示的是調閱資料的結果。. 圖 4-2 系統調閱病患資料與電子病歷. 圖 4-3 顯示的是有關眼底影像病變區域的量化資訊,左邊的資料表 顯示的是全部病變區域的資訊,包含當前醫師註記的病變區域與過往註 記過的病變區域大小,右邊的資料表顯示的是病患最新一張的眼底影像 與過往影像所紀錄的病變區域量化資訊比較。 19.

(28) 圖 4-3 眼底影像病變區域量化資訊. 圖 4-4 調閱眼底影像. 20.

(29) 圖 4-5 ROI 定位結果. 圖 4-5 顯示的是 ROI 定位的結果,當醫師選取病變區域以後,會將 該區域放大顯示,同時以閾值分割方法先自動將病變區域分割出來,醫 師可以從這放大的區域進行手動註記,如圖 4-6 所示,按下快捷鍵 r 可 以清除自動分割的結果,若 ROI 對比不足,則按下快捷鍵 h 做局部的直 方圖等化,同時做閾值分割。若醫師對分割結果不滿意,則可以再次按 下 r 清除分割結果後手動註記,若不慎標記到背景則可以按下 b 回上一 步。. (a). (b). (c). (e). (f). 圖 4-6 手動註記流程 (a)原始 ROI (b)局部直方圖等化與自動分割結果 (c)局部直方 圖等化 (e) 原始 ROI 與自動分割結果 (f) 原始 ROI 手動註記結果 21.

(30) 執行時間詳細實驗記錄如表 4-1 所示。第 1 列為 ROI 面積(即 SVM 的訓練與辨識資料大小) ,從第一張影像開始循序增加面積直至第十張, 其單位為 pixels。第 2、3、4 列各表示 SVM 訓練階段在 CPU 與 GPU 上 的平均執行時間(毫秒)及速度提升倍率,資料呈現如圖 4-1 所示。. 表 4-2 執行時間詳細記錄(單位:毫秒) Size of ROI. 4068 13520 15080. 19984. 21328. 21824. 29032. 29368. 37648. 94712. 206. 992. 1291. 1871.8 1495.5. 1777. 1992. 2325.1 2559.4 8785.5. 226. 941. 1234. 1778. 1421.2. 1662. 1862.5. 2190. 2440.2. 8291. 0.91. 1.05. 1.04. 1.05. 1.05. 1.06. 1.06. 1.06. 1.04. 1.05. CPU execution time GPU execution time Speed up. 2750 2500 2250. 2000 執 1750 行 1500 時 1250 間. CPU. GPU. 1000 750. 500 250 0 ROI 4068. ROI ROI ROI ROI ROI ROI ROI ROI 13520 15080 19984 21328 21824 29032 29368 37648. 圖 4-7 執行時間紀錄 22.

(31) 圖 4-1 縱軸為執行時間(毫秒) ,橫軸為 ROI 面積(pixels)。表 4-2 與表 4-3 顯示的是系統執行結果的正確率。 表 4-3 白色病變分割結果(單位:pixels) 原始影像. 手動分割. SVM 分割結果. 正確 分類. 像素 總數. 正確率 (%). 12837. 13908. 92. 24887. 25088. 99. 3004. 3364. 89. 正確 分類. 像素 總數. 正確率 (%). 55089. 57024. 96. 11064. 11868. 93. 3599. 3720. 96. 6070. 6536. 92. 表 4-4 紅色病變分割結果(單位:pixels) 原始影像. 手動分割. SVM 分割結果. 23.

(32) 在 SVM 訓練階段的執行時間方面,訓練資料小的時候無法提升效能, 從圖 4-1 可看出,當資料量只有 4068 筆(面積約 63*63)時,GPU 因為 必須花費資料傳輸的 I/O 時間,與 CPU 的執行時間相比反而增加了執行 時間;但從 13520 筆資料(面積約 116*116)開始,執行時間明顯減少 了大約 5%。以實驗資料 DIARETDB0 資料庫而言,每張影像所必須處 理的資料量都會超過上萬筆,舉第 106 張與第 109 張影像為例,隨意選 取幾個明顯的病變區域,如下圖所示,其必須處理的資料量分別為 38992 筆(面積約 197*197)與 40768 筆(面積約 201*201)。. (a). (b). 圖 4-8 病變區域在影像上所占的面積 (a)影像 106 (b)影像 109. 因此在實際應用面而言仍然可以達到減少執行時間的目的,本研究 建議未來系統發展可先行預判總資料大小,以決定是否切換到 GPU 上 進行 SVM 訓練。 在精確度方面,本研究所使用的影像資料庫並未提供基準與其比較, 24.

(33) 故將手繪分割的影像作為基準,將 SVM 分割的影像與手繪分割影像逐 像素相比求其精確度,其平均正確率可達約 94%,意即本研究所發展的 系統其輸出結果與人為判斷相比,平均近似度可達約 94%。 本研究的限制為所使用的影像資料庫並無提供同一病患在不同時期 所拍的第二張眼底影像,並且假設在同樣環境光源之下使用相同的眼底 攝影儀器設定所拍出來的眼底影像不會有大幅的明暗改變、影像梯形變 化與偏移,但實際應用面而言是否與本研究假設相同仍待驗證,建議未 來研究可以嘗詴與眼科醫師合作,取得同一病患在不同時期所拍的眼底 影像來得到更貼近現實需求的實驗結果。. 25.

(34) 26.

(35) 第五章. 結論. 本研究發展出一套糖尿病視網膜病變眼底影像量化評估系統,擷取 感興趣區域內病變像素值作為特徵,並以 GPU 加速支援向量機訓練過 程,進行病變的分類與識別,可以辨識並計算病變的區域面積與成長趨 勢等量化資訊提供醫師做為診斷的參考資料。建議未來研究可以嘗詴與 眼科醫師合作,取得同一病患在不同時期所拍的眼底影像來進行實驗, 同時也可以配合光學相干層析成像技術(Optical Coherence Tomography, OCT)所取得的視網膜斷層圖嘗詴做病變厚度的量化資訊。. 27.

(36) 28.

(37) 參考文獻 Athanasopoulos, A., Dimou, A., Mezaris, V., & Kompatsiaris, I. (2011). GPU acceleration for support vector machines. Paper presented at International Workshop on Image Analysis for Multimedia Interactive Services (WIAMIS), Delft, Netherlands. Badea, P., Danciu, D., & Davidescu, L. (2008). Preliminary results on using an extension of gradient method for detection of red lesions on eye fundus photographs. Paper presented at Automation, Quality and Testing, Robotics (AQTR), Cluj-Napoca, Romania. Chang, C. C., & Lin, C. J. (2011). LIBSVM : a library for support vector machines. ACM Transactions on Intelligent Systems and Technology (TIST), 2(2), 27-54. Chaudhuri, S., Chatterjee, S., Katz, N., Nelson, M., & Goldbaum, M. (1989). Detection of blood vessels in retinal images using two-dimensional matched filters. Medical Imaging, 8(3), 263-269. Cortes, C., & Vapnik, V. (1995). Support-vector networks. Machine Learning, 20, 273-597. Garcia, M., Sanchez, C. I., Lopez, M. I., Diez, A., & Hornero, R. (2008, August). Automatic detection of red lesions in retinal images using a multilayer. perceptron. neural. network.. Paper. presented. at. Engineering in Medicine and Biology Society (EMBS), Vancouver, Canada. Ghadiri, F., Pourreza, H., Banaee, T., & Delgir, M. (2011, December). Retinal vessel tortuosity evaluation via Circular Hough Transform. Paper presented at Iranian Conference on BioMedical Engineering 29.

(38) (ICBME), Tehran, Iran. Giancardo, L., Meriaudeau, F., Karnowski, T. P., Li, Y., Tobin, K. W., & Chaum, E. (2011, March). Automatic retina exudates segmentation without a manually labelled training set. Paper presented at International Symposium on Biomedical Imaging: From Nano to Macro (ISBI), Chicago, USA. Hafez, M., & Azeem, S. A. (2002, May). Using adaptive edge technique for detecting microaneurysms in fluorescein angiograms of the ocular fundus. Paper presented at Electrotechnical Conference (MELECON), Cairo, Egypt. Jaafar, H. F., Nandi, A. K., & Al-Nuaimy, W. (2010, August). Detection of exudates in retinal images using a pure splitting technique. Paper presented at Engineering in Medicine and Biology Society (EMBS), Buenos Aires, Argentina. Jaafar, H. F., Nandi, A. K., & Al-Nuaimy, W. (2011, August). Automated detection of red lesions from digital colour fundus photographs. Paper presented at Engineering in Medicine and Biology Society (EMBS), Boston, USA. Kande, G. B., Savithri, T. S., Subbaiah, P. V., & Tagore, M. R. M. (2009, June). Detection of red lesions in digital fundus images. Paper presented at Biomedical Imaging: From Nano to Macro (ISBI), Boston, USA. Kauppi, T., Kalesnykiene, V., Kamarainen, J. K., Lensu, L., Sorri, I., Uusitalo, H., Kälviäinen, H., & Pietil, J. (2006). DIARETDB0: evaluation database and methodology for diabetic retinopathy algorithms. Lappeenranta: Lappeenranta University of Technology. 30.

(39) Niemeijer, M., Ginneken, B. V., Staal, J., Maria, S. A., & Michael, D. (2005, May). Automatic detection of red lesions in digiital color fundus photographs. Transactions on medical imaging, 14(5), 584-592. Otsu, N. (1979). A trreshold selection method from gray-level histogreams. IEEE transactions on systems, man, and cybernetics, 9(1), 62-66. Rocha, A., Carvalho, T., Jelinek, H. F., Goldenstein, S., & Wainer, J. (2012). Points of interest and visual dictionaries for automatic retinal lesion Detection. Biomedical Engineering, IEEE Transactions on, 59(8), 2244-2253. Selvathi, D., & Balagopal, N. (2012, March). Detection of retinal blood vessels using curvelet transform. Paper presented at International Conference on Devices, Circuits and Systems (ICDCS), Coimbatore, India. Tamilarasi, M., & Duraiswamy, K. (2013, January). Genetic based fuzzy seeded region growing segmentation for diabetic retinopathy images, Paper. presented. at. International. Conference. on. Computer. Communication and Informatics (ICCCI), Coimbatore, India. Verma, K., Deep, P., & Ramakrishnan, A. G. (2011, December). Detection and classification of diabetic retinopathy using retinal images. Paper presented at India Conference (INDICON), Hyderabad, India. Wild, S., Roglic, G., Green, A., Sicree, R., & King, H. (2004). Global prevalence of diabetes estimates for year 2000 and projections for 2030. Diabetes Care, 27(5), 1047–1053. Wu, D., Zhang, M., Liu, J. C., & Bauman, W. (2006). On the adaptive detection of blood vessels in retinal images. Biomedical Engineering, 53(2), 341-343. 31.

(40) Zhang, X. H., & Chutatape, A. (2004, October). Detection and classification of bright lesions in color fundus images, Paper presented at International Conference on Image Processing (ICIP), Singapore.. 32.

(41)

參考文獻

相關文件

Kielsmeier (2002) “Recasting the Role of Youth in the 21st Century: Active Learning and Civic Engagement” Paper presented in the National Service-Learning Conference 2002:

“A feature re-weighting approach for relevance feedback in image retrieval”, In IEEE International Conference on Image Processing (ICIP’02), Rochester, New York,

Mehrotra, “Content-based image retrieval with relevance feedback in MARS,” In Proceedings of IEEE International Conference on Image Processing ’97. Chakrabarti, “Query

A digital color image which contains guide-tile and non-guide-tile areas is used as the input of the proposed system.. In RGB model, color images are very sensitive

Godsill, “Detection of abrupt spectral changes using support vector machines: an application to audio signal segmentation,” Proceedings of the IEEE International Conference

(英文) The Sixth International Conference on Intelligent Information Hiding and Multimedia Signal Processing (IIHMSP 2010). 發表 論文

[16] Goto, M., “A Robust Predominant-F0 Estimation Method for Real-time Detection of Melody and Bass Lines in CD Recordings,” Proceedings of the 2000 IEEE International Conference

When applying the detection software and algorithm to color printing, there are the situation like change of source of light, offset of printing and rolling processing