• 沒有找到結果。

20 傅立葉頻率和統計特徵辨識之準確率

在文檔中 常見食用性貝類辨識之研究 (頁 108-127)

第六章 未來研究

續表 4- 20 傅立葉頻率和統計特徵辨識之準確率

4.7 各實驗整理

根據文獻[9]的方法使用在本論文的貝類和本論文實驗 A~F 方法、辨識 率和時間整理如表 4-22 所示:

表 4-22 各實驗方法、辨識率和時間整理

實驗 主要方法 辨識率

平均辨識一 張時間 蘇[9] HMMD+CCD+FTS+統計分析 29.92%

實驗 A PCA 99.62% 1.56(s)

實驗 B 小波轉換再統計分析 76.14% 0.049(s)

實驗 C 統計分析 84.85% 0.057(s)

實驗 D 小波轉換+統計分析 95.08% 0.080(s)

實驗 E 快速傅立葉轉換 100% 0.044(s)

實驗 F 統計分析+快速傅立葉轉換 100% 0.078(s)

第五章 討論與結論

本研究針對數位典藏與數位學習成果入口網中的食用貝類進行辨識,

針對這些貝類辨識共做 6 種不同的實驗,其實驗分別為實驗 A:主成分分 析實驗,這個實驗是利用顏色和邊緣,經由主成分分析後,可得到較重要 的特徵點,最後再進行辨識,其辨識率有到 99.62%,但是其辨識所花的時 間高達 1.56 秒,如果從主成分分析的實驗來看,其單獨顏色或邊緣之辨識 率其實已經不算太低,其主要原因在於主成分分析有一個特性,可讓組內 變異變小及組間變異變大,故會將相同物體的差異度變小,不同物體之差 異性變大,所以其辨識率相對而言是較高的,但是它的缺點在於降維過程 中需要花比較多時間。

實驗 B:小波轉換頻率特徵實驗,這個實驗是先將影像轉成灰階圖,

經由小波轉換後可得到頻率頻譜,本實驗是使用三階小波轉換,針對其低 頻的部分做一些統計上的分析,再使用 SVM 進行分類,其辨識率有 76.14%,

所花的時間為 0.049 秒,這個實驗辨識率不好,其原因可能是統計分析值 只用了兩個,故其辨識率相對而言較低。

實驗 C:統計特徵實驗,統計特徵實驗主要是利用顏色的特徵來做辨 識,由一個 RGB 色彩空間轉換到 YCbCr 色彩空間,再分別對 Y、Cb 和 Cr 分量分別做統計分析,最後藉由 SVM 進行分類,其辨識率有 84.85%,

所花的時間為 0.057 秒,這種方法辨識率較低,其主要原因在於它是利用 直方圖的累積量去做分析,因為不同影像可能會有相同或相近的累積量,

經由統計分析後其值也會相近,這樣一來就容易辨識錯誤,不過其所花的 時間不會太多。

實驗 D:小波轉換頻率特徵及統計特徵實驗,這個實驗是結合實驗 B

由於考量時間的部分,所以並沒有與實驗 A 做結合,一般而言,特徵 越多其準確率會越高,但是所花的時間也會變多,由實驗 B、實驗 C 和實 驗 D,便可清楚知道其中道理。

綜合以上觀點與實驗,比較其準確率及時間,可知實驗 E:傅立葉轉 換頻率特徵實驗,其準確率最高且時間是最短的,所以如果以辨識貝類而 言,實驗 E 是最佳的選擇。

第六章 未來研究

對於實驗 A 其未來研究可以朝向降低其辨識時間,其主要的方法有兩 種,第一,不要使用彩色影像去做降維,因為彩色影像是三維,其維度相 當的高,所以會花很多時間,改變的方式可以用灰階影像去做處理,或是 將 YCbCr 分為三個通道再各別處理,看哪個通道的貢獻最大,可以只使用 其通道,這樣所花的時間會大為減少;第二,可以縮小影像之大小,因為 縮小影像其維度也會變小,這樣降維所花的時間也會減少許多。實驗 B 的 部分,可以考慮用其他方法來取代對於低頻影像之統計分析,或許可以改 善其準確率偏低之問題,另一方面也可以增加統計特徵值,可以提高其辨 識率,但所花的時間也會相對較多一點。實驗 C 的部分,可以多增加幾個 常用統計特徵值,例如:歪斜度(skewness)、峰度(kurtosis)和能量(energy) 等等,藉此看是否能提升其辨識率。實驗 E 的部分,可以嘗試其他取低頻 部份,例如可以將取四角的 7×7 方陣,改為取 4×4 的方陣或是更小,看是 否會影響其辨識率,也或許可以只取左上角之低頻部份,看是否能再縮短 時間,但不會改變其準確率。最後,可以根據改良後的方法做一個實驗的 合併,對於其準確率及時間做比較與分析。

參考文獻

英文部分:

[1] M.S. Lew, N. Sebe, C. Djeraba and R. Jain, “Content-based Multimedia Information Retrieval:State of the Art and Challenges”, ACM Transactions on Multimedia Computing, Communications, and Applications, pp. 1–19, 2006.

[2] J. Eakins and M. Graham, “Content-based Image Retrieval”, JISC Technology Applications Program, 1999

[3] A.D. Bimbo and P. Pala, “Visual Image Retrieval by Elastic Matching of User Sketches,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no. 2, 1997

[4] VisualSEEk, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node42.html [5] PhotoBook, http://vismod.media.mit.edu/vismod/demos/photobook/

foureyes/ph-figs/foureyes.jpg

[6] PhotoBook, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node30.html [7] The QBIC Project in the Department of Art and Art History at UC Davis,

http://asis.org/annual-97/holt.htm

[8] WebSEEk, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node44.html [10] Color Theory and Principles,

http://www.infocellar.com/graphics/color-theory.htm

[11] Color Spaces, http://www.couleur.org/index.php?page=transformations [12] HSV cylinder color solid comparison, https://zh.wikipedia.org/wiki/

File:HSL_HSV_cylinder_color_solid_comparison.png

[13] SubtractiveColor, http://en.wikipedia.org/wiki/File:SubtractiveColor.svg

[16] Poynton, C. A. “A Technical Introduction to Digital Video,” John Wiley &

Sons, Inc., 1996, p. 175.

[17] M. Turk and A. Pentland, “Eigenfaces for Recongnition,” Jour. Of Cognitive Neuroscience, Vol. 3, pp.71-86, 1991

[18] V.N. Vapnik, “The Nature of Statistical Learning Theory,” Springer, 1995.

[19] Christopher J.C. Burges, “A Tutorial on Support Vector Machines for Pattern Recognition” , Data Mining and Knowledge Discovery 2, pp.121-167, 1998.

[20] J.H. Friedman, “Another approach to polychotomous classification,”

Technical report, Department of Statistics, Stanford University, 1996.

[21] L. Bottou, C. Cortes, J.S. Denker, H. Drucker, I. Guyon, L.D. Jackel, Y.

LeCun, U.A. Muller, E. Sackinger, P. Simard, and V.

Vapnik, :”Comparison of classifier methods: a case study in handwritten digit recognition,” in Pattern Recognition - Conference B: Computer Vision & Image Processing., Proceedings of the 12th IAPR International.

Conference on, pp. 77-82, 1994.

[22] J.C. Platt, N. Cristianini, and J. Shawe-Taylor,:” Large margin DAGs for multiclass classification,” Advances in Neural Information Processing Systems, Vol. 12, pp. 547-553, 2000.

[23] C. Cortes and V. Vapnik, “Support Vector Network,” Machine Learning, vol. 20, pp. 273-297, 1995.

[25] C. Cortes and V. Vapnik, “Support Vector Network,” Machine Learning, vol. 20, pp. 273-297, 1995.

[26] S.R. Gunn, “Support Vector Machines for Classification and Regression,”

Technical Report, 329 University of Southampton, 1998.

[28] C.W. Hsu, and C.J. Lin, “A Comparison of Methods for Multiclass Support Vector Machines,” IEEE Transactions on Neural Networks, vol.

13, no. 2, pp. 415-425, 2002.

[29] C.W. Hsu, C.C. Chang, and C.J. Lin, “A Practical Guide to Support Vector Classification,” Department of Computer Science and Information Engineering, National Taiwan University, 2003.

[30] R. Kimmel and A.M. Bruckstein, “Regularized Laplacian Zero Crossings as Optimal Edge Integrators” , International Journal of Computer Vision 53(3), pp.225–243, 2003.

[31] J. Canny, “A Computational Approach to Edge Detection,” IEEE Transactions on Pattern Analysis and Machine intelligence, Vol. PAMI-8, No.6, November 1986.

[32] S. Qiang and L. Liu, “Compare between several Linear Image Edge Detection Algorithm”, Second International Conference on Machine Vision, pp. 259-263, 2009.

[33] Wavelet Toolbox For Use with MATLAB,

http://web.mit.edu/1.130/WebDocs/wavelet_ug.pdf

[34] S. Mallat, “A theory for multiresolution signal decomposition: The Wavelet Representation,” IEEE Trans. on Pattern Analysis and Machine Intelligence., vol. 11, no. 7, pp. 674-693 ,1989.

[35] Wavelet Analysis,

http://radio.feld.cvut.cz/matlab/toolbox/wavelet/ch01_in8.html

[36] S. Mallat, “A compact multiresolution representation: The Wavelets Model,” in Proc. IEEE Workshop Computer Vision, Miami, FL, Dec.

1987.

[37] Y. Meyer, “Ondelettes et Functions splines,” in Seminaire EDP, Ecole Polytechnique, Paris, Frances, Dec. 1986.

[39] G. Strang and T. Nguyen, Wavelets and Filter Banks. Wellesley, MA:

Wellesley-Cambridge Press, 1996.

[40] P.S. Addison, Illustrated Wavelet Transform Handbooks, Bristol: Institute of Physics Publishing, 2002.

中文部份:

[9] 蘇裕盛,「利用影像特徵選取及分類方法於貝類檢索之研究」,國立高 雄第一科技大學資訊管理系碩士論文,2008。

[14] 鐘國亮,「影像處理與電腦視覺」,台灣東華書局股份有限公司,2004 [15] Gonzalez.Woods,Digital Image Processing 3/e,繆紹剛譯,「數位影像

處理」,台灣培生教育出版股份有限公司,2009

[47] http://fishdb.sinica.edu.tw/chi/home.php [48] http://shell.sinica.edu.tw/chinese/index_c.php

[49] http://shell.sinica.edu.tw/chinese/shelloutline.php?PAGE=1 [50] http://shell.sinica.edu.tw/chinese/classification_T.php [51]http://catalog.digitalarchives.tw/Hotkey/428/1.html

附錄 A libsvm 使用方法

Libsvm 是林智仁教授所發展出的一個系統,它可以用來預測 SVM 系 統中兩個重要的參數,分別是 c(cost)與 g(gamma)值,本論文使用命令提示 字元(cmd)來執行,若要讓系統能夠將 c 與 g 值畫成圖表示,須先下載 gnuplot 並將其放入與訓練和測試資料同一個資料夾,以下便開始說明如何 使用及操作介面。

指令:cd /d c:\Program Files\libsvm\windows 說明:cd /d 為切換指令

c:Program Files\libsvm\windows 為指定目錄

圖 A-1 命令提示字元指定到 libsvm 資料夾

<法一>

指令:svm-train heart_scale

說明:svm-train(訓練執行檔)、heart_scale(訓練數據檔名)

圖 A-2 命令提示字元輸入訓練資料 指令:svm-predict heart_scale heart_scale.model heart_out

說 明 : svm-predict( 預 測 執 行 檔 ) 、 heart_scale( 測 式 數 據 ) 、 heart_scale.model(訓練模型)、heart_out(輸出檔)

圖 A-3 命令提示字元執行預測執行檔

指令:grid.py heart_scale

說明:grid.py(執行檔)、heart_scale(訓練數據檔名)

圖 A-4 命令提示字元執行 grid.py

輸出結果:2048.0 0.0001220703125 84.0741 其中:c=2048.0、g=0.0001220703125

圖 A-5 grid.py 輸出參數圖形

<法二>

指令:easy.py heart_scale

說明:easy.py (執行檔)、heart_scale(訓練數據檔名)

圖 A-6 命令提示字元執行 easy.py

圖 A-7 easy.py 輸出參數圖形

附錄 B weka 使用方法

Weka 是一套數據挖掘軟體,它可以處理數據挖掘任務的機器學習演算 法,其中包含對數據的預處理、分類和聚類等等,而它的語法是用 Java 環 境所開發,以下便介紹其數據格式與使用方法。

數據格式:

首先將運算完的特徵點用 excel 存成檔案,其中一部份的數據如下圖 所示:

圖 B-1 excel 特徵點數據

再來將數據的第一列標上數據特徵名稱,最後一行加入分類的種類,

接下來存成.csv 檔,其數據如下圖所示:

圖 B-2 加入特徵名稱及種類編號

最後用 weka 將.csv 檔轉成.arff 檔,即可變成 weka 常用的檔案格式。

Weka 使用方法:

Weka 的進入介面如下圖所示:

圖 B-3 weka 進入介面

進入選擇介面,點選 Explorer 後,可以選擇所要載入的資料,如下圖所示:

圖 B-4 weka 載入資料

接下來選擇 Classify 會進入另一個頁面,並選擇 SVM 分類器,如下圖所示:

圖 B-5 weka 選擇分類器

接下來點選 Choose 旁邊的空白,輸入 c 與 g 值參數,如下圖所示:

圖 B-6 輸入參數值

選擇 Start 及可完成訓練,如下圖所示:

圖 B-7 訓練完成介面

選擇 Supplied test set 後可以選擇測試資料,選完後一樣按 Start 即會有辨識 結果出來,其結果如下圖所示:

圖 B-8 測式完成介面

根據測試完成後,其介面中有一個矩陣即可判斷哪種貝類辨識正確與否,

假設有三個物體分為 a、b 和 c 類每一類為六張,其測試完後的矩陣,如下 所示:

主對角線上第一個數字 6 為 a 類測試 6 張影像均為正確,而主對角線上第 二個數字 5 表示 b 類測試 5 張影像為正確,其中一張辨識錯誤且辨識錯誤 為 a 類,而 c 類亦為完全辨識正確。

在文檔中 常見食用性貝類辨識之研究 (頁 108-127)

相關文件