第六章 未來研究
續表 4- 20 傅立葉頻率和統計特徵辨識之準確率
4.7 各實驗整理
根據文獻[9]的方法使用在本論文的貝類和本論文實驗 A~F 方法、辨識 率和時間整理如表 4-22 所示:
表 4-22 各實驗方法、辨識率和時間整理
實驗 主要方法 辨識率
平均辨識一 張時間 蘇[9] HMMD+CCD+FTS+統計分析 29.92%
實驗 A PCA 99.62% 1.56(s)
實驗 B 小波轉換再統計分析 76.14% 0.049(s)
實驗 C 統計分析 84.85% 0.057(s)
實驗 D 小波轉換+統計分析 95.08% 0.080(s)
實驗 E 快速傅立葉轉換 100% 0.044(s)
實驗 F 統計分析+快速傅立葉轉換 100% 0.078(s)
第五章 討論與結論
本研究針對數位典藏與數位學習成果入口網中的食用貝類進行辨識,
針對這些貝類辨識共做 6 種不同的實驗,其實驗分別為實驗 A:主成分分 析實驗,這個實驗是利用顏色和邊緣,經由主成分分析後,可得到較重要 的特徵點,最後再進行辨識,其辨識率有到 99.62%,但是其辨識所花的時 間高達 1.56 秒,如果從主成分分析的實驗來看,其單獨顏色或邊緣之辨識 率其實已經不算太低,其主要原因在於主成分分析有一個特性,可讓組內 變異變小及組間變異變大,故會將相同物體的差異度變小,不同物體之差 異性變大,所以其辨識率相對而言是較高的,但是它的缺點在於降維過程 中需要花比較多時間。
實驗 B:小波轉換頻率特徵實驗,這個實驗是先將影像轉成灰階圖,
經由小波轉換後可得到頻率頻譜,本實驗是使用三階小波轉換,針對其低 頻的部分做一些統計上的分析,再使用 SVM 進行分類,其辨識率有 76.14%,
所花的時間為 0.049 秒,這個實驗辨識率不好,其原因可能是統計分析值 只用了兩個,故其辨識率相對而言較低。
實驗 C:統計特徵實驗,統計特徵實驗主要是利用顏色的特徵來做辨 識,由一個 RGB 色彩空間轉換到 YCbCr 色彩空間,再分別對 Y、Cb 和 Cr 分量分別做統計分析,最後藉由 SVM 進行分類,其辨識率有 84.85%,
所花的時間為 0.057 秒,這種方法辨識率較低,其主要原因在於它是利用 直方圖的累積量去做分析,因為不同影像可能會有相同或相近的累積量,
經由統計分析後其值也會相近,這樣一來就容易辨識錯誤,不過其所花的 時間不會太多。
實驗 D:小波轉換頻率特徵及統計特徵實驗,這個實驗是結合實驗 B
由於考量時間的部分,所以並沒有與實驗 A 做結合,一般而言,特徵 越多其準確率會越高,但是所花的時間也會變多,由實驗 B、實驗 C 和實 驗 D,便可清楚知道其中道理。
綜合以上觀點與實驗,比較其準確率及時間,可知實驗 E:傅立葉轉 換頻率特徵實驗,其準確率最高且時間是最短的,所以如果以辨識貝類而 言,實驗 E 是最佳的選擇。
第六章 未來研究
對於實驗 A 其未來研究可以朝向降低其辨識時間,其主要的方法有兩 種,第一,不要使用彩色影像去做降維,因為彩色影像是三維,其維度相 當的高,所以會花很多時間,改變的方式可以用灰階影像去做處理,或是 將 YCbCr 分為三個通道再各別處理,看哪個通道的貢獻最大,可以只使用 其通道,這樣所花的時間會大為減少;第二,可以縮小影像之大小,因為 縮小影像其維度也會變小,這樣降維所花的時間也會減少許多。實驗 B 的 部分,可以考慮用其他方法來取代對於低頻影像之統計分析,或許可以改 善其準確率偏低之問題,另一方面也可以增加統計特徵值,可以提高其辨 識率,但所花的時間也會相對較多一點。實驗 C 的部分,可以多增加幾個 常用統計特徵值,例如:歪斜度(skewness)、峰度(kurtosis)和能量(energy) 等等,藉此看是否能提升其辨識率。實驗 E 的部分,可以嘗試其他取低頻 部份,例如可以將取四角的 7×7 方陣,改為取 4×4 的方陣或是更小,看是 否會影響其辨識率,也或許可以只取左上角之低頻部份,看是否能再縮短 時間,但不會改變其準確率。最後,可以根據改良後的方法做一個實驗的 合併,對於其準確率及時間做比較與分析。
參考文獻
英文部分:
[1] M.S. Lew, N. Sebe, C. Djeraba and R. Jain, “Content-based Multimedia Information Retrieval:State of the Art and Challenges”, ACM Transactions on Multimedia Computing, Communications, and Applications, pp. 1–19, 2006.
[2] J. Eakins and M. Graham, “Content-based Image Retrieval”, JISC Technology Applications Program, 1999
[3] A.D. Bimbo and P. Pala, “Visual Image Retrieval by Elastic Matching of User Sketches,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no. 2, 1997
[4] VisualSEEk, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node42.html [5] PhotoBook, http://vismod.media.mit.edu/vismod/demos/photobook/
foureyes/ph-figs/foureyes.jpg
[6] PhotoBook, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node30.html [7] The QBIC Project in the Department of Art and Art History at UC Davis,
http://asis.org/annual-97/holt.htm
[8] WebSEEk, http://www.aa-lab.cs.uu.nl/cbirsurvey/cbir-survey/node44.html [10] Color Theory and Principles,
http://www.infocellar.com/graphics/color-theory.htm
[11] Color Spaces, http://www.couleur.org/index.php?page=transformations [12] HSV cylinder color solid comparison, https://zh.wikipedia.org/wiki/
File:HSL_HSV_cylinder_color_solid_comparison.png
[13] SubtractiveColor, http://en.wikipedia.org/wiki/File:SubtractiveColor.svg
[16] Poynton, C. A. “A Technical Introduction to Digital Video,” John Wiley &
Sons, Inc., 1996, p. 175.
[17] M. Turk and A. Pentland, “Eigenfaces for Recongnition,” Jour. Of Cognitive Neuroscience, Vol. 3, pp.71-86, 1991
[18] V.N. Vapnik, “The Nature of Statistical Learning Theory,” Springer, 1995.
[19] Christopher J.C. Burges, “A Tutorial on Support Vector Machines for Pattern Recognition” , Data Mining and Knowledge Discovery 2, pp.121-167, 1998.
[20] J.H. Friedman, “Another approach to polychotomous classification,”
Technical report, Department of Statistics, Stanford University, 1996.
[21] L. Bottou, C. Cortes, J.S. Denker, H. Drucker, I. Guyon, L.D. Jackel, Y.
LeCun, U.A. Muller, E. Sackinger, P. Simard, and V.
Vapnik, :”Comparison of classifier methods: a case study in handwritten digit recognition,” in Pattern Recognition - Conference B: Computer Vision & Image Processing., Proceedings of the 12th IAPR International.
Conference on, pp. 77-82, 1994.
[22] J.C. Platt, N. Cristianini, and J. Shawe-Taylor,:” Large margin DAGs for multiclass classification,” Advances in Neural Information Processing Systems, Vol. 12, pp. 547-553, 2000.
[23] C. Cortes and V. Vapnik, “Support Vector Network,” Machine Learning, vol. 20, pp. 273-297, 1995.
[25] C. Cortes and V. Vapnik, “Support Vector Network,” Machine Learning, vol. 20, pp. 273-297, 1995.
[26] S.R. Gunn, “Support Vector Machines for Classification and Regression,”
Technical Report, 329 University of Southampton, 1998.
[28] C.W. Hsu, and C.J. Lin, “A Comparison of Methods for Multiclass Support Vector Machines,” IEEE Transactions on Neural Networks, vol.
13, no. 2, pp. 415-425, 2002.
[29] C.W. Hsu, C.C. Chang, and C.J. Lin, “A Practical Guide to Support Vector Classification,” Department of Computer Science and Information Engineering, National Taiwan University, 2003.
[30] R. Kimmel and A.M. Bruckstein, “Regularized Laplacian Zero Crossings as Optimal Edge Integrators” , International Journal of Computer Vision 53(3), pp.225–243, 2003.
[31] J. Canny, “A Computational Approach to Edge Detection,” IEEE Transactions on Pattern Analysis and Machine intelligence, Vol. PAMI-8, No.6, November 1986.
[32] S. Qiang and L. Liu, “Compare between several Linear Image Edge Detection Algorithm”, Second International Conference on Machine Vision, pp. 259-263, 2009.
[33] Wavelet Toolbox For Use with MATLAB,
http://web.mit.edu/1.130/WebDocs/wavelet_ug.pdf
[34] S. Mallat, “A theory for multiresolution signal decomposition: The Wavelet Representation,” IEEE Trans. on Pattern Analysis and Machine Intelligence., vol. 11, no. 7, pp. 674-693 ,1989.
[35] Wavelet Analysis,
http://radio.feld.cvut.cz/matlab/toolbox/wavelet/ch01_in8.html
[36] S. Mallat, “A compact multiresolution representation: The Wavelets Model,” in Proc. IEEE Workshop Computer Vision, Miami, FL, Dec.
1987.
[37] Y. Meyer, “Ondelettes et Functions splines,” in Seminaire EDP, Ecole Polytechnique, Paris, Frances, Dec. 1986.
[39] G. Strang and T. Nguyen, Wavelets and Filter Banks. Wellesley, MA:
Wellesley-Cambridge Press, 1996.
[40] P.S. Addison, Illustrated Wavelet Transform Handbooks, Bristol: Institute of Physics Publishing, 2002.
中文部份:
[9] 蘇裕盛,「利用影像特徵選取及分類方法於貝類檢索之研究」,國立高 雄第一科技大學資訊管理系碩士論文,2008。
[14] 鐘國亮,「影像處理與電腦視覺」,台灣東華書局股份有限公司,2004 [15] Gonzalez.Woods,Digital Image Processing 3/e,繆紹剛譯,「數位影像
處理」,台灣培生教育出版股份有限公司,2009
[47] http://fishdb.sinica.edu.tw/chi/home.php [48] http://shell.sinica.edu.tw/chinese/index_c.php
[49] http://shell.sinica.edu.tw/chinese/shelloutline.php?PAGE=1 [50] http://shell.sinica.edu.tw/chinese/classification_T.php [51]http://catalog.digitalarchives.tw/Hotkey/428/1.html
附錄 A libsvm 使用方法
Libsvm 是林智仁教授所發展出的一個系統,它可以用來預測 SVM 系 統中兩個重要的參數,分別是 c(cost)與 g(gamma)值,本論文使用命令提示 字元(cmd)來執行,若要讓系統能夠將 c 與 g 值畫成圖表示,須先下載 gnuplot 並將其放入與訓練和測試資料同一個資料夾,以下便開始說明如何 使用及操作介面。
指令:cd /d c:\Program Files\libsvm\windows 說明:cd /d 為切換指令
c:Program Files\libsvm\windows 為指定目錄
圖 A-1 命令提示字元指定到 libsvm 資料夾
<法一>
指令:svm-train heart_scale
說明:svm-train(訓練執行檔)、heart_scale(訓練數據檔名)
圖 A-2 命令提示字元輸入訓練資料 指令:svm-predict heart_scale heart_scale.model heart_out
說 明 : svm-predict( 預 測 執 行 檔 ) 、 heart_scale( 測 式 數 據 ) 、 heart_scale.model(訓練模型)、heart_out(輸出檔)
圖 A-3 命令提示字元執行預測執行檔
指令:grid.py heart_scale
說明:grid.py(執行檔)、heart_scale(訓練數據檔名)
圖 A-4 命令提示字元執行 grid.py
輸出結果:2048.0 0.0001220703125 84.0741 其中:c=2048.0、g=0.0001220703125
圖 A-5 grid.py 輸出參數圖形
<法二>
指令:easy.py heart_scale
說明:easy.py (執行檔)、heart_scale(訓練數據檔名)
圖 A-6 命令提示字元執行 easy.py
圖 A-7 easy.py 輸出參數圖形
附錄 B weka 使用方法
Weka 是一套數據挖掘軟體,它可以處理數據挖掘任務的機器學習演算 法,其中包含對數據的預處理、分類和聚類等等,而它的語法是用 Java 環 境所開發,以下便介紹其數據格式與使用方法。
數據格式:
首先將運算完的特徵點用 excel 存成檔案,其中一部份的數據如下圖 所示:
圖 B-1 excel 特徵點數據
再來將數據的第一列標上數據特徵名稱,最後一行加入分類的種類,
接下來存成.csv 檔,其數據如下圖所示:
圖 B-2 加入特徵名稱及種類編號
最後用 weka 將.csv 檔轉成.arff 檔,即可變成 weka 常用的檔案格式。
Weka 使用方法:
Weka 的進入介面如下圖所示:
圖 B-3 weka 進入介面
進入選擇介面,點選 Explorer 後,可以選擇所要載入的資料,如下圖所示:
圖 B-4 weka 載入資料
接下來選擇 Classify 會進入另一個頁面,並選擇 SVM 分類器,如下圖所示:
圖 B-5 weka 選擇分類器
接下來點選 Choose 旁邊的空白,輸入 c 與 g 值參數,如下圖所示:
圖 B-6 輸入參數值
選擇 Start 及可完成訓練,如下圖所示:
圖 B-7 訓練完成介面
選擇 Supplied test set 後可以選擇測試資料,選完後一樣按 Start 即會有辨識 結果出來,其結果如下圖所示:
圖 B-8 測式完成介面
根據測試完成後,其介面中有一個矩陣即可判斷哪種貝類辨識正確與否,
假設有三個物體分為 a、b 和 c 類每一類為六張,其測試完後的矩陣,如下 所示:
主對角線上第一個數字 6 為 a 類測試 6 張影像均為正確,而主對角線上第 二個數字 5 表示 b 類測試 5 張影像為正確,其中一張辨識錯誤且辨識錯誤 為 a 類,而 c 類亦為完全辨識正確。