• 沒有找到結果。

第五章 實驗結果

5.3 以粒子群最佳化估測基礎矩陣實驗結果

5.3.2 第二組實驗(LIDAR)資料

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

69

5.3.2 第二組實驗(LIDAR)資料

第一組 LIDAR 資料

光達資料是一種雷射成像系統,可以將三維模型中的座標記錄下來,相機對 物體拍攝相片後,只要透過投影矩陣,即可計算出三維物體在相片上的座標,我 們可以透過這個步驟獲得 ground truth 資料,圖 5.17 是實驗用的兩張相片。

圖 5.17:LIDAR 第一組實驗相片

相片解析度為 3072x2048,籃子大小為 256x256,共有 96 個,初始找尋對應 點時採用 SIFT 演算法,由於電腦記憶體不足以處理較大的相片解析度,因此我 們在找尋對應點時,會先將相片解析度縮小一半為 1536x1024,找到後的對應點 座標在乘上兩倍,便可以獲得對應點資訊,共可以找到 1336 組對應點,而用來 驗證的 ground truth 資料,則有 2121 組對應點。

採用 5.3.1 小節的三種方法和接近的疊代次數,我們可以有以下的實驗結果,

如表 11、12。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

70

表 11:LIDAR 場景估測基礎矩陣第一組結果

方法 1000 組平均誤差 1000 組標準差 1000 組需要時間 PSO 0.237 像素 0.1056 像素 8 小時 LMedS_PSO 0.247 像素 0.1056 像素 29 小時

LMedS 0.278 像素 0.1057 像素 70 小時

表 12:LIDAR 場景估測基礎矩陣第一組結果標準差分佈 方法 小於平均標準差 小於 0~1 倍 小於 1~2 倍

PSO 673 個 633 個 40 個

LMedS_PSO 642 個 599 個 43 個

LMedS 564 個 541 個 23 個

從表 11、12 可以發現,當我們資料量越多,花費的時間成本也相對增多,

不過 PSO 的方法仍是誤差最小,且時間花費最少的,接著我們統計三種方法的 一千組結果,計算總平均、標準差,繪製出直方圖和累積的折線圖,如圖 5.18、

5.19。

圖 5.18:LIDAR 第一組實驗直方圖比較

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

71

圖 5.19:LIDAR 第一組實驗折線圖比較

第二組 LIDAR 資料

第二組資料的兩張照片如圖 5.20。

圖 5.20:LIDAR 第二組實驗相片

相片解析度為 3072x2048,籃子大小為 256x256,共有 96 個,共可以找到 1157 組對應點,而用來驗證的 ground truth 資料,則有 1733 組對應點,實驗結 果如表 13、14。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

72

表 13:LIDAR 場景估測基礎矩陣第二組結果

方法 1000 組平均誤差 1000 組標準差 1000 組需要時間 PSO 0.385 像素 0.1683 像素 6 小時 LMedS_PSO 0.386 像素 0.1684 像素 23 小時

LMedS 0.431 像素 0.1685 像素 56 小時

表 14:LIDAR 場景估測基礎矩陣第二組結果標準差分佈 方法 小於平均標準差 小於 0~1 倍 小於 1~2 倍

PSO 638 個 520 個 118 個

LMedS_PSO 627 個 492 個 135 個

LMedS 515 個 420 個 95 個

PSO 的方法仍是誤差最小,且時間花費最少的,接著我們統計三種方法的一 千組結果,計算總平均、標準差,繪製出直方圖和累積的折線圖,如圖 5.21、5.22。

圖 5.21:LIDAR 第二組實驗直方圖比較

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

73

圖 5.22:LIDAR 第二組實驗折線圖比較

5.3.3 討論與分析

從 5.3.1 和 5.3.2 共三組實驗結果看出來,三種方法用接近的疊代計算次數比 較,使用 PSO 的方法比過去使用強健式方法 LMedS 快上不少,平均誤差值也較 小,而我們另外結合兩種方法的 LMedS_PSO 則是在時間成本、平均誤差值皆介 於中間,這是可以預期的,第一組 3DMAX 資料因為是我們用電腦模擬,包括相 機的參數皆有的情況下,算出來的誤差值較小,而第二組 LIDAR 資料因為在找 對應點時遇到記憶體不足的問題,調整後已經造成些誤差,再來利用投影矩陣投 影回相片上時,需要做正規化,這部份也產生了誤差,因此整體比較下來,誤差 比 3DMAX 資料大,但是就 LIDAR 資料來說,我們提出的方法是有效率且誤差 值較小的,有了這些資訊後,適合未來繼續進行相關研究。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

75

6.2 未來工作

未來我們可以考慮在演算法初始化步驟中加入挑選點的方法,田口方法是有 機會加入並且結合的,由於粒子群最佳化演算法是會根據過去經驗不斷更新疊代 的演算法,因此第一次挑選扮演著重要的角色,若初始選點可以分散並且具有規 則,或許有機會在搜尋空間中做比較完整的搜尋,雖然我們已經利用分群與隨機 取樣的方法儘可能將初始化的對應點分散和避免共平面問題,但仍是採用隨機取 樣,並沒有一套機制分配初始化的點,這部份是我們未來可以更加探討的。

有了準確的基礎矩陣後,後續可以應用在找尋密集的對應點,過去有許多學 者長期研究在找尋精確度高的對應點,本研究中曾提到,在幾何關係下,多視角 影像的對應點是可以由準確的基礎矩陣計算出座標。

接著過濾誤差較大的雜訊點後,便可以建出三維模型空間,有了精確的三維 模型空間後,進一步可以加入材質敷貼,就形成了完整的三維模型,有機會可以 應用在地理資訊系統(Geographic Information System)、數位典藏(Digital archive)、

電影製作(filmmaking)。

[8]. C. Tang, Y. Wu, and Y. Lai, “Fundamental Matrix Estimation using Evolutionary Algorithms with Multi-Objective Functions”, Journal of Information Science

and Engineering , 2008, pp.785-800.

[9]. F. Frenzel, “Genetic algorithms,” Potentials, IEEE , vol.12, no.3, pp.21-24, Oct 1993.

[10]. L. George. 2004. Artificial Intelligence: Structures and Strategies for Complex

Problem Solving (5th Edition). Pearson Addison Wesley.

[11]. M. Lhuillier, Q. Long, “Match propagation for image-based modeling and rendering,” Pattern Analysis and Machine Intelligence, IEEE Transactions on, vol.24, no.8, pp. 1140- 1146, Aug 2002.

[12]. G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints”,

International Journal of Computer Vision, vol. 60, no. 2, pp. 91-110, 2004.

[13]. J. Kennedy, R. Eberhart, “Particle swarm optimization,” Neural Networks, 1995.

Proceedings., IEEE International Conference on, vol.4, no., pp.1942-1948 vol.4,

Nov/Dec 1995.

[14]. J. Phillip, “Taguchi Techniques for Quality Engineering”, McGraw-Hill Professional, 2nd edition, 1995.

[15]. A. Ratnaweera, K. Halgamuge, C.Watson, “Self-organizing hierarchical particle swarm optimizer with time-varying acceleration coefficients,” Evolutionary

Computation, IEEE Transactions on, vol.8, no.3, pp. 240- 255, June 2004.

[16]. H. Richard, Z. Andrew. 2003. Multiple View Geometry in Computer Vision (2 ed.). Cambridge University Press, New York, NY, USA.

[17]. H. Thomas, S. Clifford, L. Ronald, and E. Charles. 2001. Introduction to

Algorithms (2nd ed.). McGraw-Hill Higher Education.

[18]. A. Xavier, S. Joaquim, “Overall view regarding fundamental matrix estimation”

Image and Vision Computing, vol. 21, no. 2, pp. 205-220, 2003

[19]. Z. Zhengyou, “Parameter Estimation Technique: A Tutorial with Application to Conic Fitting”, Image and Vision Computing, vol. 15, no. 1, pp. 59-76, 1997.

[20]. Ground Truth data, http://cvlab.epfl.ch/~strecha/multiview/denseMVS.html

相關文件