• 沒有找到結果。

利用多軸無人飛行載具製作大比例尺地形圖之研究

N/A
N/A
Protected

Academic year: 2022

Share "利用多軸無人飛行載具製作大比例尺地形圖之研究"

Copied!
9
0
0

加載中.... (立即查看全文)

全文

(1)

DOI:10.6574/JPRS.201812_23(4).0005

1

國立高雄科技大學土木工程系 博士班研究生 收到日期:民國 105 年 03 月 31 日

2

國立高雄科技大學土木工程系 副教授 修改日期:民國 105 年 07 月 12 日

*

通訊作者, 電話: 07-3814526#15245, E-mail: hsieh@cc.kuas.edu.tw 接受日期:民國 107 年 05 月 24 日

利用多軸無人飛行載具製作大比例尺地形圖之研究

林迪詒

1

謝嘉聲

2*

摘要

隨著科技進步,多軸無人飛行載具(Multi-Rotor Unmanned Aerial Vehicle, MUAV)發展漸趨成熟,目前 已應用在許多領域上(如農業、能源、新聞媒體等),其中在航空攝影測量的應用已有許多成功的案例發表。

但因其載體小且搭載消費型相機,因此在執行航拍的過程中易受環境影響,造成航線傾斜、偏移、航高不 一致之現象,且因飛行高度低,造成拍攝影像圖幅小、數量多及鏡頭畸變差不穩定等問題。為解決上述問 題,本研究透過計算機視覺方法的從運動中回復結構(Structure from Motion, SFM)和密匹配演算法中以區 塊為基礎之多視立體(Patch-based Multi-view Stereo, PMVS)方法進行影像處理,可快速從序列影像中,計 算影像的內外方位參數並產製稠密點雲。本研究利用MUAV 拍攝 1 cm 地面解析度之影像,並根據解析 度需求進行航線規劃及影像處理。研究區為高雄市鳳山舊無線電信所,區域內有房屋、道路等建物,屬於 平坦地形,最高建物高度為9 m,最後並以地形圖檢核的程序進行檢核,驗證應用無人飛行載具搭配消費 型相機進行航空攝影測量亦可提供高精度的地形圖。

關鍵詞:多軸無人飛行載具、大比例尺地形圖、運動中回復結構、區塊為基礎之多視 立體

1. 前言

無人飛行載具(Unmanned Aerial Vehicle, UAV) 成本低、機動性高及可重複利用的優點,使其迅速 應用到民生和科學研究的領域,相關的研究成果如 農業方面(Haarbrink & Eisenbeiss, 2008)、森林火災 的監測(Ollero & Merino, 2006)、考古(Eisenbeiss &

Zhang, 2006)等應用。其中 Everaerts et al. (2004)的 研究評估出 UAV 為最實用的遙測工具,並指出 UAV 的應用創造一個新的遙測市場(Everaerts &

Lewyckyj, 2011)。

UAV 體積小、重量輕,飛航過程中容易受到環 境、風力影響,造成飛行路徑不穩定、重疊率不一 致及影像傾角較大等問題,使UAV 的飛航穩定度 無法與傳統航拍相比,也因搭載消費型相機存在較 大的鏡頭畸變差。

為解決UAV 影像上述特有的問題,才能使二

維影像可重建出三維空間資訊,影像重建技術必須 具備內外方位參數,因此本研究透過計算機視覺方 法,從運動中回復結構(Structure from Motion, SFM) 的演算法,由相機以移動的方式進行拍攝,移動過 程利用不同視點產生的視差,計算影像與場景之間 的關係,得到場景的三維結構,並可自動計算出相 機的內外方位參數(Tsingas, 1992、Seitz et al., 2006)。

Rosnell & Honkavaara (2012) 比較傳統攝影測量與 SFM 方法處理 UAV 影像的差異,指出傳統攝影測 量方法,對於低空和高重疊率影像較易出現匹配失 敗的問題,建議以SFM 方法較適合處理 UAV 拍攝 的影像。但SFM 重建出的點雲為稀疏點雲,稀疏 點雲無法完整描述三維模型,因而結合密匹配演算 法 中 , 以 區 塊 為 基 礎 之 多 視 立 體 (Patch-based Multi-View Stereo, PMVS)作為獲取稠密三維點雲 之方法。利用SFM 配合 PMVS 方法產製三維點雲 相關的研究有蔡依庭(2012)利用定翼機拍攝台北

(2)

大學旁植被區及土石區之照片計算出三維點雲,翁 婕晞(2013)於航拍遮蔽區獲取完整的三維地形資 訊,李怡蓁(2014)重建出高雄舊火車站三維資訊,

林迪詒(2015)利用自行組裝多軸無人飛行載具,探 討不同對地解析度對於成圖精度的影響。

Harwin & Lucieer (2012) 研究指出根據良好的 影像拍攝及地面控制點分佈,所產製的三維點雲 其平面絕對精度約為1 至 2 倍的 GSD、高程絕對 精度約為2.5 至 4 倍的 GSD,Haala et al. (2013) 也指出越小 GSD 利用 SFM 演算法處理的精度越 好。

本研究的實驗區為海軍鳳山無線電信所,利 用 UAV 搭配消費型相機進行拍攝,藉由 SFM- PMVS 演算法處理航拍影像,並輸出正射影像圖 和數值地表模型,並檢核正射影像圖和數值地表 模型成果。

2. 研究方法

2.1 四軸無人飛行載具及相機設

本研究以四軸無人飛行載具進行拍攝作業,

因多軸無人機可垂直起降,方便航拍作業使用。

為確保拍攝作業過程及飛航的安全性,利用自行 組裝的四軸無人機(如圖 1)進行拍攝。本四軸無人 機軸距為75 cm,配備自主飛行器及導航用 GPS,

並搭配6S 12000 mAh 電池作為電力輸出,續航力 25 分鐘。機載雲台選擇二軸雲台,因拍攝影像僅 需垂直拍攝,因此只要穩定 Roll、Pitch 姿態即可 符合拍攝需求,且二軸雲台較三軸雲台輕量化,

可增加機體續航力。雲台上搭載Canon EOS M 相 機,相機搭配EF-M 22mm f/2 STM 的定焦鏡,且 將焦距調整為無限遠定焦。拍攝過程為避免震動 模 糊 選 擇 快 門 先 決 模 式 , 拍 攝 參 數 設 定 快 門 1/1000 秒、ISO 值 100、像素 1 千 8 百萬(5184  3456 Pixel)。本研究所設定快門和 ISO,為先前經 驗中最清晰之設定參數。

計 算 影 像 移 動 量 為 曝 光 時 間(1/1000 sec) × UAV 航速(4 m/sec) × 影像比例尺(22 mm / 50

m)=1.76× 10-3 mm= 0.4 Pixel,本研究使用的相機 為 CMOS 影像感應器,經由電子訊號處理過程,

可讓影像變得更明快、更加清晰,可以減少曝光 模糊問題。

圖 1 自行組裝四軸無人飛行載具

2.2 SFM-PMVS 處理方法

研究中的影像是經由相機記錄空間的訊息,

而影像在直覺上可得知內容為二維,因此相機能 將原本屬於三維空間的資訊轉換成二維,轉換過 程從模擬針孔成像的簡單描述,演變到實際鏡頭 成像的透視投影方法。

利用SFM 演算法的目的就是要計算出三維點 和 拍 攝 影 像 時 相 機 參 數 , 計 算 過 程 先 由 SIFT(Scale-invariant feature transform)提取影像特 徵點,利用影像匹配建立影像間基礎矩陣關係,

再挑選出一組像對做為初始像對,初始像對由 SVD 分解出相機參數、稀疏三維點雲,逐步將每 幅影像加入分解計算並加入光束法平差,求得每 一幅影像拍攝時相機參數和稀疏點雲。

由SFM 演算法計算出場景為稀疏點雲,但稀 疏點雲無法詳細描述物體的形狀,因此將影像經 密匹配成稠密點雲,本研究選擇較廣泛使用的 PMVS 方法(Furukawa et al., 2010)進行處理,其處 理方式為將SFM 的稀疏點進行對應、擴展、過濾,

計算出稠密點雲。

2.3 數值地表模型(DSM)和正射 影像圖

本研究之影像解析度較高,由 PMVS 產生的 點雲數量龐大,且在建物邊緣會有密集的點雲產 生。因此本研究產製DSM 的方法,為先利用點雲

(3)

高度及密集度判斷建物邊緣,將點雲組成有建物 邊界的不規格三角網(3D TIN),再將網格內建物 邊界部分強制垂直於地面,可組成與現況較符合 之 DSM,本研究中使用產製 DSM 的方法,是全 自動化的判斷出建物邊緣中心組成網格。設定 DSM 網格尺寸為 1 cm × 1 cm GSD 輸出,構成精 細地表資訊模型。

因拍攝影像具有足夠的影像涵蓋率,配合產 製的 DSM,糾正拍攝的原始影像為正射影像,輸 出的正射圖解析度為1 cm × 1 cm GSD。

2.4 繪製地形圖

單純以正射影像圖人工描繪邊界時,不易清 晰判斷地類邊界狀況,在此利用地物的高度,先 以DSM 產製等高線,使地物類別邊緣會有等高線 線條,因此將等高線條套疊正射影像,協助人工 判斷邊界。

因等高線的間距在地形圖的表達上需條條清 晰可辨,且要盡可能的清楚描繪地貌起伏變化,

本研究中依比例尺計算得6 cm 間距產製等高線,

在實務過程大部分地物的高差(建物、花圃、圍牆) 會大於 6 cm,大部分等高線在建物、花圃、道路 區都可提供良好邊界參考。但部分等高線如草地、

樹木以及建物被樹木遮蔽處會出現重疊狀況。

圖 2 等高線套圖於正射影像

3. 研究區介紹和資料處理

3.1 研究區域

本研究區位於台灣高雄市鳳山區,其早期為

無線電信所,現今已成為國定古蹟,開放一般民 眾參觀。研究區內主要地物為建物、道路、圍牆、

樹林、農作物和植生,區域為平坦地形,最高建 物高度為9 m,實驗區域範圍為 750 m  480 m,

面積約為36 公頃。

該區內無線電信塔臺早已被破壞,為量測出 無線電信塔臺的位置,未來可以在該位置上重建 當年塔台,作為觀光發展使用,需要有大比例尺 地形圖作為開發使用之依據。

在利用UAV 航拍製作地形圖之作業中,在研 究區內佈設12 個航標點,航標為圓形紅黑相間塑 膠板,直徑為21 cm,21 cm 為 A4 紙張尺寸,方 便製作使用,其中 6 個為全控點、其餘 6 個為檢 核點,航標點樣式如圖3 所示。

圖 3 航標點樣式圖

量測航標點方式,是先利用 GPS 量測建物頂 樓和門口兩點坐標為控制點,再於建物頂樓架設 全站儀,利用門口點位當後視已知點,後續觀測 12 點航標點之位置,點位分佈如圖 4 所示。

圖 4 研究區現況與航標點分佈及量測誤差圖

(4)

3.2 航線規劃

(1) 飛航高度

通常UAV 搭載的相機為消費型相機,每一款 相機的焦距、解析度都不同,且隨著拍攝距離的 改變其成像幾何會變化。因此在進行航高設計及 飛行路線規畫前,先考量成圖比例需要的GSD 大 小,並透過相機的幾何條件計算航高。以本研究 使用的Canon EOS M 相機為例,其搭載的鏡頭焦 距為22 mm,感光元件上每一像素尺寸為 4.38 μm。

本研究設計1 cm GSD,推算航高為 50 m。

(2) 影像重疊率

由本研究的機體飛航經驗得知,當水平速度 為4 m/s 時,為電量損耗及拍攝穩定度較佳的設定,

且相機拍攝影像後存儲至記憶卡需要 1 秒時間,

才能執行下一張影像拍攝,因此考量上述因素,

本研究中最短攝影基線為4 m,以航高 50 m 進行 計算得最高前後重疊率為 88.35%,為使拍攝影像 作業有些許緩衝,選擇前後重疊 85%、側向重疊 75%。

3.3 執行航拍作業

以 地 面 站 系 統 Ace Waypoint 結 合 Google Earth 地圖進行航線規劃,航線規劃成果如圖 5。

飛航任務規劃完成後,由地面站系統與 Google Earth 結合可判斷是否為禁航區,並判斷機體飛航 過程是否會撞擊高處地形,再確認航線規劃安全 後,執行全自動的起飛和降落。

在製作大比例尺地形圖時,因其GSD 要求較 高,使對應的飛行高度較低,故越低的航拍為滿 足重疊率需更多航帶,造成飛航時間增加。飛航 過程中,依機體續航時間及安全返回考量,每一 顆電池飛行約為20 分鐘。執行拍攝前,先將全部 飛行路線整體規劃完畢,再依20 分鐘進行航線切 割,本研究區實際拍攝時間為 6 小時,共拍攝 3,008 張影像。

為瞭解影像的分辨度,由航拍所得影像中,挑 選影像內有拍攝到斑馬線、停車格等、明顯道路 標線的影像,計算MTF 在 20 lp/mm 平均為 0.85,

模糊參數值為0.8 Pixel,。

圖 5 航線規劃圖

3.4 影像處理

拍 攝 之 影 像 採 用 以 SFM 演算法為架構之 Agisoft PhotoScan Pro 商業軟體進行處理,處理程 序首先將航拍的序列影像,透過SFM 計算出影像 的場景和內外方位初始值,再由手動方法從序列 影像中,挑選出有航標點之影像,加入該航標點 的坐標值。本研究實作中共有12 個航標點,其中 6 個作為全控點、6 個作為檢核點進行光束法平差,

點位分佈如圖4。

由SFM 演算法獲得的點雲為稀疏點雲,提供 PMVS 演算法執行對應、擴展、過濾等處理過程,

從稀疏點計算出稠密點雲,最後再將點雲錯誤點 (地表以下點、最高建物以上點)消除,產製有效 點雲共353,737,580 個點。大部分地物點雲分布均 勻,僅位於樹木、草地區域的點雲較稀疏。

將點雲以Kriging 內插法組成不規格三角網,

建置出研究區的 DSM,原始影像再根據 DSM 糾 正得正射影像圖。本研究以1 cm GSD 解析度製作 正射影像圖及 DSM,其成果可供後續繪製地形圖 使用。

(5)

4. 成果分析

4.1 航標點精度分析

本研究航標點之坐標分別利用全站儀及 UAV 影像以SFM 方法處理獲得。首先利用 GPS 量測位 於門口和建物頂樓的兩個控制點(圖 4)。因測區範 圍小,為量測方便,於頂樓控制點架設全站儀後 視門口已知點,直接量測全區航標點坐標。在量測 過程中並探討不同距離所造成的平面及高程誤差。

本研究採用的全站儀為 Nikon DTM-322,儀 器的測距精度為±(3mm+2ppm  量測距離)、最小 讀數為 1"。現場觀測最遠航標的距離約為 300 m,

並考量人為和環境誤差,假設角度觀測標準差為 5",以誤差傳播計算其平面、高程誤差,得平面 精度為0.024 m,高程精度為 0.046 m。

經上述方法量測12 個航標點,其中 6 個航標 點作為全控點、另 6 個作為檢核點。控制點計算 結果如表 1 所示,平面 RMSE 為 0.007 m,高程 RMSE 為 0.001 m,整體控制點精度為 0.008 m。

本實驗影像 GSD 為 1 cm,所得控制點精度約為 0.8 倍 GSD。檢核點計算結果如表 2,平面 RMSE 為0.010 m,高程 RMSE 為 0.026 m,整體檢核點 精度為 0.030 m,約為 3 倍 GSD。控制點、檢核 點之坐標差值顯示如圖4。圖 4 中將全控點坐標差 值、檢核點坐標差值透過向量表示,黃色向量為 N 方向的坐標差、洋紅向量為 E 方向的坐標差、

藍色向量為H 方向的坐標差。

表 2 結果顯示檢核點的坐標檢核較差,經分 析可能因6 個檢核點中,有 3 個位於控制點範圍外 (C2、C4、C5),所以產生較大平面誤差,但因誤 差仍在觀測誤差範圍內,故仍視為可接受的值,

因此並無剔除誤差較大點。

4.2 製圖檢核

本研究以繪製 1/250 比例尺地形圖,參考 1/1000 地形圖規範(內政部國土測繪中心,2011),

有關地類內容參照 1/1000 地形圖示規定,不足使 用部分使用文字進行註解,對於不同主體縮編,則 依據該地區需求進行繪製。

表 1 控制點坐標檢核表(單位:m)

UAV 量測坐標 實際全控點坐標 坐標較差

點號 N 坐標 E 坐標 H 坐標 N 坐標 E 坐標 H 坐標 ΔN ΔE ΔH

C1 2503374.424 185903.666 15.304 2503374.419 185903.663 15.304 0.005 0.003 0.000 C3 2503485.466 186064.921 15.226 2503485.468 186064.919 15.226 -0.002 0.002 0.000 C6 2503846.110 185971.241 14.942 250384.614 185971.239 14.942 -0.003 0.002 0.000 C9 2503508.984 185683.521 14.809 2503508.983 185683.524 14.808 0.001 -0.003 0.001 C10 250359.600 185610.022 14.678 2503596.294 185610.014 14.679 0.006 0.008 -0.001 C12 2503665.469 185646.885 14.382 2503665.476 185646.897 14.382 -0.007 -0.012 0.000

各方向均方根誤差(RMSE) 0.004 0.006 0.001 總均方根誤差(Total RMSE) 0.008 m

表 2 檢核點坐標檢核表(單位:m)

UAV 量測坐標 實際檢核點坐標 坐標較差

點號 N 坐標 E 坐標 H 坐標 N 坐標 E 坐標 H 坐標 ΔN ΔE ΔH

C2 2503384.406 185992.720 15.326 2503384.423 185992.727 15.359 -0.017 -0.007 -0.033 C4 2503637.564 186073.900 15.352 2503637.552 186073.895 15.327 0.012 0.005 0.025 C5 2503758.239 186035.924 15.090 2503758.232 186035.949 15.047 0.007 -0.025 0.023 C7 2503443.482 185750.734 14.984 2503443.470 185750.732 15.005 0.012 0.002 -0.021 C8 2503531.737 185729.964 14.888 2503531.733 185729.969 14.908 0.004 -0.005 -0.020 C11 2503627.486 185653.737 14.680 2503627.483 185653.745 14.646 0.003 -0.008 0.034

各方向均方根誤差(RMSE) 0.010 0.010 0.026 總均方根誤差(Total RMSE) 0.030 m

(6)

為進行製圖成果的檢核,從正射影像圖、

DSM 中分別挑選出 50 個平面點和 50 個高程點,

其位置包含建物邊角、水溝蓋邊角、道路交叉處、

花圃、階梯及地面特徵處,並與現地使用全站儀 量測坐標值進行比較。

檢核後得平面絕對精度為 4.0 cm,平面最大 值誤差為 5.3 cm,該點位於建物邊角點;高程絕 對精度為 3.9 cm,高程最大誤差值為 6.0 cm,該 點同樣位於建物邊角點上。

檢核平面和高程的分布位置如圖 6 所示,黑 字十字形為檢核高程點位置,綠色菱形為檢核平 面坐標位置。

圖 6 檢核絕對坐標點分佈圖

4.3 全站儀量測和 UAV 製圖作 業比較

4.3.1 作業時間比較

研究區總共佈設12 個航標點,航標點為塑膠 材質,需要人工在現場使用釘子固定,固定後以 全站儀進行量測作業,固定航標和量測時間共 2 小時。UAV 研究區拍攝含更換電池時間共 6 小時,

拍攝後的影像處理時間為36 小時,綜合整體飛航

拍攝和處理時間共44 小時,上述過程中僅於地面 量測航標點時需 2 人作業,其餘飛航和影像處理 由1 人即可作業。

以全站儀量測作業需三人為一組,以一天 8 小時的現場測量作業,本研究區需要 5 天時間。

因此從作業過程得知透過UAV 拍攝影像提供較多 資訊,更方便製作大比例尺地形圖。

4.3.2 全站儀測繪地形圖與正射影像 比較

為比較全站儀及UAV 航拍之測繪成果,將全 站儀測繪地形圖直接套疊於正射影像圖上,分析 其細部差異之方法,挑選 6 處地物放大展示(如表 3 所示)。該 6 處分別為建物邊界、道路邊界線以 及研究區內一圓形圍牆。

全站儀量測的地形圖邊界線以色線表示,總 體成果呈現出邊界線與影像邊界線相當一致。

為更詳細比較差異量,由人工於每一幅影像 中選取 5 處,量測影像邊緣和色線的差異並計算 平均差異值(如表 3)。

經比較此三類地物結果,建物的差異值相對較 大,最大差異為3.6 cm,因為屋頂材質為瓦片,較 難確認影像之邊緣,而水泥材質較好量測,差異為 2.2 cm。道路部分兩者差異小,平均約為 1 Pixel(1 cm)。圍牆部分受到周圍地物雜亂且圍牆寬度小,

量測差異為約3 Pixel (2.6 cm、3.2 cm)。

從研究成果可知,UAV 拍攝影像可產製正射 影像圖和 DSM,且可讓現地量測作業更加方便。

但是本研究中使用消費型相機進行拍攝,在樹木遮 蔽處無法量測(如圖 7),另也受到樓高與太陽角度 影響於陰影處較難辨識(如圖 8)。

5. 結論

使用機動性高的多軸無人飛行載具執行航拍 作業獲取影像前,需先執行拍攝規劃,且航高要 符合飛航規定。本研究中以地形圖的規定檢核研 究區平面和高程的絕對坐標,分別檢核50 個點位,

平面絕對精度為4.0 cm,高程的絕對精度為 3.9 cm,

證實UAV 製圖成果符合精度。UAV 影像處理後某

(7)

些資訊受到遮蔽(如樹木遮蔽處、陰影處)無法提 供現況點資訊,這些部分目前需利用全站儀補測 繪坐標,方能完成地形圖之製作。

大比例尺地形圖通常使用在細部設計圖和工 程圖上,可提供相當龐大圖資訊息,從本研究以 UAV 拍攝高解析度影像成果,可清晰了解現地資 訊,判讀更多影像細節,如資訊不足處亦能協助 快速現場調繪。

表 3 細部正射影像圖與全站儀測繪地形圖線條差 異圖

建 物

437×489 Pixel 248×226 Pixel 差異2.2 cm 差異3.6 cm

道 路

608×636 Pixel 594×615 Pixel 差異1.4 cm 差異1.3 cm

圍 牆

301×278 Pixel 131×155 Pixel 差異2.6 cm 差異3.2 cm

圖 7 樹木遮蔽處

圖 8 陰影區

參考文獻

內政部國土測繪中心,2011。建置都會區一千分 之 一 數 值 航 測 地 形 圖 作 業 工 作 手 冊 。 [National Land Surveying and Mapping Center, Ministry of the Interior, R.O.C. Taiwan, 2011.

Manual of Aerial Photogrammetry for Cartographying 1/1000 Digital Topography Maps in Urban Areas. (in Chinese)]

李怡蓁,2014。基於多視立體視覺的三維重建與 真正射影像製作,國立高雄應用科技大學碩 士論文。[Lee, Y.C., 2014. 3-D reconstruction and true orthophoto generation based on multiple view stereo, Master Thesis, National Kaohsiung University of Applied Sciences, Taiwan, ROC.

(in Chinese)]

林迪詒,2015。利用自組多軸無人飛行載具製作 不同比例正射影像圖之研究,國立高雄應用

(8)

科技大學,碩士論文。[Lin, D.Y., 2015. The study of using self-made MUAV to produce multi-scale orthophoto maps, Master Thesis, National Kaohsiung University of Applied Sciences, Taiwan, ROC. (in Chinese)]

翁婕晞,2013。應用多視角影像於 UAV 航拍遮蔽 區之地形重建,國立臺北大學碩士論文。

[Weng, C.H., 2013. The application of topography reconstruction from multi-view images on the tree coverage of UAV aerial photogrammetry, Master Thesis, National Taipei University, Taiwan, ROC. (in Chinese)]

蔡依庭,2012。UAV 航拍影像點雲產生 DSM 之 研究,國立臺北大學碩士論文。[Tsai, Y.T., 2012. The study on DSM generated from point clouds by UAV image, Master Thesis, National Taipei University, Taiwan, ROC. (in Chinese)]

Eisenbeiss, H., and Zhang, L., 2006. Comparison of DSMs generated from mini UAV imagery and terrestrial laser scanner in a cultural heritage application, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 35(5):90-96.

E

veraerts, J., and Lewyckyj, N., 2011. Obtaining a permit to fly for a HALE UAV in Belgium, ISPRS-International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume XXXVIII-1/C22, Zurich, Switzerland, pp.1-5.

Everaerts, J., Lewyckyj, N., and Fransaer, D., 2004.

PEGASUS: Design of a stratospheric long endurance UAV system for reomte sensing, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 35:Part B.

Furukawa, Y., Curless, B., Seitz, S. M., and Szeliski, R., 2010. Towards internet-scale multi-view stere,

In Computer Vision and Pattern Recognition, 2010 IEEE Conference, USA, 1434-1441.

Haala, N., Cramer, M., and Rothermel, M., 2013.

Quality of 3D point clouds from highly overlapping UAV imagery, International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences , Germany, XL-1/W2: 183-188.

Haarbrink, R. B., and Eisenbeiss, H., 2008. Accurate DSM production from unmanned helicopter systems, The International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences, 37(B1):1259-1264.

Harwin, S., and Lucieer, A., 2012. Assessing the accuracy of georeferenced point clouds produced via multi-view stereopsis from unmanned aerial vehicle (UAV) imagery, Remote Sensing and Spatial Information Sciences, 4(6): 1573-1599.

Ollero, A., and Merino, L., 2006. Unmanned aerial vehicles as tools for forest-fire fighting, Forest Ecology and Management, 234(1):263-274.

Rosnell, T., and Honkavaara, E., 2012. Point cloud generation from aerial image data acquired by a quadocopter type micro unmanned aerial vehicle and a digital still camera, Sensors, 12(1):453-480.

Seitz, S. M., Curless, B., Diebel, J., Scharstein, D., and Szeliski, R., 2006. A comparison and evaluation of multi-view stereo reconstruction algorithms, 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, USA, 6(1):519-528.

Tsingas, V., 1992. Automatisierung der punktÜbertragung in der aerotriangulation durch mehrfache digitale bildzuordnung, Ph.D. Thesis, Universität Stuttgart.

(9)

1

PhD Student, Department of Civil Engineering, National Kaohsiung University Received Date: Mar. 31, 2016 of Science and Technology Revised Date: Jul. 21, 2016

2

Associate Professor, Department of Civil Engineering, National Kaohsiung University Accepted Date: May. 24, 2018 of Science and Technology

*

Corresponding Author, Tel: 886-7-3814526#15245, E-mail: hsieh@cc.kuas.edu.tw

The Study of Using Multi-Rotor UAV To Produce Large-Scale Topographic Map

Di-Yi Lin

1

Chia-Sheng Hsieh

2*

Abstract

Accompanied by the advancement of technology, multi-rotors unmanned aerial vehicle (MUAV) becomes mature gradually, and is applied to agriculture, energy, and media. There are many publications in the application of aerial photogrammetry field. However, the small and light platform with consumer camera is easily influenced by environmental factors during the process of aerial photogrammetry so to cause the inconsistent of flight height, tilt, and offset. Also, the low flight height results in narrow frame, lens distortion, and a large number of photos.

In order to solve the problems, the research uses Structure from Motion (SFM), and dense matching by Patch- based Multi-view stereo (PMVS) to process the images. This process can calculate the interior and exterior orientation of image, and produce the dense point cloud. In this study, we obtained MUAV imagery with 1 cm resolution, and executes the flight planning and image processing according to the resolution requirements. The study area is the old wireless telecommunications station of Fengshan, Kaohsiung City. There are houses, roads and other buildings in the area, which belong to flat terrain, and the highest building is 9 meters. Finally, by examining the results by the standard of topographic map, the study proves that proceeding aerial photogrammetry with UAV and consumer camera can provide high-accuracy topographic maps.

Keywords: Multi-rotor UAV, Large-scale topographic maps, SFM, PMVS

參考文獻

相關文件

A study on the spatial orientation ability for sixth grader students of elementary school― using three-dimensional views (Unpublished master’s thesis). National

volume suppressed mass: (TeV) 2 /M P ∼ 10 −4 eV → mm range can be experimentally tested for any number of extra dimensions - Light U(1) gauge bosons: no derivative couplings. =>

incapable to extract any quantities from QCD, nor to tackle the most interesting physics, namely, the spontaneously chiral symmetry breaking and the color confinement.. 

• Formation of massive primordial stars as origin of objects in the early universe. • Supernova explosions might be visible to the most

•  Flux ratios and gravitational imaging can probe the subhalo mass function down to 1e7 solar masses. and thus help rule out (or

Department of Physics, National Chung Hsing University, Taichung, Taiwan National Changhua University of Education, Changhua, Taiwan. We investigate how the surface acoustic wave

This thesis mainly focuses on how Master Shandao’s ideology develops in Japan from the perspective of the Three Minds (the utterly sincere mind, the profound mind, and the

• elearning pilot scheme (Four True Light Schools): WIFI construction, iPad procurement, elearning school visit and teacher training, English starts the elearning lesson.. 2012 •