• 沒有找到結果。

在分秒必爭的救災過程當中,如何大範圍且快速在惡劣環境中搜索目標物,

以最短的時間前往目的成為重中之重,本研究所提出的系統,除能夠在空中快速 搜索進行探勘,更能夠在飛行當下找出目標物並定位目標物的全球衛星導航系統 座標即刻回傳給地面人員,使地面人員不需要額外的分析及判斷影像內容,就能 趕往目的救援。一般在山林中常出動直升機搜索救援,但因受到氣流及側風影響 大,搜救時也存在失事風險,若探勘搜索由無人飛行載具進行,即時回傳目標位 置,可減少非必要的飛行路徑直接飛往目標位置,大量減少直升機飛行時間,降 低發生意外的風險。

本研究提出一個可以利用無人飛行載具即時定位目標物的系統,此系統利用 深度學習訓練可用的模型在飛行中辨識空拍圖內物件,並計算出目標物實際的全 球衛星導航系統座標。系統當中包含兩個流程架構,分別是物件偵測流程以及物 件定位流程。物件偵測流程將過往蒐集的空拍圖利用卷積神經網路進行訓練,得 到一個能夠即時辨識及定位圖像內特定類別目標的模型。物件定位流程使用從物 件偵測流程中所得的目標類別以及圖像內的座標,加上無人飛行載具感測器蒐集 的飛行姿態、飛行高度、無人飛行載具當前全球衛星導航系統座標,透過三角函 數及極座標的少量數學運算即時定位出目標物的全球衛星導航系統座標。結合即 時物件偵測流程架構與定位流程架構,使得小型無人飛行載具可以搭載微型電腦 與小型攝影機在高空處搜索與即時定位目標物,透過網路回傳座標給地面人員。

本研究選擇三台車輛當作目標,每台車規劃了飛行高度為100 公尺、150 公 尺、200 公尺的三組空拍影像及其飛行姿態等資料,每組會有十筆資料,作為評 估物件偵測流程與物件定位流程用。本研究對於物件偵測流程主要評估其對於目 標物件的辨識率,以及在不同高度下辨識出目標物件時所得的信心程度多寡,做 為評斷所採用的辨識方式是否適合使用在本研究系統上的依據。物件定位流程是

以同一目標車輛同高度組內的座標標準差判斷一致性,評估在不同位置觀測與定 位結果是否相近。不同組間也會取一代表點,觀察兩兩間的距離是否相近,評估 不同高度下對同一目標物定位結果的一致性。除了組內與組外一致性,定位精準 度也是必須被評估的,本研究取各組代表點與目標物實際座標的距離做為誤差,

依誤差大小評斷定位方法是否合適。

物件偵測流程中本研究使用 YOLOv4 對空拍影像做物件辨識,在本研究所 使用的幾組含有目標的空拍影像中,目標車輛的辨識率約96%,偵測模型訓練的 資料集為150 公尺的空拍圖,但仍可用以辨識 200 公尺及 100 公尺空拍圖中的目 標物件,YOLOv4 所提供的信心程度在 150 公尺及 100 公尺空拍圖的辨識是優 於200 公尺空拍圖的。物件定位流程中同一車輛同一高度的組內標準差皆在 1 公 尺左右,顯示了物件定位流程中所使用的方式得出的結果具有一致性,無人飛行 載具於同一高度的不同觀測點所得到的多個空拍圖及飛航資訊,透過本研究所使 用的定位方式,在物件定位流程中能夠定位出相近的全球衛星導航系統座標。本 研究又利用 K-Medoids 的方式找出不同高度各組間的一代表點,計算對一目標 車輛在相異高度各組定位結果之代表點兩兩的距離,最低組間差距為1.09,最大 的組間差距為 7.74 公尺,約略小於兩台車輛的長度,代表在不同高度下對同一 車輛的定位,仍有相近的全球衛星導航系統座標。定位精準度評估是利用 K-Medoids 取得的代表點與在內政部國土測繪圖資服務雲中取得的目標物位置座 標做比較,以代表點與目標物實際座標的距離作為誤差。100 公尺高度定位誤差 約3 到 5 公尺,150 公尺處定位誤差 5 到 10 公尺,200 公尺處誤差為 6 到 12 公 尺,以100 公尺觀測資料定位結果誤差最小,200 公尺處最大。在本實驗中所選 擇的目標車輛之中,對任意車輛而言,飛行高度越低時,定位的代表點對於目標 物實際位置誤差的距離就越小。本研究定位的準確性會受到陣風及無人飛行載具 本身震動影響,造成量測時間校準上的誤差,因此本實驗目前僅適合在風小、機 身傾斜角度變化不劇烈的情況下進行。

本研究使用無人飛行載具作為搭載即時物件辨識定位系統之用,也因無人飛 行載具在負重上的限制,使得在高空上無法搭載精密貴重儀器,僅可搭載運算能 力較低的微電腦、全球衛星導航系統接收器、輕便的感測器與小型攝影機,這也 導致了在影像辨識與定位上有所限制。

本研究目前所使用的攝影器材為一般小型攝影機,因此會受限於天色,僅能 在天氣晴朗的的白日裡進行即時空拍影像物件辨識與定位,若是在夜晚或昏暗時,

就無法取得清晰的空拍影像來辨識物件。但因物件偵測流程中所使用的辨識方法 是利用卷積神經網路辨識一般攝影機所攝空拍圖上的物件,因此在未來的研究也 能以此模式拓展相關研究,使用其他攝影機突破目前研究限制,像是紅外線攝影 機在夜間攝影做即時影像物件辨識與定位,或搭配熱成像技術做不同的應用。在 定位方面,未來的研究若使用即時動態技術 (Real Time Kinematic,RTK) 也能提 高無人飛行載具本身定位的精準度,便於校正所使用的定位方法,或是能直接提 高對於同一目標物在不同觀測點與高度所定位出的全球衛星導航系統座標間的 一致性,但因目前此法定位收斂時間過長,所以未在本次研究中使用。

災害探勘或者搜救工作常在惡劣的環境下進行,因此無人飛行載具上對外傳 輸資料的頻寬會受到限制,像是在海上搜索,附近沒有平常可使用的基地台和4G 網路供無人飛行載具使用,只能依靠昂貴的衛星上網。本研究中所使用的方法可 以透過機上搭載的微電腦運算,即時得出目標物所在位置,不需依靠人工監控飛 行載具傳回攝影畫面搜尋目標而使用大量頻寬,不因拍攝完畢才進行影像分析而 耽誤救援工作,僅需使用極少的頻寬傳回全球衛星導航系統座標。本研究預期未 來在災害探勘與搜救有實務上的應用與發展研究的空間,實務上本研究中所提出 的架構可使無人飛行載具透過即時影像物件辨識與定位進行自動搜救工作,在未 來,也可基於本研究所提之架構發展出多台無人飛行載具偕同搜救、夜視影像即 時辨識定位或以即時動態技術提高目標物定位精確度等相關研究,提升災害探勘 與搜救的效益。

參考文獻

[1] Fortune Business Insights, “Unmanned Aerial Vehicle (UAV) Market to Reach USD 27.40 Billion by 2026; Increasing Demand from Defense Forces to Boost Growth,” GlobeNewswire News Room, 2019. [Online]. Available:

https://www.globenewswire.com/news- release/2019/11/11/1944568/0/en/Unmanned-Aerial-Vehicle-UAV-Market-to- Reach-USD-27-40-Billion-by-2026-Increasing-Demand-from-Defense-Forces-to-Boost-Growth-Fortune-Business-Insights.html.

[2] Morder Intelligence, “Unmanned Aerial Vehicles Market - Growth, Trends, and Forecast (2019 - 2024),” Morder Intelligence, 2018. [Online]. Available:

https://www.mordorintelligence.com/industry-reports/uav-market

[3] Morder Intelligence, “Small UAV Market, Growth, Trends, and Forecast (2019 - 2024),” Morder Intelligence, 2018. [Online]. Available:

https://www.mordorintelligence.com/industry-reports/small-uav-market.

[4] 臺北市政府工務局, 「臺北市政府工務局101年1月份施政報告,」 臺北市, 2013.

[5] 臺北市政府工務局, 「工務局1月份施政報告,」 臺北市, 2017.

[6] S.Li, L. R.Margolies, J. H.Rothstein, E.Fluder, R.McBride, and W.Sieh, “Deep Learning to Improve Breast Cancer Detection on Screening Mammography,”

Scientific Reports,vol. 9, 12495, 2019.

[7] S.Sharma, “How Artificial Intelligence is Revolutionizing Food Processing Business?,” Medium, 2019.

[8] S.Cocking, “Business Showcase : Agrieye,” 2017. [Online]. Available:

https://irishtechnews.ie/business-showcase-agrieye/.

[9] B.Kellenberger, D.Marcos, and D.Tuia, “Detecting mammals in UAV images:

Best practices to address a substantially imbalanced dataset with deep learning,”

Remote Sensing of Environment, vol. 216, pp. 139-153, 2018.

[10] 內政部國土測繪中心, 「100至103年度測繪科技發展計畫-發展無人飛行載 具 航 拍 技 術 作 業 , 」 [Online]. Available:

https://www.nlsc.gov.tw/UAS/index.html.

[11] N.Madigan, “Need a Quick Inspection of a 58-Story Tower? Send a Drone,” The New York Times, 2018.

[12] M. A. R.Estrada and A.Ndoma, “The uses of unmanned aerial vehicles -UAV’s- (or drones) in social logistic: Natural disasters response and humanitarian relief aid,” in Procedia Computer Science, vol. 149, pp. 375-383, 2019.

[13] I.Goodfellow, Y.Bengio, and Aaron Courville, Deep Learning. MIT Press, 2016.

[14] Y.LeCun, L.Bottou, Y.Bengio, and P.Haffner, “Gradient-based learning applied to document recognition,” Proceedings of IEEE, vol. 86, no.11, 1998.

[15] A.Krizhevsky, I.Sutskever, and G. E.Hinton, “ImageNet classification with deep convolutional neural networks,” Communications of the ACM, vol. 60, no. 6, pp.

84-90, 2017.

[16] R.Girshick, J.Donahue, T.Darrell, and J.Malik, “Rich feature hierarchies for accurate object detection and semantic segmentation,” in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern

Recognition, pp. 510-587, 2014.

[17] R.Girshick, “Fast R-CNN,” in Proceedings of the IEEE International Conference on Computer Vision, pp. 1440-1448, 2015.

[18] J.Redmon, S.Divvala, R.Girshick, and A.Farhadi, “You only look once: Unified, real-time object detection,” in Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition, pp. 779-788, 2016.

[19] B.Wu, F.Iandola, P. H.Jin, and K.Keutzer, “SqueezeDet: Unified, Small, Low Power Fully Convolutional Neural Networks for Real-Time Object Detection for Autonomous Driving,” in IEEE Computer Society Conference on Computer Vision and Pattern Recognition Workshops, pp. 129-137, 2017.

[20] S.-J.Hong, Y.Han, S.-Y.Kim, A.-Y.Lee, and G.Kim, “Application of Deep-Learning Methods to BirdDetection Using Unmanned Aerial Vehicle Imagery,”

Sensors, vol. 2019, no. 19, pp. 1–16, 2019.

[21] J.Lu, C.Ma, L.Li, Y.Zhang, Z.Wang, and J.Xu, “A Vehicle Detection Method for Aerial Image Based on YOLO,” Journal of Computer and Communication, vol. 6, no. 11, pp. 98–107, 2018.

[22] Dequn Zhao and Xinmeng Li, “Ocean ship detection and recognition algorithm based on aerial image,” 2020 Asia-Pacific Conference on Image Processing, Electronics and Computers (IPEC), pp. 218–222, 2020.

[23] I. P.Howard and B. J.Rogers, Binocular Vision and Stereopsis. 2008.

[24] D.Murray and J. J.Little, “Using real-time stereo vision for mobile robot navigation,” Auton. Robots, vol. 8, pp. 161-171, 2000.

[25] M.Bertozzi, A.Broggi, A.Fascioli, and S.Nichele, “Stereo Vision-based Vehicle Detection,” in IEEE Intelligent Vehicles Symposium 2000, pp. 39-44, 2000.

[26] T.Luhtmann, S.Robson, S.Kyle, and I.Harley, Close Range Photogrammetry:

Principles, techniques and applications, 2011.

[27] 謝幸宜、邱式鴻, 「以自率光束法提升四旋翼UAV 航拍影像之空三平差精 度,」 航測及遙測學刊 (Journal Photogramm. Remote Sensing), vol. 16, no. 4, pp. 245–260, 2013.

[28] GoPro, “HERO8 Black - Digital Lenses (formerly known as FOV),” 2019.

[Online]. Available: https://community.gopro.com/t5/en/HERO8-Black-

Digital-Lenses-formerly-known-as-FOV/ta- p/398868?fbclid=IwAR2aR3hpOlMOP2H-G-QWIHwyQMoC2hLnI-s0pKMe3oKLdEj_5JrWhWCiySA#.

.

相關文件