• 沒有找到結果。

無人飛行載具之航拍影像應用於水稻倒伏災損判釋

N/A
N/A
Protected

Academic year: 2021

Share "無人飛行載具之航拍影像應用於水稻倒伏災損判釋"

Copied!
21
0
0

加載中.... (立即查看全文)

全文

(1)台灣農業研究 (J. Taiwan Agric. Res.) 69(1):25–45 (2020) DOI:10.6156/JTAR.202003_69(1).0003. 研究報告. 無人飛行載具之航拍影像應用於水稻倒伏災損判釋 周巧盈 1 巫思揚 2 陳琦玲 3,* 摘要 周巧盈、巫思揚、陳琦玲。2020。無人飛行載具之航拍影像應用於水稻倒伏災損判釋。台 灣農業研究 69(1):25–45。 無人載具 (unmanned aerial vehicle; UAV) 航拍能提供大範圍且高解析度之多光譜或高光譜影像,包含: 可見光 (red-green-blue; RGB)、近紅外光 (near-infrared; NIR) 與 3D 點雲等影像資訊。本研究透過光譜分類技 術與數值地表模型 (digital surface model; DSM),評估不同影像分類技術對於水稻倒伏災損判釋的準確度,以 期提出具有快速、簡易及準確性高的影像災損判釋方法,提供農業災害勘查與鑑定之空間輔助工具。本研究 應用 UAV 航拍影像,首先透過 UAV 專業影像處理軟體 Pix4D Mapper,產生 DSM 與正射影像,透接著依據 影像監督分類、標準差植生指數 (normalized difference vegetation index; NDVI) 分類及 DSM 分類,針對 2017 年 6 月分連續超大豪雨對台中市霧峰地區水稻所造成之災損倒伏情形,進行水稻倒伏災損影像判釋技術之發 展。結果顯示,UAV 航拍所得之可見光 RGB 正射影像,能清楚觀測水稻災損範圍與相對的災損情形,針對 大範圍之災區勘災作業,本研究推薦應用影像監督分類技術進行災損判釋,其水稻災損倒伏率比對申請救助 之災損率的正確率約為 92% (以符合農業天然災害救助辦法中倒伏率 20% 為評估基準需求)。另外,再輔以 現地災損查核,以加強災損判釋的正確性。因此,本研究建議,現今農業災害的勘災與災損救助作業,應透 過階層分工的概念,發揮各類技術的最大功效,運用最精簡的時間與人力,以提供最快速與最高品質的災損 評估成果。 關鍵詞:農業災害、影像監督分類、數值地表模型、常態化差異植生指標、災損救助。. 前言 水稻為台灣最重要的糧食作物,全台水稻 面積 (274,705 ha) 占耕地面積的 34.6% (Agricultural and Food Agency 2017b), 透 過 遙 測 技術進行水稻田判釋,可節省大區域傳統現地 勘查上所需之人力、時間及經費,並具有涵蓋 面積廣泛與即時性高的特性。同時,在區域的 監測上,能提供具有經濟性且高效率的調查方 法 (Wang et al. 2007; Chang & Shen 2011)。 近 年 來, 國 內 應 用 遙 測 技 術 在 水 稻 的 調 查主要分為以下四類:第一類透過高解析度衛 星影像與航空攝影照片進行水稻田坵塊的判. * 1 2 3. 釋 (Chen & Tseng 1999; Lei et al. 2006; Chen & Shih 2007; Lei et al. 2013; Wan et al. 2016);第 二類透過航測影像與衛星影像進行水稻產量的 推估 (Shen et al. 2002; Wu et al. 2002; Chang et al. 2005; Chang et al. 2006; Yang & Chen 2007; Chang & Shen 2011);第三類透過遙測影像多 光譜與高光譜資訊進行水稻生長性狀的估測, 例如:水稻葉面積指數 (Yang et al. 2008)、水 稻田蒸發散量 (Chien et al. 2008)、氮營養狀態 對水稻植株生長的影響 (Lee et al. 2011) 等; 第四類,近年來受到無人機空拍技術的普及, 利用於在災後進行即時之水稻災損航拍,透過. 投稿日期:2019 年 5 月 14 日;接受日期:2019 年 10 月 22 日。 通訊作者:chiling@tari.gov.tw 行政院農業委會農業試驗所農業化學組博士後研究。台灣 台中市。 行政院農業委會農業試驗所農業化學組計畫助理。台灣 台中市。 行政院農業委會農業試驗所農業化學組研究員。台灣 台中市。. 臺灣農業研究69(1)-03 陳琦玲.indd 25. 2020/3/20 下午 12:36:29.

(2) 26. 台灣農業研究 第 69 卷 第 1 期. 航拍影像進行水稻倒伏災損範圍與程度之判釋 (Yang et al. 2017; Chou et al. 2018b)。 無 人 飛 行 載 具 (unmanned aerial vehicle; UAV) 近年來的技術開發逐漸成熟,又因製作 研 發 成 本 降 低、 飛 航 安 全 性 提 升, 加 上 導 航 技術的自動化,使得 UAV 的應用性越來越普 及。 相 較 於 飛 機、 直 升 機 及 衛 星 所 拍 攝 的 影 像,UAV 航 拍 所 獲 得 的 影 像 具 有 機 動 性 高、 解析度高及不受雲層影響等優點。因此,當天 然災害發生時,能快速的針對特定的範圍進行 航拍任務 (Restas 2015; Chou et al. 2018b; de Oliveira Silva et al. 2019)。UAV 種 類 概 可 分 為定翼型 (fixed wing) 與旋翼型 (rotary wing) 兩大類。定翼型無人載具的滯空時間與飛行高 度相較於旋翼式的表現佳,能獲得的影像拍攝 範圍較大,但在起降與飛行過程受限於地形。 旋翼型無人載具有垂直起降、高載重量、適合 在複雜地形飛行等優點,但耗電量較高,無法 進行較長的空拍作業 (Remondino et al. 2011; Chou et al. 2018a)。 無 人 載 具 透 過 搭 載 不 同 的 影 像 感 測 器, 能 獲 得 多 樣 的 遙 測 資 訊。 一 般 UAV 搭載可見光相機,涵蓋光譜的範圍為 紅光 (R)、綠光 (G)、藍光 (B) 波段。而在高 階或開發型之 UAV 機種,可依據需求搭載多 光 譜、 高 光 譜、 熱 影 像 鏡 頭 或 合 成 孔 徑 雷 達 (synthetic aperture radar; SAR) 與 光 達 (light detection and ranging; LiDAR) 等不同性質、 不同等級之感測器 (Ezequiel et al. 2014; Yang et al. 2018; Maes & Steppe 2019)。 UAV 航 拍 影 像 能 獲 取 高 地 面 解 析 度 (ground sampling distance; GSD) 的 影 像, 透 過影像判釋技術,能提供災後勘災的應用、估 算災損範圍及判釋作物災損程度,以加速災後 復 原 並 減 少 人 力 與 物 力 的 投 入 (Restas 2015; Hsieh et al. 2018)。Puig et al. (2015) 針對蜀 黍高梁作物 (sorghum crop) 受到鞘翅目金龜子 科 (Coleoptera: Scarabaeidae) 的 昆 蟲 危 害, 透過 UAV 航拍獲得高解析度 (1.5–2.0 cm) 的 可見光影像,利用機器學習之非監督式影像判 釋,探討影像分類 (image classification) 技術 對於作物受害程度的辨識能力,藉此提高作物 病蟲害監測與生物防制。Näsi et al. (2015) 針 對 蠹 蟲 (Ips typographus L.) 對 於 雲 杉 (Picea. 臺灣農業研究69(1)-03 陳琦玲.indd 26. abies L. Karst.) 造 成 的 危 害, 透 過 高 解 析 度 (GSD~2.4 cm) 的 UAV 航拍影像 [可見光 (redgreen-blue; RGB)],進行單株雲杉是否遭受蠹 蟲危害之判釋,同時透過高光譜影像 (500–900 nm、GSD~9.0 cm) 評 估 雲 杉 的 健 康 情 形, 以 進行即時的森林健康監測。Chou et al. (2018a) 應 用 UAV 航 拍 影 像 所 獲 得 之 高 解 析 度 影 像 (GSD 5.0 cm),透過影像非監督分類 (像元式 與物件導向式 )、影像分割及數值地表模型, 針對颱風造成香蕉果園之災損傾倒情形,比較 不同判釋分類法對於香蕉災損傾倒比率之判釋 能 力, 並 提 供 災 後 應 變 與 勘 災 的 空 間 輔 助 圖 資, 以 提 高 災 後 大 範 圍 香 蕉 園 即 時 勘 災 工 作 的效率與技術。另外,Vega et al. (2015) 利用 UAV 獲取多時期高解析度的多光譜影像 [R、 G、B、近紅外光 (near-infrared; NIR)],計算 標準差植生指標 (normalized difference vegetation index; NDVI), 進 行 向 日 葵 作 物 (Helianthus annuus, L.) 之 生 長 監 測, 包 含 單 位 面 積收穫量、生物量與氮含量,藉此能針對生長 狀況不佳的作物區域,進行適當的撫育措施, 以提高精準農業之專區管理成效。另一方面, Al-Rawabdeh et al. (2016) 應 用 商 用 型 UAV 針對道路旁的山坡地進行坍方 (landslide) 範圍 估測,透過高解析度 (GSD 2.0 cm) 的 UAV 可 見光影像,與影像匹配像對中的特徵點,產製 3D 點雲 (3-dimensional point clouds),能模擬 出公分級的坡地坍方面積,提供現地監測與勘 災製圖所需。 因 此, 本 研 究 利 用 UAV 航 拍 影 像 所 取 得 的 影 像 資 訊, 包 括 可 見 光 RGB、 近 紅 外 光 NIR 與 3D 點雲,以發展適用於水稻倒伏之判 釋 技 術。 透 過 光 譜 分 類 技 術 與 數 值 地 表 模 型 (digital surface model; DSM) 之高程模擬,評 估 不 同 技 術 的 災 損 判 釋 準 確 度, 提 出 具 有 快 速、 簡 易 及 高 準 確 性 的 水 稻 倒 伏 災 損 判 釋 方 法。 另 一 方 面, 應 用 本 研 究 所 建 議 的 災 損 判 釋技術,針對 2017 年 6 月初連續超大豪雨造 成 台 中 市 霧 峰 區 大 規 模 的 水 稻 倒 伏 災 情, 進 行 UAV 航拍影像產製、水稻倒伏面積估算及 地籍地號圖層套疊,以提供農損查報所需之空 間輔助圖資。並與現地調查之災損核定資料比 對,進行災損申請、災損核定及災損空拍判釋. 2020/3/20 下午 12:36:29.

(3) 水稻倒伏影像判釋. 三者間之相關性比較。最終,應用 UAV 航拍 技術發展農業災害勘查與鑑定之空間輔助工 具,以加速災後查報及救助之作業流程,提高 勘災效率並節省人力與物力。. 材料與方法 研究區域 台灣中部地區 (包含台中市、彰化縣、南 投 縣) 的 水 稻 生 產 區 面 積 (78,789 ha) 占 全 國 水稻種植面積的 28.7% (Agricultural and Food Agency 2017b),年產量約 40 萬公噸,主要提 供國內糧食自給所需。台中市霧峰區位於台中 市南端,東半邊主要有火炎山脈及九九尖峰的 山陵地,西半部主要為平原地帶,地勢平坦, 烏溪支流貫穿其間形成三角洲地帶,水源充沛 且土壤肥沃,因此孕育良田,主要的平原作物 為水稻 (圖 1)。霧峰地區農耕地約 3,000 ha,平 原多為水田,面積約 1,300 ha,多種植水稻,近 半為香米;山坡地多為旱田,面積近 1,700 ha, 多種植荔枝、龍眼、香蕉、鳳梨等果樹。目前 霧峰區擁有全台最大的香米種植區,品質佳, 曾榮獲全國十大經典好米的殊榮 (Wufeng District Office 2016)。 台灣位於歐亞大陸邊緣,介於大陸型與海 洋型氣候交界,氣候多變。夏季受海洋氣團影 響,多颱風豪雨;冬季受大陸氣團影響,則有 寒流、季風;春夏之交,處於大陸氣團與海洋 氣團勢均力敵之際,陰雨霏霏的梅雨為其特色。 近年來,受到全球氣候變遷的影響,極端型天 氣災害頻繁發生。台灣中部地區常受到颱風、 梅雨季及西南氣流所帶來的連日豪雨侵害,造 成當地水稻及其他作物在生長與收穫期受到嚴 重的影響。其中,水稻生長期間常遭受不同天 然災害影響,輕則生長發育遲緩,重則明顯歉 收。天然災害中,多以梅雨季 (5–6 月)、西南 氣流雲雨 (6–10 月) 及颱風 (5–11 月) 所帶來的 連日豪雨與強風影響最大,常造成秧苗期的秧 苗枯死或稻株流失而缺株,分蘗期的植株倒伏 或腐爛乾枯而缺株,抽穗開花期與穀粒發育期 則有水稻植株倒伏、穗上發芽或影響授粉造成 白 穗 空 殼 等 農 損 情 形 (Taichung District Agricultural Research and Extension Station 2016)。. 臺灣農業研究69(1)-03 陳琦玲.indd 27. 27. 依據行政院農業委員會農糧署 2013–2017 年 近 5 年 來 農 作 物 災 害 損 失 統 計 資 料 (Agriculture and Food Agency 2018), 台 灣 中 部 地 區 水 稻 的 災 損 面 積 約 9,800 ha yr-1 (主 要 災 情 為 2015 年 8 月分蘇迪勒颱風所致,約 21,800 ha, 其 餘 年 分 災 損 面 積 約 < 1,000 ha yr -1), 占 水 稻 生 產 面 積 的 12%。 政 府 為 了 減 少 農 民 受 到 農 業 災 害 所 造 成 的 損 失, 並 協 助 災 害 復 原 所 需 的 財 務, 由 農 業 委 員 會 於 1991 年 頒 布「農 業 天 然 災 害 救 助 辦 法」(最 新 修 正 日 期 2018/01/02),提供受災農民得以申請現金救助 及低利貸款,儘速恢復生產。因此,地方鄉鎮 公所依據農民提出申請的災損農地,依法規需 在 14 d 內完成現地災損查核,單一坵塊倒伏 率 20% 以 上, 即 被 認 定 為 災 區, 符 合 救 助 申 請。台灣中部地區近 5 年來水稻受損約 16,300 Mg yr -1, 每 年 估 計 損 失 產 值 為 370,600 千 元 (Agriculture and Food Agency 2018)。 本 研 究 針 對 台 中 市 霧 峰 區 的 水 稻 田, 鄰 近台中市大里區與烏日區的五福里 (圖 1),遭 受 2017 年 6 月 1–3 日連續超大豪雨之影響過 後 (累積雨量 450.5 mm),於 2017 年 6 月 8–9 日進行災後無人飛機航拍作業,獲取多光譜影 像資訊,拍攝面積為 396 ha。此研究區域水稻 種 植 面 積 約 230 ha, 平 均 受 災 程 度 大 於 20% (Agriculture and Food Agency 2017a), 符 合 農委會農作物天然災害救助標準,即啟動災害 救助申請與災損查核作業。. 研究流程 本研究首先利用 UAV 進行水稻田區受災 後 即 時 之 航 拍 影 像, 獲 取 低 空 飛 行 且 影 像 重 疊度高的災後空拍影像。接著透過 UAV 專業 影 像 處 理 軟 體 Pix4D Mapper, 進 行 航 拍 影 像 之 幾 何 校 正、 地 理 校 正 及 輻 射 校 正, 完 成 影 像鑲嵌拼接,並產製 DSM 與正射影像 (orthophotograph)。 接 著 依 此 成 果 進 行 水 稻 倒 伏 之 災損判釋,主要透過影像分類之可見光光譜、 NDVI 植 生 指 標 及 DSM 等 3 種, 並 以 專 業 人 工數位化之水稻倒伏為基準,進行此 3 種技術 之水稻倒伏判釋準確度比較。最後,依據實際 災損案例與取樣資料,完成影像判釋技術之實 際應用與評估分析。研究流程如圖 2 所示。以. 2020/3/20 下午 12:36:30.

(4) 28. 台灣農業研究 第 69 卷 第 1 期. 圖 1. 研究區域 (396 ha)。次研究區域 (左下角面積:58 ha)。 Fig. 1. Study area (396 ha). The sub site (58 ha) on the left-down corner of the study area.. 下 就 UAV 航 拍 規 格、 影 像 前 處 理、3 種 影 像 判釋技術原理、各技術之水稻倒伏判釋準確度 之比較原則進行介紹,最後應用本研究評估所 得之最佳災損判釋技術,針對 2017 年 6 月初 豪雨造成台中市霧峰區的水稻倒伏災情,進行 實例應用與評估。. 臺灣農業研究69(1)-03 陳琦玲.indd 28. UAV 航拍與影像前處理 本研究使用的 UAV 為 Phantom 3 Advanced, DJI 旋翼無人飛機 (重量 = 1.2 kg;軸距 = 350 mm;最大飛行時間 = 23 min;最大飛航速度 16 m s -1),搭配內建相機 (1/2.3 英寸 CMOS; 有效像素 1,240 萬;FOV 94° 20 mm;F/2.8 鏡. 2020/3/20 下午 12:36:34.

(5) 水稻倒伏影像判釋. 29. 圖 2. 研究流程。 Fig. 2. Research process. UAV: unmanned aerial vehicle; NDVI: normalized difference vegetation index.. 頭 ),透過系統規劃的航拍路線與低空 (100 m) 穩定飛行,產生高度重疊的影像 (同一航線前 後影像重疊率 70%;相鄰航線左右影像重疊率 60%),以獲得高規格與高解析度之可見光 (R: 585–615 nm、G: 525–555 nm、B: 445–475 nm),以及與相同型號 UAV 搭載修改之近紅外 光相機航拍影像 (NIR: 795–825 nm)。影像鑲 嵌拼接後之 GSD 約為 5 cm 網格大小的精度。 航拍影像透過 Pix4D Mapper 影像處理軟體進 行,其先進的影像匹配與自動化產製程序,能 夠提供快速與高精度的空間影像,不需透過地 面 控 制 測 量、 空 中 三 角 測 量 與 立 體 製 圖 等 程 序,即可取得正射影像與地形資訊,提供災後 勘災所需之快速的空間資訊 (Ruiz et al. 2013; Hsu & Chang 2015)。因此,Pix4D Mapper 從 原 始 影 像 讀 取 GPS 紀 錄、 相 機 參 數 設 定 到 空 間資料產製,利用相對的自動匹配能力進行特 徵點匹配,解算內、外方位參數,後經自動空 中三角測量與平差,產生 3D 點雲資料,並進 一步計算以獲得密集 3D 點雲與 DSM。再透過 DSM 進行正射影像糾正,以快速產製正射影 像 (Tsai et al. 2013; Comba et al. 2018)。 本研究透過 Pix4D Mapper,除了能進行航 拍 影 像 前 處 理, 包 括 影 像 鑲 嵌 拼 接、DSM 及. 臺灣農業研究69(1)-03 陳琦玲.indd 29. 正射影像產出,同時能進行相機之率定校正、 影像之幾何校正、地理校正與輻射校正 (Küng et al. 2011)。Pix4D Mapper 透過影像選取、替 換及拼接改善,進行原始影像之正射鑲嵌編輯; 透過加入地面控制點,進行幾何與地理校正; 透過加入地面黑/白帆布之光譜值,進行輻射校 正;透過率定參數 (calibration parameters) 進 行相機率定,修正因相機在飛行過程中受到飛 機馬達震動與環境中風速的影響。. 水稻倒伏災損判釋技術 本研究依據多光譜 (R、G、B、NIR) 正射 影像與 DSM,透過影像分類技術,依據地表 光譜反射資訊、植生指標及高程資訊,應用數 學與統計演算方法對 UAV 航拍影像進行水稻 田區倒伏情形之判釋,並進一步評估不同技術 的災損判釋準確度,以提出具有快速、簡易與 準確性的水稻倒伏災損判釋工具。接下來將介 紹所採用的三類影像分類技術。. 影像監督分類 (supervised classification) 傳 統 的 影 像 分 類 主 要 分 為 監 督 式 (supervised) 與非監督式 (unsupervised) 兩種。監督 式分類利用地面真實資料進行光譜形式辨別,. 2020/3/20 下午 12:36:37.

(6) 30. 台灣農業研究 第 69 卷 第 1 期. 需 要 先 決 定 區 分 的 作 物 類 別, 再 依 各 類 別 選 取 訓 練 樣 區 (training area), 並 以 各 樣 區 之 光 譜統計值為影像資料分類的依據。而非監督分 類利用數學運算檢查影像像元的光譜值,利用 集群分析 (cluster analysis) 方式,依據事先給 定的分類類別個數及多光譜波段的統計值,利 用數值迭代的方式將影像分成指定個數的集群 (clusters) (Lillesand & Kiefer 2000; Arbiol et al. 2007)。非監督式分類的操作人員所需的訓 練時間較短,透過給定所需分類的集群個數, 即能單純利用統計方法進行影像分類,但分類 結果需要進一步定義其類別意義,影像分類完 全取決於像元之光譜特性,缺乏分類類別之空 間分布的特性考量,且分類結果容易受到地貌 的複雜性,影響分類的精確性。監督式分類主 要由專業人員進行訓練樣區的選取,因此判釋 的精確度相對較為穩定。另外,水稻多栽植於 平原農田區域,其倒伏情形在空間上呈現連續 的區塊性。因而,操作人員在選取水稻倒伏與 非倒伏之訓練樣區時,能透過簡易的三角形或 四邊形快速圈選代表樣區,同時不易受到地貌 的複雜性而增加操作上的困難。因此,本研究 將以監督式影像分類技術為水稻災損多光譜影 像判釋的主要發展方向。 依 據 分 類 準 則 及 程 序 的 不 同, 監 督 式 分 類的演算法一般可分為最短距離平均法 (minimum-distance-to-mean classifier)、 平 行 六 面 體法 (parallelepiped classifier) 與高斯最大概 似法 (Gaussian maximum likelihood classifier)。 其中,高斯最大概似法透過向量的方式計算第 i 個 作 物 類 別 出 現 未 知 像 元 X 之 機 率 如 式 (1) 所示: P(X|i) = (2π). -. d 2. |∑ i|. -. 1 2. 1 exp[- (X – u i) T∑ i-1(X – u i)] 2. (1). d 為特徵數;u i 為第 i 類的平均值向量;∑ i 為 第 i 類的共變異數矩陣;P(X│i) 為某 X 由第 i 類而來的機率。 當 X 1 > X 時,則 P(X│i) > P(X│j),未知像 元 X 分成 i 類;反之,若 X > X 1 時,則 P(X│j). 臺灣農業研究69(1)-03 陳琦玲.indd 30. > P(X│i), 未 知 像 元 X 判 別 為 j 類。 因 此, 本 研究採用此分類法估計各類別訓練樣區光譜 反 應 形 式 的 變 方 與 相 關 係 數, 透 過 估 算 每 一 像 元 歸 屬 於 不 同 類 別 之 機 率, 並 此 像 元 歸 類 為最高發生機率的類別,依據此影像分類原則 能夠獲得較高精度的結果 (Lillesand & Kiefer 2000)。本研究針對研究對象將影像區分為五 大 類: 水 稻 (rice)、 水 稻 倒 伏 (lodging)、 水 稻 收 穫 (harvest)、 非 水 稻 之 植 被 (vegetation) 與 其 他 物 件 (others, 包 含 建 物、 水 體、 道 路 等)。透過 ESRI ArcGIS 地理資訊系統軟體 (Environmental System Research Institute 2019) Image Classification 工 具 中 之 Training Sample Manager, 進 行 5 類 訓 練 樣 區 的 選 取。 樣 區選取原則為具有代表性與完整性、每一個樣 區至少包含 30 個像元且樣區需均勻分布在整 個研究區域。樣區選取完成後,透過監督分類 方法之 maximum likelihood classification,輸 入運算所需之參數後,經過運算執行後,即可 得到 5 種分類的影像檔。其中,能透過此成果 進一步套疊 GIS 地籍圖框圖層,針對選定之地 籍地號區域,判釋水稻與水稻倒伏之區域,並 統計其水稻倒伏之面積比率值。. 標準差植生指標 (NDVI) NDVI 常用於偵測地表覆蓋物變遷,為綠 色 植 物 偵 測 最 常 使 用 之 指 標, 因 綠 色 植 物 生 長越旺盛,吸收越多紅光 R,其反射之紅外光 NIR 越 強, 紅 光 R 與 紅 外 光 NIR 之 差 越 大。 但 在 地 區 間 與 季 節 間 之 差 異 下, 會 對 影 像 比 例法造成誤差,因此可利用常態差異 (normalization difference; ND) 調 整 因 不 同 地 區 與 季 節 影 響 之 NIR 與 R 之 和, 此 法 可 降 低 誤 差。 NDVI 值 介 於 -1–1 之 間, 指 數 越 大 代 表 植 物 生長越旺盛 (Burgan & Hartford 1993)。NDVI 值為 NIR 與 R 光波段之差與兩者之和的比值: NDVI = (NIR – R)/(NIR + R)。 本 研 究 透 過 ESRI ArcGIS 軟 體 之 Spatial Analyst Tools 工具列中的 Map Algebra – Raster Calculator 工 具, 輸 入 所 需 的 參 數 (NIR 波 段 圖 層、R 波 段 圖 層 ) 與 指 標 計 算 公 式: NDVI = Float {[1.0 × (NIR – R)]/[1.0 × (NIR + R)]} , 即 能 得 到 研 究 區 域 之 NDVI 光 譜 影. 2020/3/20 下午 12:36:37.

(7) 水稻倒伏影像判釋. 像圖層。接著,進行 NDVI 數值的分類,透過 NDVI 數值的變化反應水稻倒伏情形。此處將 NDVI 光 譜 影 像 區 分 為 五 類:NDVI < 0.05、 0.05 ≤ NDVI < 0.15、0.15 ≤ NDVI < 0.23、 0.23 ≤ NDVI < 0.4、NDVI ≥ 0.4。 本 研 究 所 依 據 之 NDVI 分 類 門 檻 值 (threshold) 為 相 對 的數值,依據不同的研究區域與航拍影像所獲 得的時間,而有相對不同的分類門檻值。原則 上,NDVI 數值越小或負值,為非植生與水稻 倒伏的機率越高;NDVI 數值越高,為植生與 水稻的機率越高。因此,透過 NDVI 光譜值的 分類,能進行水稻與水稻倒伏區域之判釋。同 樣, 將 判 釋 成 果 進 一 步 套 疊 GIS 地 籍 圖 框 圖 層,針對選定之地籍地號區域,進行水稻倒伏 面積比率值之統計。. 數值地表模型 (DSM) 本研究透過 UAV 航拍所獲得的高重疊度 與 高 地 面 解 析 度 之 影 像, 應 用 Pix4D Mapper 之高度自動匹配能力,透過相鄰影像之特徵點 萃取及密集匹配,進行內、外方位參解算 (Jhan et al. 2011), 並 依 據 自 律 光 束 法 (self-calibration bundle adjustment) 進 行 空 中 三 角 點 平 差 後, 進 行 密 集 3D 點 雲 (RayCloud) 重 建 (Strecha et al. 2003; Tola et al. 2012)。Pix4D Mapper 產 製 3D 點 雲 後, 解 算 DSM, 並 透 過 DSM 進 行 正 射 糾 正, 產 製 正 射 影 像 (Remondino 2013; Honkavaara et al. 2013)。因此,應 用 Pix4D Mapper 處 理 UAV 拍 攝 之 影 像, 能 快速且自動化產製高精度之 DSM。其中,可 選定所欲產製之 DSM 格式 (包括:GeoTIFF、 XYZ、LAS、LAZ 等 ) 與解析度。另外,若欲 生成網格式 GeoTIFF 之 DSM,則可透過距離 反比加權法 (inverse distance weighting; IDW) 或是三角測量法 (triangulation) 這兩種空間內 插 法 (spatial interpolation) 來 處 理。 接 著, 選 擇 所 欲 使 用 的 DSM filters 方 法, 如 noise filter 與 surface smoothing, 利 用 選 取 相 鄰 高 程 數 值 的 中 位 數, 來 改 善 透 過 點 雲 所 獲 得 之 DSM 的干擾與誤差之檔案格式。 本研究為針對水稻田區內之高程差異進行 水稻倒伏之災損程度判釋,需進一步套疊 GIS 地籍圖框圖層,針對選定之地籍地號區域,進. 臺灣農業研究69(1)-03 陳琦玲.indd 31. 31. 行各別田區內 DSM 之相對高程數值分類,以 消除整區 DSM 的精準度與精確度問題。本研 究透過 ESRI ArcGIS 軟體之 Symbology Classification 工具的分級統計面量圖 (Choropleth Map) 功 能, 依 據 natural breaks (Jenks) 的 分 類原則,將選定之地籍區塊內的 DSM 概分為 5 大 類, 藉 以 強 化 單 一 坵 塊 內 的 相 對 高 程 差 異,以進行水稻倒伏的災損判釋。其中,natural breaks (Jenks) 的分類原則為透過聚集分類 (cluster classification) 的方式,以最小化各分 類群集與其平均值的差異,同時最大化各分類 群集間的平均值。因此,本研究將相對 DSM 之 5 分類定義為:倒伏-矮、倒伏-高、半倒伏、 直立 - 矮、直立 - 高,藉此區分水稻與水稻倒伏 兩者間的相對高程差異,並進而估算水稻田區 倒伏面積之比率值。. 水稻倒伏判釋技術之準確度評估 針對研究區域透過隨機的方式,選擇一較 小範圍的區塊 (圖 1 左下角之紅色方形區域 ), 約 58 ha 的研究區,進行水稻倒伏災損之人工 數化 (digitization)、影像監督分類、NDVI 分 類與 DSM 分類之建立。並於此區內,隨機選 取 30 處以上具有倒伏情形之水稻田區 (地籍區 塊 ) 為樣區,進行不同之水稻倒伏判釋技術的 倒伏率面積估算之統計依據。本研究,透過統 計 軟 體 R version 3.3.2, 進 行 Pearson 相 關 係 數 (Pearson correlation coefficient) 之 計 算 與 Student’s T 檢定 (Student’s t-test),比較各水 稻倒伏判釋技術與人工數化成果間的統計相關 性,並進而歸納出具有理論基礎與實務應用價 值之最佳災損影像判釋技術。. 水稻倒伏判釋技術之實例應用與評估 依據上述水稻倒伏判釋技術之準確度評估 所 歸 納 得 出 的 最 佳 技 術, 進 行 研 究 區 域 (396 ha,圖 1) 之豪雨過後災損影像判釋之實例應 用。此處,研究區域內共有 634 筆坵塊,此處 隨 機 選 取 67 筆 (~10%) 符 合 災 損 現 金 救 助 條 件 (單一坵塊倒伏率 20% 以上 ) 的地籍坵塊, 作為評估影像判釋技術之災損推估應用的統計 分析樣本。本研究區域之災損救助申請與災損 查核成果,由台中市政府霧峰區公所農業課所. 2020/3/20 下午 12:36:37.

(8) 32. 台灣農業研究 第 69 卷 第 1 期. 彙整之統計資料提供。此災損統計資料包含申 請救助之地號、土地面積、災損率、作物類別 以及勘查核定之土地面積與災損率。本研究透 過地籍圖之地段號為套疊索引 (merge key), 使 用 ESRI ArcGIS 軟 體 進 行 災 損 統 計 資 料 套 疊 GIS 地籍圖層,產生申請災損率與核定災損 率之 GIS 圖層。並將此兩類災損率與影像災損 判釋率進行比較,嘗試建立影像災損判釋率與 災損救助申請、災損查核成果間之關聯性,以 發展能提供農損查報所需之災損率推估值與空 間輔助圖資。. 結果與討論 數值高程模型 DSM 與正射影像 依據 UAV 航拍所獲得具有 GPS 點位 (經、 緯 度 與 高 程 )、 鏡 頭 拍 攝 角 度 (pitch、roll、. yaw) 與 拍 攝 時 間 紀 錄 的 影 像, 利 用 Pix4D Mapper 軟體自動抓取照片點位與鏡頭角度的 功能,透過相鄰影像控制點 (key points) 與自 動匹配點 (matching points) 的確認,進行影像 地理校正、幾何校正與拼接。本研究首先針對 次 研 究 區 域 (58 ha, 圖 1 左 下 角 ), 透 過 271 張 UAV 航 拍 影 像 (圖 3A),Pix4D Mapper 軟 體平均從每張影像提取 8,092 個控制點、2,418 個匹配點 (圖 3B),完成正射影像產製之控制 匹配與率定程序。 首先完成密集 3D 點雲與地表紋理 (圖 3C) 的模擬成果,最終產生 DSM (圖 3D、圖 4) 與 正射影像 (圖 5)。其中,平均空中三角測量誤 差 (mean re-projection error) 為 0.17 pixel, 透過相機校正參數 (R1, R2, R3) 進行初始焦距 (3.61 mm) 與最適化焦距 (4.05 mm) 之校正, 兩 者 間 之 差 小 於 0.50 mm, 因 此 影 像 扭 曲 的. (A). (B). (C). (D). 圖 3. UAV 航拍影像拼接與 3D 點雲模擬。(A) 航拍路線 (航拍點位與影像之相對位置示意圖 );(B) 匹配點 分布 (具有地表紋理之顏色擷取 );(C) 密集 3D 點雲與地表紋理影像;(D) 數值高程模型。 Fig. 3. Mosaic image of unmanned aerial vehicle (UAV) photographs and 3-dimensional point clouds. (A) Aerial route with locations of flights and relative positions of UAV photographs. (B) Tie points with ground surface texture color. (C) Densified 3-dimensional point clouds and ground surface texture. (D) Digital surface model (DSM).. 臺灣農業研究69(1)-03 陳琦玲.indd 32. 2020/3/20 下午 12:36:41.

(9) 33. 水稻倒伏影像判釋. N W. E S. 59.7 59.1 44.3 38.1 25.4. 圖 4. 數值高程模型。 Fig. 4. Digital surface model (DSM).. 現象得以透過鏡頭的畸變差加以校正。正射影 像 的 GSD 為 4.34 cm,DSM 的 網 格 大 小 同 樣 為 4.34 cm,其高程精度 (21.70 cm) 為平面精 度的 1/5 倍。另外,正射影像拼接誤差 (RMS Error: X : Y = 3.04% : 1.15%) 與 DSM 誤 差 (RMS error of Z = 4.13%),皆小於 < 5%。因 此, 正射影像拼接與 DSM 模擬成果,在整體 而言具有高度的正確性與可信度。 透 過 密 集 3D 點 雲 套 疊 地 表 紋 理 (圖 3C) 或是正射影像 (圖 5) 即能大致呈現地貌狀態, 並初步進行水稻與水稻倒伏之判釋。水稻色澤 深 綠、 紋 理 均 質 性 較 低、 呈 現 毛 毯 狀; 水 稻 倒 伏 之 色 澤 淺 綠 偏 黃、 紋 理 均 值 性 較 高、 呈. 臺灣農業研究69(1)-03 陳琦玲.indd 33. 現平滑面。因水稻與水稻倒伏兩者間的色澤與 紋理差異大,而能清楚且直接地透過目視法, 進行兩者之判釋。因此,本研究可利用影像光 譜的特性,透過影像監督分類與光譜植生指標 之計算,發展水稻災損倒伏之影像判釋技術。 另外,雖然透過 DSM 模擬成果 (圖 3D、圖 4) 能呈現研究區域整體的相對高程差異分布,但 針對本研究對象水稻田區內的高程模擬,因受 到田區內的控制點 (68.4 pts ha -1;整體平均值 為 143.3 pts ha -1) 與匹配點 (20.7 pts ha -1;整 體平均值為 42.8 pts ha -1) 之生成密度相對較低 (圖 3B), 使 得 田 區 內 水 稻 與 水 稻 倒 伏 兩 者 間 的高程差異,不易直接透過 DSM 高程數值進. 2020/3/20 下午 12:36:46.

(10) 34. 台灣農業研究 第 69 卷 第 1 期. N W. E S. 圖 5. UAV 航拍正射影像套疊人工數化之水稻倒伏災損區域。 Fig. 5. Unmanned aerial vehicle (UAV) orthophotograph overlapped with rice lodging area of manual digitalization.. 行區分。因此,本研究在依據 DSM 進行水稻 倒伏高程判釋時,需進一步針對田區內之相對 DSM 高程數值進行分類,以減少受到點雲密 度不足所產生的影響。 UAV 航拍影像透過 Pix4D Mapper 能快速 產生正射影像與 DSM,其品質取決於 3D 點雲 (包 括 控 制 點 與 匹 配 點 ) 的 生 成 密 度 與 分 布 均 質性。高密度與分布均勻的 3D 點雲,除了受 到 UAV 航拍前的路線規劃、航拍時的飛行穩 定度、相機鏡頭的解析度與感光力等因素影響 外,拍攝區域的地形變化程度與拍攝對象的複 雜程度,都會對 3D 點雲的產生造成影響。一 般來說,3D 點雲大多在明確可辨認的物件中. 臺灣農業研究69(1)-03 陳琦玲.indd 34. 生成,例如道路、建物、田坵邊界等。對於色 澤與紋理相對均質的物件,就越不易在相鄰影 像間產生匹配點,例如:森林、水稻、果園、 草地、水體等。因此,在應用 UAV 進行水稻 災損航拍與影像判釋時,可以透過低空且系統 性的飛航路線規劃、使用高畫素高感光度的專 業相機、選擇地勢平穩的區域進行拍攝,以減 少地形起伏變化對 3D 點雲的密度與均質性造 成影響。若需針對農作物與森林地進行航拍, 則需瞭解 UAV 應用的特性與局限性。對於物 件均質性與複雜性太高的對象,都不易獲得高 品質的成果。 另外,為提升航拍影像的品質與產品的正. 2020/3/20 下午 12:36:50.

(11) 水稻倒伏影像判釋. 確性,需加強影像的輻射、幾何與地理校正等 前 處 理。 本 研 究 初 步 只 透 過 簡 易 的 黑 白 帆 布 與 Pix4D Mapper 中的功能進行幅射校正;另 外主要透過分布於交岔路口的 6 個地面控制點 進行地理校正 (如圖 1 所示 )。其中,地面控制 點的布設原則為均勻分布於研究樣區、主要位 於空曠的路面交岔口;另外,控制點的數量取 決於精度需求與時間、成本上的考量,本研究 初步選用 6 個控制點。未來將依據本研究的成 果,針對控制點的數量與影像拼接校正度,進 一步評估與討論。因此,影像光譜資訊與座標 位置的準確性,除了須透過軟、硬體的升級、 實地航拍前置工作的規劃與經驗的累積外,針. 35. 對災後資訊取得的時效性與正確性,兩者間的 權衡拿捏,也是應用 UAV 進行勘災重要的考 量點。. 水稻倒伏災損判釋之成果與比較 本研究透過高解析度 UAV 航拍影像,完 成可見光影像之水稻倒伏監督分類與光譜植 生指標 NDVI 分類成果如圖 6、圖 7 所示。圖 6 所呈現的水稻倒伏監督分類成果,能將田區 坵塊 (包含:水稻-Rice、水稻倒伏-Lodging、 水 稻 收 穫-Harvest) 與 非 田 區 坵 塊 (包 含: 非 水稻之植被-Vegetation、建物與道路等其他物 件-Others) 清楚區分。其中,田區坵塊中大部. N W. E S. 圖 6. 影像監督分類之水稻倒伏判釋成果。 Fig. 6. Rice lodging discrimination from image supervised classification.. 臺灣農業研究69(1)-03 陳琦玲.indd 35. 2020/3/20 下午 12:36:55.

(12) 36. 台灣農業研究 第 69 卷 第 1 期. N E. W S. <0.05 0.05–0.15 0.15–0.23 0.23–0.4 >0.4. 圖 7. 影像光譜 NDVI 分類之水稻倒伏判釋成果。 Fig. 7. Rice lodging discrimination from image normalized difference vegetation index (NDVI) classification.. 分為水稻-Rice 的分布,水稻倒伏-Lodging 多 零散分布於水稻區塊內,呈現破碎化。本研究 範圍的東北區 (圖 6),有部分的水稻坵塊發生 整區倒伏現象。另外,因研究時期為 6 月初, 屬於一期水稻的採收期,因而有部分田區呈現 水稻收穫-Harvest。因此,本研究透過影像監 督分類技術,針對田區坵塊的 3 種水稻類型的 判釋,能呈現初步的區分成果 (圖 6)。 圖 7 所呈現的影像光譜 NDVI 分類成果, 能清晰地將田區坵塊與人工建物之輪廓勾勒出 來,透過 NDVI (5 分類 ) 所呈現的地貌類別, 相較於影像監督分類 (5 分類、圖 6) 所呈現的 更為精細,尤其是針對單一人工建物的細部呈. 臺灣農業研究69(1)-03 陳琦玲.indd 36. 現。當 NDVI < 0.15,基本上屬於非植被或水 稻倒伏之區域;NDVI > 0.23,基本上屬於植 被區域。此處可發現,水稻之 NDVI 值相對小 於其他植被的 NDVI 值,但不易清楚區分水稻 與非水稻之植被;針對 0.15 ≤ NDVI < 0.23, 除了屬於非植被狀態的人工建物與道路外,水 稻收穫區與水稻倒伏區的 NDVI 值也落在此一 區 間。 因 此, 應 用 影 像 光 譜 NDVI 值 進 行 水 稻災損倒伏之判釋 (圖 7),對於研究區域整體 之水稻、水稻倒伏與人工建物等不同類型的物 件,能清楚區分;但是,不易進行水稻與其他 植被、水稻倒伏與水稻收穫、水稻倒伏與人工 建物等上述兩兩類別之區分。所以,本研究需. 2020/3/20 下午 12:36:59.

(13) 水稻倒伏影像判釋. 進一步針對田區坵塊內之 NDVI 值,進行水稻 與水稻倒伏區域之判釋,以減少水稻倒伏在全 區整體判釋上所造成的誤差。 水稻倒伏區域之專業人工數化成果,透過 圖 5 之粉紅色區塊 (紅色邊框 ) 呈現。本研究進 一步選取 6 個樣本 (地號:LG116905880001、 L G 11 6 9 0 5 8 8 0 0 0 0 、L G 11 6 9 0 8 4 5 0 0 0 0 、 L G 11 6 9 0 8 7 6 0 0 0 0 、 L G 11 6 9 0 5 9 9 0 0 0 0 及 LG116905420000) 進 行 田 區 坵 塊 內 之 水 稻 倒 伏災損判釋技術之視覺化比較,透過圖 8 能清. 37. 楚呈現各影像分類技術於田區坵塊內之水稻與 水稻倒伏間之光譜差異。圖 8 之第一欄首先透 過正射影像,呈現高解析度可見光 UAV 航拍 影像對於水稻與水稻倒伏兩者間的光譜差異。 圖 8 之第二欄為專業人工數化,依據正射影像 在田區坵塊中水稻與水稻倒伏的可見光光譜差 異,將水稻倒伏區加以圈選,並依此作為比較 各 水 稻 倒 伏 災 損 判 釋 技 術 之 準 則。 圖 8 之 第 三 欄 為 影 像 監 督 分 類 成 果 (image supervised classification),田區坵塊中主要由水稻 (黃色 ). 圖 8. 水稻倒伏災損判釋技術之成果比較 (Digitalization:粉紅色為人工判釋水稻倒伏區;Image Supervised Classification:圖例如圖 6 所示;NDVI:圖例如圖 7 所示;Relative DSM:深棕色為倒伏- 矮、淺棕色為倒伏-高、 淡黃色為半倒伏、淺綠色為直立-矮、深綠色為直立-高 )。 Fig. 8. Comparisons of rice lodging discriminations from different technologies [Digitalization-pink region: lodging area; Image Supervised Classification: shown as Fig. 6; Normalized Difference Vegetation Index (NDVI): show as Fig. 7; Relative Digital Surface Model (DSM)-dark brown: lodging-short, light brown: lodging-tall, light yellow: lodging-moderate, light green: rice-short, and dark green: rice-tall].. 臺灣農業研究69(1)-03 陳琦玲.indd 37. 2020/3/20 下午 12:37:04.

(14) 38. 台灣農業研究 第 69 卷 第 1 期. 與水稻倒伏 (紅色 ) 兩類為主。圖 8 第四欄為 田區內 NDVI 分類成果,水稻倒伏主要由黃、 橘、 紅 色 呈 現, 水 稻 未 倒 伏 主 要 由 綠 色 系 呈 現。圖 8 第五欄為田區坵塊內之相對 DSM 分 類成果,水稻倒伏主要由淡黃與橘色系呈現, 水稻未倒伏主要由綠色系呈現。 依據圖 8 所呈現的水稻倒伏與非倒伏判釋 成果,影像監督分類與相對 DSM 分類所判釋 的水稻倒伏之區域與專業人工數化的區域較相 近,其中相對 DSM 透過 5 個分類,能將不同倒 伏程度加以細分。相對來說,NDVI 分類所呈現 的水稻倒伏區域與專業人工數化及另外兩種判 釋 成 果 較 有 出 入。 圖 號 LG116908450000 (第 三列)、LG116908760000 (第四列) 及LG116905990000 (第 五 列 ) 之 水 稻 倒 伏 區 域 未 被 NDVI 值 所 判 釋,但卻將 LG116905420000 (第六列 ) 全區判 釋為水稻倒伏。另外,依據本研究隨機選取的 33 塊 樣 區 (如 圖 5 所 示 -Lodging Samples), 其所進行的水稻倒伏判釋技術之統計評估,三 種災損判釋技術之成果與專業人工數化之水稻 倒伏災損率之統計相關比較如圖 9 所示。影像 監督分類、相對 DSM 分類與 NDVI 分類等三 種判釋技術與專業人工數化之水稻倒伏率之 Pearson 相關係數各為 0.92 (P = 0.05)、0.95 (P = 0.01) 及 0.24 (P = 0.52),其中影像監督分類 與相對 DSM 分類之水稻災損倒伏判釋與專業 人工數化成果具有顯著的相關性 (P ≤ 0.05)。 因此,透過圖 8 視覺化的呈現與圖 9 統計分析 比較結果得知,影像監督分類與相對 DSM 分 類皆能提供具有代表性與高準確度的水稻災損 判釋成果。 接 著, 進 一 步 比 較 影 像 監 督 分 類 與 相 對 DSM 分類兩判釋技術的實務應用價值。影像 監督分類需透過訓練樣區的選取,以進行整個 研究區域之災損倒伏判釋分類。相對 DSM 分 類需先產生整區的 DSM 後,再進一步針對各 個 研 究 坵 塊 範 圍 內 之 DSM, 進 行 DSM 統 計 面 量 圖 之 分 類。 因 此, 在 實 務 操 作 上, 相 對 DSM 分類技術需要較多的分析步驟與影像處 理 時 間 (~120 min 50 ha -1); 相 對 來 說, 影 像 監督分類所需的分析步驟與時間較少 (~60 min 50 ha -1), 只 需 要 分 析 者 能 對 於 研 究 區 域 的 影 像具有視覺上的判釋能力,完成訓練樣區的選. 臺灣農業研究69(1)-03 陳琦玲.indd 38. 取。透過上述之評估結果,本研究推薦應用影 像監督分類技術進行水稻災損倒伏之判釋,其 具備理論基礎與實務應用之價值。接下來將依 據 影 像 監 督 分 類 技 術, 針 對 研 究 區 域 全 區 約 396 ha 的範圍,評估其應用於水稻災損倒伏之 判釋準確度。. 水稻倒伏判釋技術之實例應用與評估 依據影像監督分類技術,針對研究區域之 五 分 類, 選 取 具 有 代 表 性 與 完 整 性 之 訓 練 樣 區後,透過 ESRI ArcGIS 中 Image Classification 工具之 maximum likelihood classification 方 法, 執 行 影 像 監 督 分 類 之 運 算, 成 果 如 圖 10 所 示。 圖 10 呈 現 套 疊 GIS 地 籍 圖 之 UAV 航 拍 正 射 影 像 (圖 10A) 與 影 像 監 督 分 類 之 水 稻 倒 伏 判 釋 成 果 (圖 10B), 透 過 高 解 析 度 UAV 正 射 攝 影 像 所 呈 現 之 光 譜、 色 澤 與 紋 理 等特性,能清晰且直接地呈現水稻倒伏災損情 況,比對監督分類之水稻倒伏判釋成果,其能 提供整個範圍之災損判釋的 GIS 評估依據,協 助勘災人員掌握災損範圍與災損程度。透過影 像監督分類之水稻倒伏判釋成果 (圖 10B),水 稻倒伏區域 (紅色 ) 主要發生在研究區域的中 部、南部與西北部地區,東半部的水稻田主要 為已收穫的田區 (橘色 ),另外西部區域為直立 水稻區 (黃色 ),此兩區的災損情形不嚴重。 接著,於研究區內隨機選取 67 筆地籍坵 塊 (倒伏率 20% 以上 ),透過統計各坵塊內之 水稻倒伏像元數與區域總像元數,即進行所選 坵 塊 之 水 稻 災 損 倒 伏 率 之 估 算。 影 像 監 督 判 釋 所 估 算 之 水 稻 災 損 倒 伏 率 (disaster rate of estimated by image interpretation) 分別與申請 救 助 之 災 損 率 (disaster rate of compensation applied) 及勘察核定之災損率 (disaster rate of investigation approved) 進行比較,如圖 11 所 示。 此 處 以 災 損 倒 伏 率 20% 為 基 準 線, 當 影 像監督分類判釋所估算之水稻災損倒伏率與申 請救助之災損率及勘察核定之災損率皆大於 20% (第一象限 ) 或小於 20% (第三象限 ),表 示影像監督分類判釋所估算之水稻災損倒伏率 為正確推估。此處,監督判釋估算之水稻災損 倒伏率比對申請救助之災損率之正確率為 92% (62/67);另外,影像監督分類判釋估算之水稻. 2020/3/20 下午 12:37:04.

(15) 39. 水稻倒伏影像判釋. 100%. Sample size = 33. MLCIass_% rDSM_%. 90%. Lodging rate from discrimination technologies. NDVI_% Linear (MLCIass_%). 80%. Linear (rDSM_%) Linear (NDVI_%). 70%. 60%. 50%. 40%. 30%. 20%. 10%. 0%. 0%. 10%. 20%. 30%. 40%. 50%. 60%. 70%. 80%. 90%. 100%. Lodging rate from manual digitalization 圖 9. 水稻倒伏災損判釋技術之成果與人工數化之水稻倒伏災損率統計相關比較。MLClass_%:影像監督分 類之水稻倒伏災損率;rDSM_%:相對 DSM 之水稻倒伏災損率;NDVI_%:NDVI 分類之水稻倒伏災損率; Linear (MLClass_%):人工數化與影像監督分類之水稻倒伏災損率之線性迴歸;Linear (rDSM_%):人工數化 與相對 DSM 之水稻倒伏災損率之線性迴歸;Linear (NDVI_%):人工數化與 NDVI 分類之水稻倒伏災損率之 線性迴歸 )。 Fig. 9. Comparison of lodging rates between manual lodging digitalization and lodging discrimination technologies from image supervised classification, relative digital surface model (DSM), and normalized difference vegetation index (NDVI). MLClass_%: lodging rate of image supervised classification; rDSM_%: lodging rate of relative DSM; NDVI_%: lodging rate of NDVI classification; Linear (MLClass_%): linear regression of rice lodging rates between manual digitalization and image supervised classification; Linear (rDSM_%): linear regression of rice lodging rates between manual digitalization and relative DSM; and Linear (NDVI_%): linear regression of rice lodging rates between manual digitalization and NDVI classification).. 災損倒伏率比對勘察核定之災損率之正確率也 為 92% (62/67)。因此,透過影像監督分類判 釋進行實地水稻災損倒伏率之估算應用,以災 損率 20% (符合災損現金救助條件 ) 為基準, 能獲得超過 9 成之災損判釋正確率。 其中,若現地勘查核定之災損率小於 20%. 臺灣農業研究69(1)-03 陳琦玲.indd 39. (不 符 合 現 金 救 助 條 件 ), 但 透 過 影 像 監 督 分 類判釋出的災損率卻大於 20% (符合現金救助 條件 ),如圖 11B (第四象限 ) 所示,此處將會 產生判釋上的爭議。因此,將此研究樣區 (圖 11 之 a、b、c、d) 擷取出,針對 UAV 航照與 影 像 監 督 分 類 進 行 對 照 (圖 12), 並 討 論 其 誤. 2020/3/20 下午 12:37:05.

(16) 40. 台灣農業研究 第 69 卷 第 1 期. (A). (B) N. N. E. W. E. W. S. S. 圖 10. 影像監督分類應用於臺中市霧峰區研究範圍之水稻倒伏判釋成果。(A) 航拍影像套疊地籍 GIS 圖層; (B) 影像監督分類套疊地籍 GIS 圖層 (圖例如圖 6 所示 );a、b、c、d 為圖 11 中 a、b、c、d 的坵塊位置。 Fig. 10. Rice lodging discrimination from image supervised classification in the study area, Wufeng District, Taichung City. (A) Aerial photography overlap with Cadastral GIS map. (B) Image supervised classification overlap with Cadastral GIS map (the legend is showed as Fig. 6). The a, b, c, and d are the locations of a, b, c, and d in Fig. 11.. (A) 0.9. (B) 1.0. Sample size = 67. Disaster rate of applied. 0.8 0.7 b. 0.6 0.5. c. a. 0.4 0.3. d. 0.2. 0.8 0.7 0.6 0.5 0.4 0.3 0.2. 0.1. 0.1. 0.0 0.0. 0.0. 0.2. 0.4. Sample size = 67. 0.9. Disaster rate of approved. 1.0. 0.6. 0.8. 1.0. a. b c 0.0 0.1. 0.2. 0.3. 0.4. d 0.5. 0.6. 0.7. 0.8. 0.9 1.0. Disaster rate of estimated by image interpretation. 圖 11. 影像災損判釋率與 (A) 申請救助、(B) 勘查核定之災損率比較 (圖中對角線為 1 : 1 之比例 )。 Fig. 11. Comparisons of disaster rates between estimated from image interpretation and statistical records from (A) compensation applied and (B) ground-based official approved (the diagonal line is the ratio 1 : 1).. 差 發 生 的 可 能 原 因。 透 過 圖 12A–12C 所 示, UAV 航照與影像監督分類皆顯示研究區域之 水 稻 倒 伏 情 形 超 過 20%。 因 此, 若 依 據 UAV 航拍所提供的 GIS 輔助圖層,將推翻現地勘災 核 定 之 災 損 判 釋 結 果。 但 圖 12D, 依 據 UAV. 臺灣農業研究69(1)-03 陳琦玲.indd 40. 航 照 圖 判 釋, 水 稻 倒 伏 情 形 不 超 過 20%, 但 是影像監督分類所判釋的水稻倒伏情形大於 50%,此為影像監督分類誤判情形。 另一方面,雖然影像監督判釋所估算的災 損倒伏率,具有 9 成以上能反應實地水稻勘查. 2020/3/20 下午 12:37:09.

(17) 41. 水稻倒伏影像判釋. (A). (B). Cadaster ID: LG116807340000. Applied: 40%; Approved: 0% Estimated: 41% N. N. 10. 20. 40 Meters. 0. E. 10. 20. 40 Meters. Applied: 40%; Approved: 0% Estimated: 28%. 10. 20 Meters. 0. 5. 10. 20 Meters. E. 20 Meters. 0. N. W. S. S. Applied: 40%; Approved: 0% Estimated: 51%. N. W. E. 10. 5. Cadaster ID: LG116807480000. N. N. 5. S. (D). Cadaster ID: LG116806040000. 0. 0. E. W. S. (C) W. N E. W. S. S. Applied: 50%; Approved: 0% Estimated: 22%. N. W. E. W. 0. Cadaster ID: LG116802360000. E. W. S. 5. 10. 20 Meters. 0. E S. 5. 10. 20 Meters. 0. 5. 10. 20 Meters. 圖 12. 水稻災損倒伏之 UAV 航照與監督分類影像對照 (圖例如圖 6 所示 )。 Fig. 12. Pair comparisons of rice lodging between unmanned aerial vehicle (UAV) photographs and supervised classification images (the legend is shown as Fig. 6).. 之災損情形 (以災損率 > 20% 為基準 ),但是 前者所估算的災損率普遍大於申請救助與勘查 核定的災損率。如圖 11 所示,取樣地籍大部 分皆落於 1 : 1 對角線的右下方。此現象產生 的原因,可能由於現地勘查人員的低估或是影 像監督判釋的高估。因此,上述之誤差來源, 可歸類為下列兩個方向:現地人員之判釋誤差 與影像監督分類之判釋誤差。 現地人為判釋誤差主要發生於所勘查的位 置與高度之限制,不易對整個地籍區域進行完 整的調查,因此會有以偏概全的誤判產生;現 地雖能夠觀察到較精準的災損情形,但對於大 範圍災損面積的掌握,需要 UAV 航拍影像的協 助。另一方面,影像監督分類所產生的災損判. 臺灣農業研究69(1)-03 陳琦玲.indd 41. 釋誤差,主要受到訓練樣區與航拍影像品質的 影響。其中,選取訓練樣區的技術人員專業背 景與經驗,影響訓練樣區的代表性;同時,影 像監督分類成果也受 UAV 航拍影像的品質所影 響,航拍影像只能呈現從空中的俯視角度,判 釋地面目標物的解析能力受到航拍相機鏡頭、 飛航穩定度與航高、地形複雜程度等影響。. 結論 UAV 航 拍 影 像 能 提 供 大 範 圍 且 高 解 析 度 之災後勘災輔助圖資,協助地方政府在黃金救 援 時 間, 即 時 掌 握 災 損 範 圍 與 程 度, 進 而 規 劃 救 災 資 源 與 優 先 順 序 之 擬 定。 本 研 究 應 用 UAV 航 拍 影 像 所 獲 得 之 高 解 析 度 影 像, 透 過. 2020/3/20 下午 12:37:21.

(18) 42. 台灣農業研究 第 69 卷 第 1 期. 影 像 監 督 分 類、NDVI 植 生 指 數 分 類 與 DSM 分類,針對 2017 年 6 月分連續超大豪雨對台 中霧峰地區水稻所造成之災損倒伏情形,進行 水稻倒伏災損影像判釋技術之發展,並比較不 同災損影像判釋分類法對於水稻倒伏判釋準確 度之比較。 結果顯示,UAV 航拍所得之可見光 RGB 正 射 影 像, 能 清 楚 觀 測 水 稻 災 損 範 圍 與 相 對 的 災 損 情 形。 雖 然 現 地 勘 查 能 夠 觀 察 到 較 精 準與細部的災損情形,本研究透過 UAV 航拍 影像,對於大範圍災損面積能夠提供較完整的 資訊;同時,透過影像分類的成果進行災損率 的估算,能夠進一步掌握災損的具體程度與範 圍。因此,針對災後即時且大範圍災區勘災工 作時,本研究建議應用 UAV 航拍影像進行大 範 圍 之 災 區 勘 災 作 業, 並 推 薦 應 用 影 像 監 督 分類進行災損判釋。透過 UAV 航拍影像與影 像監督分類所得之災損判釋成果,進行交叉比 對,以確認目標區域之災損情形。另外,針對 UAV 航 拍 影 像 與 影 像 監 督 分 類 災 損 判 釋, 兩 者間對於災損認定有所出入之坵塊區域,再輔 以現地災損查核作業,透過階層分工的概念, 發揮各種技術的最大功效,運用最精簡的時間 與人力,提供最快速與最高品質的災損評估成 果。因應航拍影像與影像判釋仍有誤差,建議 應 用 於 勘 災 時, 可 先 篩 出 災 損 判 釋 結 果 大 於 30% 之 坵 塊 可 不 必 人 工 勘 災, 小 於 20% 者 再 進行人工勘災,以降低勘災人力。 本研究所依據之監督式分類,目前僅採用 普遍且簡易的可見光鏡頭所獲取的 RGB 波段 進行災損分析。未來的研究設計,將在研究方 法 與 流 程 的 改 善 下, 整 合 R、G、B、NIR 等 多光譜影像進行監督式分類分析,以兼顧影像 分析的效率、成果與可信度。 未 來, 在 UAV 航 拍 技 術、 影 像 處 理 與 分 析方法不斷地進展下,農業災害的勘災作業將 會越來越有效率,且災損評估成果的準確性也 將因此提升。現今的農業應用與發展,處於一 個充滿新技術開發與整合多元開放的跨領域環 境中。我們需要保持創新與勇於嘗試的態度, 透過新科技的注入與新規範系統的建立,讓傳 統農業的勘災與災損救助作業,能更具時效性 與規模性。讓政府與民間單位能透過新科技的. 臺灣農業研究69(1)-03 陳琦玲.indd 42. 應用,增加合作的管道、凝聚研發的能量,以 共同提升災後勘災與救災的效能。. 誌謝 本研究承行政院農業委員會科技計畫「107 農 科-7.8.4-農-C3」 之 經 費 補 助; 台 中 市 政 府 霧峰區公所農業課劉式弘課長,提供 2017 年 6 月分霧峰地區之豪雨災損明細資料,行政院 農業委員會農糧署企劃組調查分析科白旭凱技 正,提供 2017 年 6 月分豪雨早成之農業災情 統計報告、農作物災害縣市別損失統計表與各 縣市農作物災害報告等資料,特此致謝。. 引用文獻 Agriculture and Food Agency. 2017a. Report of agricultural damage from extremely heavy rain on 20170613. Agriculture and Food Agency, Council of Agriculture, Executive Yuan, Taipei, Taiwan. https://www. coa.gov.tw/theme_data.php?theme=news&sub_ theme=agri&id=6961 (visit on 04/07/2019) (in Chinese) Agricultural and Food Agency. 2017b. Statistic database of crop plantation area and production in Taiwan, 2017. Agricultural and Food Agency, Council of Agriculture, Executive Yuan, Taipei, Taiwan. http://agrstat.coa. gov.tw/sdweb/public/official/OfficialInformation.aspx (visit on 04/07/2019) (in Chinese) Agriculture and Food Agency. 2018. Statistic database of agricultural damage from natural disaster between 2013 and 2017. Agriculture and Food Agency, Council of Agriculture, Executive Yuan. Taipei, Taiwan. http://agrstat.coa.gov.tw/sdweb/public/official/ OfficialInformation.aspx (visit on 04/07/2019) (in Chinese) Al-Rawabdeh, A., F. He, A. Moussa, N. El-Sheimy, and A. Habib. 2016. Using an unmanned aerial vehicle-based digital imaging system to derive 3D point cloud for landslide recognition. Remote Sens. 8:95–127. Arbiol, R., Y. Zhang, and V. Palà. 2007. Advanced Classification Techniques: A Review. Rev. Cat. Geogr. Vol. 12, No. 32. Institut Cartogràfic i Geològic de Catalunya. Barcelona, Spain. http://www.rcg.cat/ articles.php?id=98 (visit on 04/07/2019) Burgan, R. E. and R. A. Hartford. 1993. Monitoring vegetation greenness with satellite data. Gen. Tech. Rep. INT-297. U. S. Department of Agriculture, Forest Service, Intermountain Research Station. https://. 2020/3/20 下午 12:37:21.

(19) 水稻倒伏影像判釋. www.fs.fed.us/rm/pubs_int/int_gtr297.pdf (visit on 04/07/2019) Chang, K. W., Y. Shen, and J. C. Lo. 2005. Predicting rice yield using canopy reflectance measured at booting stage. Agron. J. 97:872–878. Chang, K. W., S. Z. Wang, Y. Shen, J. C. Lo, D. M. Huang, and H. L. Tsay. 2006. Rice yield prediction using multispectral airborne images at booting stage. J. Photogramm. Remote Sens. 11:27–38. (in Chinese with English abstract) Chang, K. W. and Y. Shen. 2011. Rice yield prediction using remote sensing images. J. Aeron. Astron. Avia., Ser. B 43:55–64. (in Chinese with English abstract) Chen, C. C. and T. Y. Shih. 2007. Rice paddy identification using the support vector machine. J. Photogramm. Remote Sens. 12:225–240. (in Chinese with English abstract) Chen, I. H. and Y. H. Tseng. 1999. Automatic recognition of rice fields from multi-temporal satellite images. J. Photogramm. Remote Sens. 4:1–15. (in Chinese with English abstract) Chien, T. C., Y. A. Liou, and T. Y. Chang. 2008. Using remote sensing to estimate evapotranspiration of paddy field. J. Photogramm. Remote Sens. 13:1–18. (in Chinese with English abstract) Chou, C. Y., S. Y. Wu, and C. L. Chen. 2018a. Application of unmanned aerial vehicle (UAV) photography on agricultural post-disaster investigation- A case study on image interpretation of banana plantation damages by disasters. J. Photogramm. Remote Sens. 23:83–101. (in Chinese with English abstract) Chou, C. Y., S. Y. Wu, C. L. Chen, H. Y. Kuo, M. H. Yao, H. W. Tsai, Y. P. Wu, L. J. Liao, and Y. L. Chang. 2018b. Application of Unmanned Aerial Vehicle (UAV) on assisting agricultural disaster detection. Agric. Policy Rev. 307:113–117. (in Chinese) Comba, L., A. Biglia, D. R. Aimonino, and P. Gay. 2018. Unsupervised detection of vineyards by 3D pointcloud UAV photogrammetry for precision agriculture. Comput. Electron. Agri. 155:84–95. de Oliveira Silva, L., R. A. de Mello Bandeira, and V. B. G. Campos. 2019. Proposal to planning facility location using UAV and geographic information systems in a post-disaster scenario. Intl. J. Disaster Risk Reduct. 36:101080. Environmental System Research Institute. 2019. An overview of the Image Classification toolbar. ArcMap 10.7 Spatial Analyst Extensions. Environ. Syst. Res. Inst., Sacramento, CA. http://desktop.arcgis.com/en/ arcmap/latest/extensions/spatial-analyst/image-classification/an-overview-of-the-image-classification-toolbar.htm (visit on 04/07/2019). 臺灣農業研究69(1)-03 陳琦玲.indd 43. 43. Ezequiel, C. A. F., M. Cua, N. C. Libatique, G. L. Tangonan, R. Alampay, R. T. Labuguen, C. M. Favila, J. L. E. Honrado, V. Canos, C. Devancy, A. B. Loreto, J. Bacusmo, and B. Palma. 2014. UAV aerial imaging applications for post-disaster assessment, environmental management and infrastructure development. p.274–283. in: Proceeding of 2014 International Conference on Unmanned Aircraft Systems (ICUAS). May 27–30, 2014. Orlando, FL. IEEE Robotics & Automation Society, Piscataway, NJ. Honkavaara, E., H. Saari, J. Kaivosoja, I. Pölönen, T. Hakala, P. Litkey, and J. Pesonen. 2013. Processing and assessment of spectrometric, stereoscopic imagery collected using a lightweight UAV Spectral Camera for precision agriculture. Remote Sens. 5:5006–5039. Hsieh, C. Y., H. A. Chen, M. L. Tsai, Y. S. Lin, J. L. Chang, and C. F. Lo. 2018. Applications for spatial information and disaster reduction with unmanned aircraft system. Taiwan J. Geoinf. 6:75–95. (in Chinese with English abstract) Hsu, R. and K. C. Chang. 2015. The use of innovative software Pix4D Mapper to optimize the process of generating spatial data from UAV’s aerial images. J. Chinese Inst. Civ. Hydraul. Eng. 27:241–246. (in Chinese with English abstract) Jhan, J. P., J. Y. Rau, C. C. Lin, and Y. C. Shao. 2011. Automatic tie-point matching using SURF-based image matching scheme. p.2336–2341. in: Proceeding of 32nd Asian Conference on Remote Sensing 2011 (ACRS 2011). October 3–7, 2011. Taipei, Taiwan. Asian Association on Remote Sensing, Tokyo, Japan. Küng, O., C. Strecha, A. Beyeler, J. C. Zufferey, D. Floreano, P. Fua, and F. Gervaix. 2011. The accuracy of automatic photogrammetric techniques on ultra-light UAV imagery. https://infoscience.epfl.ch/ record/168806/files/uavg.pdf (visit on 04/07/2019) Lee, Y. J., C. M. Yang, K. W. Chang, and Y. Shen. 2011. Effects of nitrogen status on leaf anatomy, chlorophyll content and canopy reflectance of paddy rice. Bot. Stud. 52:295–303. Lei, T. C., T. Y. Chou, and T. Y. Cheng. 2006. A study of extraction paddy field from QuickBird image. J. Photogramm. Remote Sens. 11:297–310. (in Chinese with English abstract) Lei, T. C., S. Wan, C. Y. Huang, C. Y. Li, and C. H. Ouyang. 2013. Paddy rice objects generating and mapping model using aerial digital image data. J. Photogramm. Remote Sens. 17:95–114. (in Chinese with English abstract) Lillesand, T. M. and R. W. Kiefer. 2000. Remote Sensing. 2020/3/20 下午 12:37:22.

(20) 44. 台灣農業研究 第 69 卷 第 1 期. and Image Interpretation. John Wiley & Sons, New York, NY. 736 pp. Maes, W. H. and K. Steppe. 2019. Perspectives for remote sensing with unmanned aerial vehicles in precision agriculture. Trends Plant Sci. 24:152–164. Näsi, R., E. Honkavaara, P. Lyytikäinen-Saarenmaa, M. Blomqvist, P.Litkey, T. Hakala, N. Viljanen, T. Kantola, T. Tanhuanpää, and M. Holopainen. 2015. Using UAV-based photogrammetry and hyperspectral imaging for mapping bark beetle damage at tree-level. Remote Sens 7:15467–15493. Puig, E., F. Gonzalez, G. Hamilton, and P. Grundy. 2015. Assessment of crop insect damage using unmanned aerial systems: A machine learning approach. p.1420–1426. in: 21st International Congress on Modelling and Simulation (MODSIM2015). November 29–December 4, 2015. Gold Coast, Australia. The Australian Society for Operations Research, Canberra, Australia. Remondino, F. 2011. UAV photogrammetry for mapping and 3D modeling- Current status and future perspectives. Intl. Arch. Photogramm. Remote Sens. Spatial Inf. Sci. XXXVIII-1/C22:25–31. Restas, A. 2015. Drone applications for supporting disaster management. World J. Eng. Technol. 3:316–321. Ruiz, J. J., L. Diaz-Mas, F. Perez, and A. Vigurai. 2013. Evaluating the accuracy of DEM generation algorithms from UAV imagery. Intl. Arch. Photogramm. Remote Sens. Spatial Inf. Sci. XL-1/W2:333–337. Shen. Y., K. W. Chang, Y. J. Lee, C. M. Yang, and J. C. Lo. 2002. Preliminary study of rice yield estimation by remote sensing techniques. p.39–50. in: Knowledge and Technology for Rice Precision Farming System. (Yang, C. M. and C. Y. Lin, eds.) Taiwan Agric. Res. Inst. Spec. Pub. No. 101. Taichung, Taiwan. 221 pp. (in Chinese with English abstract) Strecha, C., T. Tuytelaars, and L. Van Gool. 2003. Dense matching of multiple wide-baseline views. p.1194– 1201. in: Proceeding of 9th IEEE International Conference on Computer Vision. October 13–16, 2003. Nice, France. IEEE Computer Society, Washington, DC. Taichung District Agricultural Research and Extension Station. 2016. The rate of agricultural damage from natural disaster- Objective indicators. Agricultural and Food Agency, Council of Agriculture, Executive Yuan, Taipei, Taiwan. 376 pp. (in Chinese) Tola, E., C. Strecha, and P. Fua. 2012. Efficient largescale multi-view stereo for ultra high-resolution image sets. Mach. Vision Appl. 23:903–920. Tsai, M. L., K. W. Chiang, C. F. Lo, and J. Y. Rau. 2013.. 臺灣農業研究69(1)-03 陳琦玲.indd 44. Directly georeferenced ground feature points with UAV borne photogrammetric platform without ground control. p.1523–1527. in: Proceedings of 2nd International Conference on Engineering and Technology Innovation (ICETI). November 2–6, 2012. Kaohsiung, Taiwan. Appl. Mech. Materials Vols. 284–287. Trans. Tech. Publications Ltd., Zurich, Switzerland. Vega F. A., F. C. Ramírez, M. P. Saiz, F. O. Rosúa. 2015. Multi-temporal imaging using an unmanned aerial vehicle for monitoring a sunflower crop. Biosyst. Eng. 132:19–27. Wan, S., S. H. Chang, and Y. K. Chen. 2016. The study of paddy-rice field image classification by bionics computation. J. Photogramm. Remote Sens. 21:55– 64. (in Chinese with English abstract) Wang, S. Z., C. C. Wu, and Y. Shen. 2007. Application of hyperspectral imager in precision agriculture. Instr. Today 161:22–28. (in Chinese with English abstract) Wu, C. N., K. H. Hsia, W. C. Hsu, T. Y. Liao, T. K. Chen, and C. C. Lau. 2002. Preliminary study on using spaceborne and ground based remotely sensed data for rice growth and yield monitoring. p.19–38. in: Knowledge and Technology for Rice Precision Farming System. (Yang, C. M. and C. Y. Lin, eds.) Taiwan Agric. Res. Inst. Spec. Pub. No. 101. Taichung, Taiwan. 221 pp. (in Chinese with English abstract) Wufeng District Office. 2016. Introduction to Wufeng: Agricultural development. Wufeng Dist. Office, Taichung City Gov., Taichung, Taiwan. https:// www.wufeng.taichung.gov.tw/1212849/post (visit on 04/07/2019) (in Chinese) Yang, C. M. and R. K. Chen. 2007. Differences in growth estimation and yield prediction of rice crop using satellites data simulated from near ground hyperspectral reflectance. J. Photogramm. Remote Sens. 12:93–105. Yang, C. M., C. C. Liu, and Y. W. Wang. 2008. Using Formosat-2 satellite data to estimate leaf area index of rice crop. J. Photogramm. Remote Sens. 13:253– 260. Yang, M. D., K. S. Huang, Y. H. Kuo, H. P. Tsai, and L. M. Lin. 2017. Spatial and spectral hybrid image classification for rice lodging assessment through UAV imagery. Remote Sens. 9:583–602. Yang, M. D. and H. P. Tsai. 2018. The revolution of unmanned aerial vehicle (UAV): Current status and future trend. Mag. Chin. Inst. Civ. Hydraul. Eng. 45:23–29.. 2020/3/20 下午 12:37:22.

(21) 水稻倒伏影像判釋. 45. Rice Lodging Detection Using the Photography from Unmanned Aerial Vehicle (UAV) Chiao-Ying Chou1, Shi-Yang Wu2, and Chi-Ling Chen3,*. Abstract Chou, C. Y., S. Y. Wu, and C. L. Chen. 2020. Rice lodging detection using the photography from unmanned aerial vehicle (UAV). J. Taiwan Agric. Res. 69(1):25–45.. The photography from unmanned aerial vehicles (UAV) provides multispectral images (i.e., red, green, blue, and near-infrared bands) and 3-dimensional points cloud with high-spatial-resolution and covering wide-region. In order to provide the maps for geographic information system (GIS) in assisting the agricultural post-disaster investigation, the goal of this study is to discover the most effective agriculture damage interpretation by using image discrimination technology with the characteristics of vehicle speed, convenience, and accuracy. In this study, image interpretation technologies, including image classification and digital surface model (DSM) classification, will be evaluated on the accuracy of rice lodging detection. Firstly, Pix4D Mapper, the professional photogrammetry and drone mapping software, is used to produce DSM and orthophotographs from the photography of UAV. Secondly, the image supervised classification, normalized difference vegetation index (NDVI) classification, and DSM classification are applied for detection of rice lodging in Wufeng District, Taichung City. The study area was damaged by the extremely torrential rain in a few days during the beginning of June, 2017. As a result, the damage region and the situation of rice lodging can be delineated by UAV orthophotographs. This study, especially on wide-region post-disaster investigation, recommends adoption of the image supervised classification on rice lodging detection, because the rate of accuracy between the disaster rate of estimation by image interpretation and the disaster rate of ground-based surveillance system reached 92.54% (under the baseline of 20% of disaster rate in accordance with the Implementation Rules of Agricultural Natural Disaster Relief). In addition, the accuracy of disaster interpretation can be improved by cooperating with the ground-based surveillance system. In conclusion, the agricultural post-disaster detection and rescue operations will be improved by the cooperation between new technologies and traditional labor-force. The capabilities and potentials from both sides need to be brought in to compensate one’s shortcomings by using the individual strengths. With that, the efficiency and high-quality of damage detection can be achieved at least cost. Key words: Agricultural damage, Image supervised classification, Digital surface model (DSM), Normalized difference vegetation index (NDVI), Disaster aid.. Received: May 14, 2019; Accepted: October 22, 2019. * Corresponding author, e-mail: chiling@tari.gov.tw 1 Postdoctoral Research Fellow, Agricultural Chemistry Division, Taiwan Agricultural Research Institute, Taichung, Taiwan, ROC. 2 Project Assistant, Agricultural Chemistry Division, Taiwan Agricultural Research Institute, Taichung, Taiwan, ROC. 3 Research Fellow, Agricultural Chemistry Division, Taiwan Agricultural Research Institute, Taichung, Taiwan, ROC.. 臺灣農業研究69(1)-03 陳琦玲.indd 45. 2020/3/20 下午 12:37:22.

(22)

參考文獻

相關文件

Access - ICT skills: the technical skills needed to use digital technologies and social media. - Information

Proceedings of the 19th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval pp.298-306.. Automatic Classification Using Supervised

運用 Zuvio IRS 與台日比較文化觀點於日本文化相關課程之教學研究 Applying Zuvio IRS and Perspective on Cultural comparison between Taiwan and Japan to Teaching

Based on the tourism and recreational resources and lodging industry in Taiwan, this paper conducts the correlation analysis on spatial distribution of Taiwan

A digital color image which contains guide-tile and non-guide-tile areas is used as the input of the proposed system.. In RGB model, color images are very sensitive

Mutual information is a good method widely used in image registration, so that we use the mutual information to register images.. Single-threaded program would cost

On the content classification of commercial, we modified a classic model of the vector space to build the classification model of commercial audio, and then identify every kind

C., 2004b, The Market Microstructure and Relative Performance of Taiwan Stock Index Futures a Comparison of the Singapore Exchange and The Taiwan Futures Exchange, Journal of