• 沒有找到結果。

基於行車影像之危險駕駛偵測系統

N/A
N/A
Protected

Academic year: 2021

Share "基於行車影像之危險駕駛偵測系統"

Copied!
46
0
0

加載中.... (立即查看全文)

全文

(1)

 

資訊科學與工程研究所

 

         

基 於 行 車 影 像 之 危 險 駕 駛 偵 測 系 統

Reckless Driving Detection System using Video Sensor 

     

研 究 生:戴瑋劭

指導教授:簡榮宏 教授

 

中 華 民 國 102 年 8 月

(2)

基於行車影像之危險駕駛偵測系統

Reckless Driving Detection System using Video Sensor 

 

 

 

研  究  生:戴瑋劭      Student:Wei‐Shao Tai 

指導教授:簡榮宏      Advisor:Rong‐Hong Jan 

 

國  立  交  通  大  學 

資  訊  科  學  與  工  程  研  究  所 

碩  士  論  文 

 

A Thesis

Submitted to Institute of Computer Science and Engineering College of Computer Science

National Chiao Tung University in partial Fulfillment of the Requirements

for the Degree of Master

in

Computer Science

July 2013

Hsinchu, Taiwan, Republic of China

 

 

(3)

 

基於行車影像之危險駕駛偵測系統

研究生:戴瑋劭

指導教授:簡榮宏 博士

 

國立交通大學 資訊科學與工程研究所

摘要

隨著無線通訊網路技術的進步,加上電子元件價格漸漸的下降以及行車安

全問題越來越受重視,各國對智慧型交通運輸系統(Intelligent Transport Systems,

ITS)的研究[1-5]。ITS 利用先進的電子、通信、資訊與感測等技術,以整合人、 路、車的管理策略,其主要的目地為提供即時(real-time)的資訊,使有限運輸資源 發揮最大效用的系統,並增進運輸系統的安全、效率及舒適性,同時也減少交通對 環境的衝擊。 本篇論文對目前發展快速的智慧型影像裝置(如行車紀錄器或具有影像擷取 功能的智慧型手機),收集視訊資料,經過影像辨識處理過的各項行車特徵資料 (如車道分隔線、車輛種類、車輛速度與車間距離等)。進而開發一套危險駕駛偵 測系統。

(4)

II

Reckless Driving Detection System

using Video Sensor

Student: Wei-Shao Tai Advisor: Rong-Hong Jan

Institute of Computer Science and Engineering National Chiao Tung University

Abstract

Due to the advances on wireless technologies and the dramatic cost down on electronic components, the development of Intelligent Transportation System (ITS) has drawn intensive attention in recent years.

ITS applies advanced technologies, such as electronic, communication and sensing technologies, to achieve a safe, efficient, and comfort transportation system. It can also reduce the traffic accidents.

In this thesis, we apply an on-broad video device (e.g., driving recorder or smart phone with video component) to collect the traffic information. Then, by pattern recognition techniques, we extract the useful road and traffic features (e.g. Barrier line, vehicle type, vehicle speed and vehicle distance) to develop a Reckless Driving

Detection System. The performance evaluation is also given to show the effectiveness of the proposed system.

(5)

誌謝 

 

在此我要特別感謝指導教授簡榮宏博士,在我的研究生生涯中給予關切的指 導。不論是在課業、研究、計畫以及生涯規劃上老師都給予了不少的引導與關懷。 並且在進行學術研究的過程中提出了不少建議,得以在多次的方法設計與實驗中 完成我的碩士研究。同時,學生也很感謝口試委員交通大學資訊學院王國禎教授、 陳健教授以及工研院資通所鄭安凱博士對本碩士論文不吝給予指正與建議,使本 論文更臻完善。並感謝安凱學長與我不斷的討論改進方法,致使我的碩士研究能 夠更加完善與完整。    在兩年的研究生活中,感謝計算機網路實驗室的學長姐、同學以及學弟們, 在課業與生活上的共同努力、互助與關懷,使我獲益良多。也感謝家人與朋友所 付出的關懷與鼓勵,使我能夠堅持完成研究。在此特別將本文獻給我女友宜靜, 沒有她我沒辦法完成這篇論文。 

(6)

IV

目錄

第一章、  序論 ... 1  1-1  研究動機 ... 1  1-2  系統架構 ... 3  1-3  論文結構 ... 4  第二章、  相關研究 ... 5  2-1  行車影像辨識研究文獻回顧 ... 5  2-2  車輛警示系統研究文獻回顧 ... 8  第三章、  危險駕駛偵測系統... 10  3-1  行車記錄器影像辨識 ... 12  3-1-1  車道辨識 ... 12  3-1-2  辨識區域繪製 ... 13  3-1-3  車輛辨識 ... 14  3-1-4  車速計算 ... 16  3-1-5  車距計算 ... 17  3-2  危險駕駛行爲辨識系系統 ... 19  3-2-1  車輛超速辨識 ... 19  3-2-2  未保持安全車距偵測 ... 21  3-2-3  任意變換車道 ... 22  第四章、  實驗結果與討論 ... 24  4-1 實驗環境 ... 24  4-2 實驗結果 ... 25  4-2-1 未保持安全車距偵測 ... 25  4-2-2 超速偵測 ... 29  4-2-3 車速計算 ... 33  4-3 結果分析 ... 34  4-3-1 實驗結果 ... 34  4-3-2 結果分析 ... 35  第五章、  結論與未來展望 ... 36  5-1 結論 ... 36  5-2 未來展望 ... 36  第六章、  參考文獻 ... 37   

(7)

第一章、 序論

1-1 研究動機

根據國道高公局:100年國道事故檢討分析報告[6]中指出,國道公路事故主 要肇事原因第一位為「駕駛不當」(包括變換車道不當及未注意車前狀態)佔32.4%, 第二位為「未保持行車安全間距」佔23.3%,第三位為「輪胎爆胎」佔9.6%而第 四位「超速」佔5.6%,以上四項佔總肇事原因的七成以上(如圖一所示),而根據

美國國家公路交通安全管理局(National Highway Traffic Safety Administration,

NHTSA)的事故數據也顯示[7],追撞事故占28%為最大比率,其次是偏離車道 佔23%,第三位變換車道造成的碰撞有9%。因此,駕駛人行駛於高速公路路段 時,除了專注於自身駕駛的行車安全外,還必須掌握行駛中的各項交通環境,才 能有效的避免交通事故發生。因此各類型的駕駛輔助系統因應而生,藉由駕駛輔 助系統在緊急狀況時能夠適時的提供警示與輔助功能,達到降低交通事故發生率。 本年度的研究分成兩大項:(A)行車記錄器影像收集與分析(包含前方車輛車速, 位置,車道線與車間距等)與(B)開發危險駕駛車輛偵測系統。

(8)

2 圖一. 歷年肇事原因分析圖 A. 行車記錄器影像收集與分析 由於近年來行車紀錄器逐漸的普及,但行車紀錄器收集到的路況資訊卻沒有 被有效的應用,若能在行車紀錄器加入影像辨識系統,則可有效的辨識出前方車 輛的相關資訊(車輛總類、車速以及車間距)。在本年度的研究中,我們透過行車 記錄器所錄製的影像,分別辨識出行進中車輛所在的車道線架構(Lane Detection)[8]與前方車輛(Vehicle Detection)[9]。經由車輛辨識給予車輛編號後, 即可持續計算車輛的車速及車間距做進一步的應用。 B. 危險駕駛行爲偵測系統 目前的行車警示輔助系統,大多屬於被動式提供資訊,藉由警示訊號或 輔助影像來提供駕駛人所在的行車環境。而本系統為主動式偵測系統,藉由精確 的影像辨識結果分析周遭車輛行為,根據危險駕駛特徵(如超速、惡意逼車、未 未保持行車間距 23% 輪胎爆破或車輪脫 落 10% 超速 6% 駕駛不當 32% 裝載不當 1% 酒後駕車 5% 疲勞駕駛 3% 行人、乘客過失 4% 拋錨未採安全措施 2% 其他 14%

事故比例

(9)

保持安全車距或任意變換車道等)偵測危險駕駛車輛,除了即時警示駕駛人周遭 有危險駕駛車輛,並將該危險駕駛車輛相關資訊上傳至雲端平臺回報並儲存處理, 可提供其他駕駛人更安全的道路行駛環境。

1-2 系統架構

本系統是利用行車紀錄器所錄製的行車影像,即時性的偵測前方車輛的危險 駕駛行為。因此為了達到即時性的反應時間,首先利用影像處理先將三維度的彩 色影像轉為灰階與二值化影像降低計算量,接著根據各類型影像辨識演算法分析 出車道線、前方車輛位置以及車速等資訊。 取得前方車輛資訊後,將會對每輛車給予唯一的編號做持續的追蹤,並將該 車輛資訊顯示於行車畫面左上方,以提供駕駛人相關的安全資訊 經過行車影像的偵測與追蹤後,我們已可以精確的知道前方車輛的駕駛資訊, 藉由危險駕駛包含:未保持安全車距、車速與任意變換車道等三項特徵分析每台 追蹤的車輛駕駛行為。 對於未保持車距部分,安全車距主要是根據自身車輛目前所行駛之車速搭配 公路法所定出,當前方車輛發生緊急煞車或惡意逼車等未保持安全車距行為。 對於超速部分,當系統追蹤到前方車輛後,將會立即計算該車輛車速,當車 速大於所在道路的車速限制時,即表示車輛發生超速事件。 對於任意變換車道部分,當行車紀錄器辨識到前方車輛後,會給予該輛車一 個編號,並追蹤該輛車所行駛的車道。當車輛切換車道後會更新其所在的車道位 置,藉此計算該車輛切換車道之頻率,當切換頻率超過某一門檻值時,即表示該 車輛有蛇行危險駕駛的可能。 藉由以上三項危險駕駛行為分析後,我們可以偵測出前方車輛是否發生危險 駕駛行為,因此駕駛者前方的每台車輛皆會有一個狀態向量(State vector),根據

(10)

4 狀態向量分析車輛是否符合危險駕駛條件。當危險駕駛條件成立時,系統將會立 即發出警示訊號提醒駕駛者,並且標示該危險車輛的車速所在車道以及車距。

1-3 論文結構

本論文的組織架構如下所示: 第二章主要是介紹適用於即時性的行車影像所使用的辨識偵測演算法,相關 文獻並討論他們的做法與優缺點和目前常見的行車輔助、警示系統。 第三章主要是論述本系統危險駕駛偵測系統的方法與流程,首先會介紹我們 用來辨識行車影像的各項演算法,包含:車道辨識、車輛辨識、車距計算與車速 計算演算法。根據辨識結果定義出三項危險駕駛行為,分別為:未保持安全車距、 超速與任意變換車道等。根據即時的影像辨識資訊,我們可以將危險駕駛行為快 速、準確地偵測出。 第四章主要是討論實驗的結果和分析系統效能。 第五章主要是本篇論文的結論與未來本篇論文所提出的偵測系統結合 VANET/3G 網路以無線傳輸方式將經過系統偵測出的危險駕駛車輛相關資訊,上 傳至雲端平台儲存回報處理。

(11)

第二章、 相關研究

本研究含兩大類型『行車影像辨識』與『車輛警示系統』,以下針對這兩大 類相關參考文獻加以介紹。有關行車影像辨識的部分將介紹目前對於即時性的車 輛影像辨識相關的研究,而在車輛警示系統中將會分析各類型的行車警示系統及 其搭配的感測裝置。

2-1 行車影像辨識研究文獻回顧

在行車影像辨識(Driving Detection)相關的研究中,主要辨識的項目可歸納為 下列四大類: 1. 車道辨識(Lane Detection):車道辨識為駕駛影像辨識中最基本的項目。藉由 所截取到的道路影像,經過色彩空間轉換,再利用霍氏轉換(Hough Transform) [10]偵測到道路邊緣,並根據車道邊線追蹤車道,即可辨識並建立出目前行 車環境的車道架構。這類型的研究中,大多集中在探討有了車道邊緣線後, 如何去建立出車道線。相關的演算法主要可分為三類:

 第一類為車道特徵匹配(Lane feature-based matching),主要是利用車道線

特徵(如車道顏色、邊緣變化大、方向性與線段移斜率等)來擷取車道位

置,此方法主要優點為能夠快速偵測到車道線位置,但缺點是影像中車

道線的結構特徵必須完整才易辨識,否則容易造成辨識誤差[11-12]。

 第二類為利用可變車道模型(Deformable lane model)來辨識車道,此方法

(12)

6

建立出車道模型,此方法的可隨著車道彎曲的變化量建立彎曲車道模型,

但缺點為若車道的變化量過大則繪製車道模型不易,且易受到車輛影響

擷取錯誤控制點[12-14]。

 第三類為基於車道模型的辨識方法(Lane model-based detection),此方法

根據車道彎曲度、長度以及斜率建立各類模型參數,再對應至影像中建 立車道線。其優點在於不容易受到前方車輛或是遮蔽物影響,但缺點是 若車道為多彎道車道或複雜車道則不易偵測並建立車道模型[15-20]。 2. 車輛辨識(Vehicle Detection):目前大多數的車輛辨識都只辨識所屬同車道的 車輛,而辨識出的車輛大多利用於防碰撞警示與計算車距。有關車輛辨識與 追蹤演算法可分為下列三類:  

 第一類是基於車輛特徵匹配(Vehicle feature-based matching),車輛在於影

像中都通常都有強烈的邊緣變化量以及明顯的特徵(如車燈、車牌與車底 陰影),利用此特徵進行辨識。此方法的好處在於計算量少,可快速偵測 到車輛特徵。但缺點在於容易受到其他相似物體影響如前方障礙物、交 通號誌與隧道山洞。相關的文獻如[21-24]。  第二類是使用模板匹配(Template matching)方式來辨識車輛,此方法必須 於資料庫中建立各類型車輛影像模組,將影像中出現的物體,利用模組 資訊進行匹配與辨識。此方法的優點為準確度高,若物體匹配成功則可 以確定此物體為車輛,但缺點是若為高解析度影像則必須花大量時間進 行匹配計算[25-27]。

(13)

方首先先定義核心模組(Kernel model)來表示車輛,利用車輛每一特徵點

的位移變化量,運用疊代方式不斷更新車輛位置,直到車輛位置不再變

化為止。此方法若物體移動量不大則能快速追蹤到物體,適用於固定式

的攝影裝置用於辨識追蹤車輛,若用於移動式車輛上的影像擷取,則較

不適用於此法[27-33]。

3. 車距計算(Vehicle Distance Measure):車距計算主要是先藉由影像中車輛特徵

或車體大小辨識出前方車輛,再計算出前方車輛與自身車輛的實際車距,以

下可分為兩類計算方法[34]

 第一類基於寬度的車距預測(Width-based Distance estimation)利用影像中

車輛寬度與實際車輛寬度對應比例計算出前方車輛實際車距,此方法的

好處不易被雜訊影響只要知道前方車寬,即可精確計算出車距,但缺點

為由於同類型車種(如小轎車)的車寬因廠牌不同也有所差異,容易造成

計算誤差[34]。

 第二類基於位置的車距預測(Position-based Distance estimation)根據架設

於車輛的行車紀錄器高度與角度,將三維實際行車畫面轉至二維影像中, 根據辨識出車輛特徵點後,計算影像底部至車輛特徵點的像素量,藉此 計算出前方車輛之車距。此方法的優點在於無須知道物體大小即可計算 前方物體距離,但缺點為容易被雜訊影響[34]。 4. 辨識區域繪製(Region of Interest):車輛警示系統通常要求高即時性的反應, 所以在行車影像辨識中,不僅是將影像經過色彩空間轉換(轉灰階與二值化) 來減少計算量。更進一步是我們將處理的焦點放在有興趣的區域,藉此降低 計算量。如圖二[35]所繪製的辨識區塊(如超車區塊(Overtaking region),前方

(14)
(15)

車輛所行駛的四周環境,通常用於擴大駕駛視野,避免發生駕駛盲點;現行 車輛側方與全周輔助系統包含:盲點偵測警示、後方障礙物偵測警示與全周 影像輔助系統等。 3. 停車輔助:根據裝置於車輛後方的行車紀錄器或雷達角度感測器,擷取與感 測駕駛後方環境距離,協助駕駛人進行停車動作。 4. 車內監視:藉由安裝於車內的攝影機與駕駛人行為辨識模組,根據駕駛人的 行為模式進行分析,例如辨識駕駛人的駕駛行為、疲勞與分心駕駛警示。 表1.車用影像輔助系統[36] 應用範圍 技術 前方輔助 車道偏移警示 前方碰撞警示 行人偵測警示 交通號誌辨識 智慧車燈 立體視覺道路環境偵測 側方與全周輔助 盲點偵測警示 後方障礙物偵測警示 停車輔助 停車輔助 車內監視 疲勞與不專心駕駛輔助

(16)
(17)
(18)

3-1 行車記錄器影像辨識

圖五為行車所截取的影像,我們將利用這影像為例子來說明所開發的系

統如何進行車道辨識、車輛辨識、車速辨識,車距計算與辨識區域繪製等。

圖五. 行車紀錄器擷取影像

3-1-1

車道辨識

在本系統主要使用霍夫線轉換(Hough Line Transform)[15]做車道辨識,霍夫

線轉換是一種在圖像中尋找直線或圓的簡單方法。首先對輸入的影像(圖五)從三

維度(RGB)的彩色影像轉為灰階圖(圖六),接著將灰階圖(圖六)轉成二值圖並做邊

緣檢測(圖七),最後進行霍夫線轉換取得車道線資訊。

(19)
(20)
(21)
(22)

16

3-1-4

車速計算

一般行車時車速可由車輛的車速表獲得,也可利用車上行車導航系統

(Global Positioning System, GPS)來獲取車速,但藉由 GPS 所取得的車速通常會

略低於車速表中的車速,主要是由於 GPS 是以衛星測的移動直線距離,再由導 航機計算出速度,因此會造成些微誤差。本系統提出另一種獲取車速的方法,即 藉由行車紀錄器的影像來計算出車輛目前的速度。 一般而言物體本身的移動速度可藉由其他固定的參考物體於連續影像中出 現的移動量來計算。而利用行車影像計算車輛本身的車速時,主要的挑戰在於如 何從行進中的畫面來尋找可利用的固定參考物體。本系統使用車道線做為參考物 體,藉由連續影像中車道線的移動量來計算本身車輛當時的車速。 本系統是以每秒25個幀(Frame)為處理單位,因此每個幀的間隔秒數為1/25 秒,藉由前一個幀所辨識到的車道線與後一個幀所辨識到的車道線間距,即可算 出目前駕駛人行車車速(如式(1))。 1 2 /0.04 ∗ 3.6 (1) 其中 S : 駕駛人車速(km/h) d1 : 幀1的車道線邊點 p 到車身距離(m) d2 : 幀2的車道線邊點 p 到車身距離(m) 以圖十六、十七為例,若圖十六為幀1所擷取到的車道位置距離為8m,圖十 七為幀2所擷取到的車道位置距離為6.8m,由上述公式即可推算出駕駛人目前車 速為108 km/hr。

(23)
(24)
(25)
(26)
(27)
(28)
(29)
(30)

24

第四章、 實驗結果與討論

4-1 實驗環境

本論文是利用架設於車輛後照鏡下方的行車紀錄器,將車輛行駛於路面的影 像擷取錄製,利用實驗室電腦執行本智慧型危險駕駛偵測系統處理。 本論文實驗所用的行車影像解析度為 1920 1080,並將影像縮放為 1280 720 以加快系統處理速度,影像頻率為每秒 25Frame,鏡頭焦距分別包含 5mm、10mm 與 12mm 等規格。本系統是在實驗室電腦上執行,系統所使用的電 腦配備如表三所示。 表三:電腦配備規格表 電腦配備 處理器 模組 Intel Core i3 速度 2.4G 形式 筆記型電腦 記憶體 2G DDR3 本論文實驗所使用的行車影像以高速公路為主,實驗影像共為 22 筆,其中 兩筆為正常行駛於公路未發生危險行為的影像時間約為 4 至 5 分鐘影片。另外二 十筆以前面章節所定義之危險駕駛行為分類,包含正常行車車距影片五筆、未保 持安全車距影片五筆,正常超車未超速影片五筆與超車並且超速影片五筆作為分 析系統效能。

(31)

4-2 實驗結果

4-2-1 未保持安全車距偵測

未保持安全車距偵測主要是利用,3-1 節中所使用的車速計算與車距計算為 依據,當計算出自身車輛車速後,立即根據公路法規所定義之安全車距繪製出, 前方車輛應保持的車距,當前方車輛進入危險車距範圍(畫面中黃色虛線內),圖 如二十八則前方車輛資訊立即轉為紅色警示,並標示未保持安全車距。以下將介 紹各種未保持安全車距的實例,並且展示偵測成功與偵測失敗的情況。 本系統未保持安全車距偵測成功結果如圖二十九、圖三十與圖三十一所示。 圖二十八為前方白色車輛持續進行惡意逼車行為,造成該車輛未保持安全車距。 圖二十九紅色車輛從右方強行切入,並且未保持安全車距,因此偵測系統立即將 該車輛資訊以紅色警示顯示。圖三十中原本前方車輛保持安全車距(a),但由於 前方發生追撞事件,造成車輛緊急煞車進入危險車距範圍內(b)。圖三十一前方 車輛從右方強行切入,系統偵測到未保持安全車距後立即發發出警示,並且持續 追蹤直到該車輛離開危險車距範圍(d) 本系統未保持安全車距偵測失敗結果如圖三十二與圖三十三所示。圖三十二 偵測錯誤主要原因為系統對於前方車輛位置的辨識誤差,造成該車輛已進入危險 範圍,但系統卻未發出警示訊號。圖三十三為路面標線造成錯誤的車輛辨識,導 致系統誤以為前方有車輛進入危險車距範圍。

(32)
(33)
(34)
(35)
(36)
(37)
(38)
(39)

4-2-3 車速計算

 

接著對於本系統所提出的車速計算方式進行實驗分析。一般行車時車速可由

車輛的車速表獲得,也可利用車上行車導航系統(Global Positioning System, GPS)

來獲取車速,但藉由 GPS 所取得的車速通常會略低於車速表中的車速,主要是 由於 GPS 是以衛星測的移動直線距離,再由導航機計算出速度,因此會造成些 微誤差。本系統提出另一種獲取車速的方法,即藉由行車紀錄器的影像來計算出 車輛目前的速度。 車速計算實驗是以 GPS 所取得的車速與本系統所提出的行車影像計算出的 車速做比較,比較結果如圖三十八與圖三十九所示。 圖三十八. 車速實驗一 圖三十九. 車速實驗二 0 20 40 60 80 100 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 GPS車速 計算車速 0 20 40 60 80 100 120 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 GPS車速 計算車速

(40)

34

4-3 結果分析

4-3-1 實驗結果

根據前面章節的實驗解果,分析未保持安全車距是以 10 個 frame 為一個集 合,當一個集合中 7 個 frame 發生警示訊號,則表示發生未保持安全車距的危險 駕駛行為。分析超速行為是以 5frame 為一個集合,當一個集合中 3 個 frame 發 生警示訊號,則表示發生超速的危險駕駛行為。

危險駕駛行為分析,我們以偽陽(False Positive, FP)與偽陰(False Negative, PN) 為系統效能分析的依據,分析結果如表四所示。 偽陰(False Negative, FN) : 當行車紀錄器影像中前方車輛出現危險駕駛行為,但 系統未偵測出。 偽陽(False Positive, FP) : 當行車紀錄器影像未出現危險駕駛行為,但系統卻發出 危險駕駛警示。 表四.系統偵測結果

Non-Safe Distance Speeding

FN Rate(%) 7.14 6.25

(41)

4-3-2 結果分析

系統結果分析中,未保持安全車距的 FN 主要是由於車輛辨識錯誤導致包含: 車距計算錯誤與車種辨識誤差所造成當前方車輛已進入危險車距範圍,但系統卻 未偵測出來。 未保持安全車距的 PN 主要是由於路面雜訊或路面標線造成辨識錯誤導致 系統誤判前方出現車輛,並且辨識錯誤的車輛進入未保持安全車距範圍內。 超速偵測的 FN 主要是由於車輛車速過快導致系統尚未辨識到車輛,車輛 就已消失於畫面中。 超速偵測的 FP:主要是由於車輛位置辨識錯誤,造成該車輛於兩個幀之間 的相對車速計算產生誤差,導致系統偵測錯誤。 車速計算結果由實驗可以觀察出,本系統所提出藉由行車影像計算目前車 速的方法與 GPS 所取得的車速十分接近。而造成計算誤差主要的原因在於,影 像中的參考物體,車道線標示不清或行車影像中出現雜訊,如擋風玻璃的污漬、 雨刷等。

(42)

36

第五章、

結論與未來展望

5-1 結論

本論文已針對行車紀錄器開發一套智慧型危險駕駛辨識系統,並提出一套以 行車紀錄器影像為基礎的即時性辨識系統,實驗結果已顯示駕駛人所行駛的道路 環境包含車道線、車輛追蹤、車距與車速部分都已能夠正確辨識。 藉由精確的即時辨識資訊設計出一套智慧型危險駕駛辨識系統,根據行車環 境分析前方車輛的駕駛行為是否已符合危險駕駛之等級。 對於前方每輛辨識車輛都給予一組狀態表包含:車速、車距以及切換車道頻 率三項標準,藉由所定義的門檻值進行分析。 在超速距偵測部分,利用影像中前方車輛於兩個幀中的移動量計算出前方車 輛車速,當車速大於所在道路的車速限制時,即表示車輛發生超速事件。 在未保持安全偵測部分,根據車道寬度演算法計算前方車輛車距,當前方車 輛進入危險車距範圍內,系統則即時的顯示警示訊息。 由實驗結果可看出系統對於危險駕駛行為的偵測十分精確。

5-2 未來展望

根據本論文所開發的智慧型危險駕駛辨識系統,不同於一般車輛警示系統, 本系統屬於主動式裝置,將會自動辨識前方車輛行為給予駕駛即時性警示功能, 未來藉由結合 VENET/3G 網路將危險駕駛車輛的駕駛資訊包含:所在路段、車牌 與車速等資訊上傳至雲端儲存並且進行回報處理提升行車安全。

(43)

第六章、

參考文獻

[1]. ITS Taiwan website, [Online]. Available: http://www.its‐taiwan.org.tw/.  [2]. Internet ITS Consortium, [Online]. Available:http://www.internetits.org. 

[3]. C.N.E.  Anagnostopoulos, I.E.  Anagnostopoulos,  V.  Loumos  and  E.  Kayafas, “A  License  Plate‐Recognition  Algorithm  for  Intelligent  Transportation  System  Applications”,  IEEE  Transactions  on  Intelligent  Transportation  Systems,  Vol.  7,  No.3, pp. 377‐392, 2006. 

[4]. Jeffrey  Miller,  “Vehicle‐to‐Vehicle‐to‐Infrastructure  (V2V2I)  Intelligent  Transportation  System  Architecture”,  IEEE  Intelligent  Vehicles  Symposium,  pp.  715‐720, June 2008. 

[5]. P.  Papadimitratos,  A.  La  Fortelle,  K.  Evenssen,  R.  Brignolo  and  S.  Cosenza,  “Vehicular  communication  systems:  Enabling  technologies,  applications,  and  future  outlook  on  intelligent  transportation”,  IEEE  Communications  Magazine,  Vol. 47, No.11, pp. 84‐95, Nov. 2009. 

[6]. 交通部國道高速公路局-交通管理組(2010), 100 年國道事故檢討分析報告  [7]. National Highway Traffic Safety Administration  –  NHTSA  (2011)  Traffic  Safety 

Facts [Online]. Available:http://www.nhtsa.gov/ 

[8]. Yu‐Chi Leng and Chen, Chieh‐Li, ”Vision‐Based Lane Departure Detection System  in urban traffic scenes” , Control Automation Robotics & Vision (ICARCV), 2010 

11th International Conference, pp.1875‐1880,Dec. 2010 

[9]. SamYong  Kim,  Se‐young  Oh , JeongKwan  Kang , YoungWoo  Ryu , Kwangsoo  Kim , Sang‐Cheol Park and KyongHa Park, ”Front and rear vehicle detection and  tracking  in  the  day  and  night  times  using  vision  and  sonar  sensor  fusion”,  Intelligent Robots and Systems, 2005. (IROS 2005). 2005 IEEE/RSJ International 

Conference, pp.2173‐2178, Aug. 2005 

[10]. Opencv  dev  team  (2011)  Hough  Line  Transform  [Online].  Available: 

http://docs.opencv.org/doc/tutorials/imgproc/imgtrans/hough_lines/hough_lin es.html   

(44)

38

[11]. Beucher,  S. and  Bilodeau,  M.  “Road  segmentation  and  obstacle  detection  by  a  fast  watershed  transformation”,  Intelligent  Vehicles  '94  Symposium,  pp.  296  –  301, Oct. 1994 

[12]. McCall, J.C. and Trivedi, M.M., “An integrated robust approach to lane marking  detection  and  lane  tracking”,  IEEE  Intelligent  Vehicles  Symposium  ,PP53‐537,  June 2004 

[13]. Kuo‐Yu  Chiu  and  Sheng‐Fuu  Lin,  “Lane  detection  using  color‐based  segmentation”, IEEE Intelligent Vehicles Symposium, Proceedings., pp. 706‐711,  June 2005 

[14]. Y. Wang, E. K. Teoh and D. Shen, “Lane Detection and Tracking Using B‐Snake,” 

Image and Vision Computing, vol. 22, no. 4, pp. 269‐280, Apr. 2004. 

[15]. Y.  Wang,  D.  Shen  and  E.  K.  Teoh,  “Lane  Detection  Using  Catmull‐Rom  Spline,”. 

IEEE Intelligent Vehicles Symposium, pp. 51‐57, Oct. 1998. 

[16]. Y. Wang, D. Shen and E. K. Teoh, “Lane Detection Using Spline Model,” Pattern 

Recognition Letters, vol. 21, no.8, pp. 677‐689, June 2000. 

[17]. Jung, C.R. and Kelber, C.R., “A robust linear‐parabolic model for lane following”, 

Computer  Graphics  and  Image  Processing,  2004.  Proceedings.  17th  Brazilian  Symposium, pp.72‐79 ,Oct. 2004 

[18]. Q.  Li,  N.  Zheng  and  H.  Cheng  “Springrobot:  A  Prototype  Autonomous  Vehicle  and  Its  Algorithm  for  Lane  Detection,”  IEEE  Trans.  Intelligent  Transportation 

Systems, vol. 5, no. 4, pp. 300‐308, Dec. 2004. 

[19]. J.  W.  Lee,  “A  Machine  Vision  System  for  Lane‐Departure  Detection,”  Computer 

Vision and Image Understanding, vol. 86, no. 1, pp. 52‐78, Apr. 2002. 

[20]. J.  W.  Lee,  U.  K.  Yi  and  K.  R.  Baek,  “A  Cumulative  Distribution  Function  of  Edge  Direction for Road‐Lane Detection,” IEICE, vol. E84‐D, no. 9, pp. 1206‐1216, Sep.  2001.  [21]. J. W. Park, J. W. Lee and K. Y. Jhang, “A Lane‐Curve Detection Based on An LCF,”  Pattern Recognition Letters, vol. 24, no. 14, pp. 2301‐2313, Oct. 2003.  [22]. A. Watanabe and M. Nishida, “Lane Detection for A Steering Assistance System,”.  IEEE Intelligent Vehicles Symposium, pp. 159‐164, June2005. 

(45)

Perception  of  Obstacles  and  Vehicles  for  Platooning,”  IEEE  Trans.  Intelligent 

Transportation Systems, vol. 1, no. 3, pp. 164‐176, Sep. 2000. 

[24]. A. Broggi, P. Cerri and P. C. Antonello, “Multi‐Resolution Vehicle Detection Using  Artificial Vision,”. IEEE Intelligent Vehicles Symposium, pp. 310‐314, June 2004.  [25]. J. V. Leuven, M. B. V. Leeuwen and F. C. A. Groen, “Real‐Time Vehicle Tracking in 

Image  Sequences,”.  IEEE  Conf.  Instrumentation  and  Measurement  Technology,  vol. 3, pp. 2049‐2054, May 2001. 

[26]. A. W. K. So, K. Y. K. Wong, R. H. Y. Chung and F. Y. L. Chin, “Shadow Detection for  Vehicles  by  Locating  The  Object‐Shadow  Boundary,”.  IASTED  Int'l  Conf.  Signal 

and Image Processing, pp. 315‐319, Aug. 2005. 

[27]. H.  T.  Nguyen  and  A.  W.  M.  Smeulders,  “Fast  Occluded  Object  Tracking  by  A  Robust Appearance Filter,” IEEE Trans. Pattern Analysis and Machine Intelligence,  vol. 26, no. 8, pp. 1099‐1104, Aug. 2004. 

[28]. H. T. Nguyen, M. Worring and R. V. D. Boomgaard, “Occlusion Robust Adaptive  Template  Tracking,”.  IEEE  Int'l  Conf.  Computer  Vision,  vol.  1,  pp.  678‐683,  July  2001. 

[29]. G.  D.  Hager  and  P.  N.  Belhumeur,  “Efficient  Region  Tracking  with  Parametric  Models  of  Geometry  and  Illumination,”  IEEE  Trans.  Pattern  Analysis  and 

Machine Intelligence, vol. 20, no. 10, pp. 1025‐1039, Oct. 1998. 

[30]. C.  Yang,  R.  Duraiswami  and  L.  Davis,  “Efficient  Mean‐Shift  Tracking  via  A  New  Similarity Measure,”. IEEE Computer Society Conf. Computer Vision and Pattern 

Recognition, vol. 1, pp. 176‐183, June 2005. 

[31]. C.  Yang,  R.  Duraiswami,  A.  Elgammal  and  L.  Davis,  “Real‐Time  Kernel‐Based  Tracking  in  Joint  Feature‐Spatial  Spaces,”  Technical  Report  CS‐TR‐4567,  University of Maryland, 2004. 

[32]. K. She, G. Bebis, H. Gu and R. Miller, “Vehicle Tracking Using On‐Line Fusion of  Color  and  Shape  Features,”.  IEEE  Int'l  Conf.  Intelligent  Transportation  Systems,  2004. 

[33]. D.  Comaniciu,  V.  Ramesh  and  P.  Meer,  “Kernel‐Based  Object  Tracking,”  D.  Comaniciu,  V.  Ramesh  and  P.  Meer,  “Kernel‐Based  Object  Tracking,”  564‐577,  May 2003. 

(46)

40

[34]. J.  G.  Allen,  R.  Y.  D.  Xu  and  J.  S.  Jin,  “Mean  Shift  Object  Tracking  for  A  SIMD  Computer,”. IEEE Int'l Conf. Information Technology and Applications, vol. 1, pp.  692‐697, July 2005. 

[35]. R.  T.  Collins,  “Mean‐Shift  Blob  Tracking  through  Scale  Space,”.  IEEE  Computer 

Society Conf. Computer Vision and Pattern Recognition, vol. 2, pp. 234‐240, June 

2003. 

[36]. Giseok Kim and Jae‐Soo Cho, “Vision‐based Vehicle Detection and Inter‐Vehicle  Distance  Estimation”    International  Conference  on  Control,  Automation  and 

參考文獻

相關文件

This paper formulates the above situation to the Multi-temperature Refrigerated Container Vehicle Routing Problem (MRCVRP), and proposes a two-stage heuristic which consists of

Abstract: This paper presents a meta-heuristic, which is based on the Threshold Accepting combined with modified Nearest Neighbor and Exchange procedures, to solve the Vehicle

(6) Matlab vehicle equation of motion program development (7) Pitch and yaw channels’ tracking-loop bandwidth

Jones, "Rapid Object Detection Using a Boosted Cascade of Simple Features," IEEE Computer Society Conference on Computer Vision and Pattern Recognition,

Clay Collier, “In-Vehicle Route Guidance Systems Using Map-Matched Dead Reckoning", Position Location and Navigation Symposium, IEEE 1990, 'The 1990's - A Decade of Excellence in the

keywords: Incident Detection, California algorithm, Automatic vehicle identification (AVI), Paramics, long road tunnel, Beacon... 誌 誌 誌 誌 謝 謝

ACO-GA Approach to Solve Vehicle Routing Problems,”. DOM Working Paper 08/2001, University of

Vibration and noise plays a vital role in vehicle industry, anti- vibration engineer has become the most powerful weapon to decide to win or to lose in the vehicle market..