• 沒有找到結果。

智慧型監控的停車場:人和車的偵測

N/A
N/A
Protected

Academic year: 2021

Share "智慧型監控的停車場:人和車的偵測"

Copied!
12
0
0

加載中.... (立即查看全文)

全文

(1)

智慧型監控的停車場:人和車的偵測

Intelligent Surveillance for Parking Lots: People and

Cars Detection

蔡俊明 臺北市立教育大學資訊科學系 cmtsai@tmue.edu.tw 葉榮木 國立台灣師範大學機電科技學系 zongmu@ntnu.edu.tw 李錫堅 慈濟大學醫學資訊學系 hjlee@mail.tcu.edu.tw

摘要

本文提出一個在智慧型監控的停車場 中偵測人和車的方法。本方法包括快速背 景相減法,移動物件行為分析,以及移動 物件分類。在背景相減法中,無需事先建 立背景模式影像,此背景模式影像會被一 個以費式級數為基礎的快速背景更新法來 更新,此快速背景相減法可以在固定式或 移動式的攝影機下偵測移動物件。在移動 物件行為分析中,提出一個移動分析表, 來記錄移動物件的移動資料,利用這個移 動分析表將移動物件分為五類:停止,移 動,移動變停止,停止變移動以及攝影機 位置改變,利用這五類來決定背景更新的 速度。在移動物件分類中,利用人的膚色, 頭髮,眼睛,嘴唇,以及移動物件的寬高 比等特徵,加上規則式判斷條件,對移動 物件確認是人或車子。經實驗證明,我們 提出的快速背景相減法是有效的,每秒鐘 可以處理 13 張 320x240 的畫面數,比文獻 中的相關研究還要快。尤其是背景更新速 度,更是到目前為止,有關背景更新的研 究中,更新速度最快的,只要 4 個 Frames, 就可以完成背景更新動作。

This paper proposes people and car detection method in intelligent

surveillance for parking lots. This method includes fast background subtraction, motion object behavior analysis, and motion object classification. The background subtraction method need not background model in advance. A Fibonacci Series based background updating is proposed to update the background model. The fast background subtraction is used to detect motion object under the fixed or movable camera. In the motion object behavior analysis stage, a motion analytical table is proposed to record the movable behavior. The motion analytical table is used to divide the motion object into five behaviors: stop, move, move and stop, stop and move, changing the camera position. These five behaviors are used to determine the speed of the background updating. In the motion object classification phase, human's skin, hair, eyes, mouth, and the ratio of the motion object are used to identify the motion object as people or car. The identification method is rule-based. The experiment shows that the fast background subtraction is effective

(2)

which can deal 320x240 frame size with 13 fps. Especially the speed of the background updating is the fastest than other methods. The speed of the background updating only uses 4 Frames.

關鍵詞:背景相減法、費式數列、背景更 新、運動分析表,Background Subtraction, Fibonacci number, background updating, motion analytical table。

一、緒論

現在每一家庭,幾乎都有車子,這些 車子大都停在自家門口、車庫、路邊或停 車場,停在這些地方的車子,很容易招受 小偷偷竊,這樣的新聞常常被報導,如果 能在這些停車場所,裝設智慧型監視系 統,當有可疑人物接近或入侵時,可以發 出警報、通知車主以及加以錄影,避免愛 車被偷走,所以,在停車的場所中,對入 侵者的偵測是非常重要的。 一般攝取影像的方式,可以分為兩 類:第一類是採用固定式攝影機,此類是 將攝影機固定在一個方向或位置來攝取影 像,其監視範圍比較小,例如,將此類攝 影機架設於自家門口、車庫、路邊或停車 場,這種方式取得的影像背景大都是固定 不變,比較容易偵測出移動的物件,但是, 容易受光線的變化而影響背景;第二類是 採用移動式攝影機,此類的攝影機是可以 左右移動,其監視範圍比較大,例如,將 此類攝影機架設於停車的場所,這種方式 取得的影像背景大都是不固定,所以,比 較不容易偵測出移動的物件。在此,我們 主要針對第一類固定式攝影機,在停車場 所中偵測入侵者的研究,也希望所提出的 方法可以延伸到第二類移動式攝影機。 一般移動物件偵測方式,可以分為三 類[1]:第一類是背景相減法(background subtraction)[1][2][3],此類是事先建立 一個背景模型,跟輸入的影像相減,再採 取固定或變動閥值將原始影像二值化,接 著,利用連通成分將物件抽取出來,這種 物件偵測方式,其背景模型有的會隨時更 新,此方法可以得到完整的物件特徵資 料,但是,容易受到亮度和無關的事物影 響 ; 第 二 類 是 相 鄰 影 像 相 減 法 (frame differencing)[1][4][6],此類是將相鄰 兩張或三張影像相減,也是採取固定或變 動閥值取將原始影像二值化,和利用連通 成分將物件抽取出來,此法非常適合於動 態環境,但是,無法得到完整的物件特徵 資料;第三類是光流法(optical flow) [5][6],此演算法,主要是估測向量場 (vector field),此向量場用來描述影像 上面的每一點,在每一時間上,空間上的 移動,並且提供移動分析上重要的資訊, 但是,此法計算量非常大和複雜,若沒有 使用特珠硬體,是無法使用在即時系統上。 在此,我們提出一快速而且有效的背 景相減法,可以在固定式(可以延伸到移 動式)的攝影機下,用來偵測停車場所中 的入侵者。此種方法的優點是容易實作, 系統不需要額外的統計過程,其複雜度 低,系統效能也佳。然而單純的背景消去 在偵測上其效果有限制,僅能大略的取出 物體輪廓;另外,對於環境中有光影或移 動物體,若是利用背景消去法,其結果也 不是很好。因此,有些研究強調建立有效 的背景模型或是背景模型的更新機制,提 供像素點比較時,可以比較準確的取出前 景的物件。要建立有效的背景模型,可以 連續統計數張背景圖片的色彩資訊,用來 建立背景模型,接著,輸入的影像,可以 藉由背景模型的判斷,來決定該像素點 (Pixel)是否屬於背景。因為要監視的場 景,會因為天氣和光線等因素而變化,所 以,背景要隨時更新,更新背景可以更新 先前建立的背景模型,或是利用隱藏式馬 可夫模型或是卡曼濾波器來預測背景的變 化。然而,這些方法為了精確的取出前景 中的移動物件,必須事先蒐集一段不包含 移動物件的影片,而且必須透過較為複雜 的統計方法來統計出背景模型,計算量較 大而且程式複雜度比較高,而且所建立的

(3)

背景模型,當監控的場景改變時,必須重 新訓練和更新,所以,並不適用於各種環 境中。另外一個缺點是,不論是用統計或 是非統計的方法,透過背景模型與前景像 素點的比較,僅能偵測出畫面中「變化」 的區域,而不是真正的「動態」區域,因 為動態區域必會產生變化,但是變化區域 卻不一定有我們想要偵測的移動物件。尤 其是在停車場環境中,背景常會有大幅度 的改變,例如:駛進停車場的車輛,在行 進中必須判斷為動態物件,但是在車輛停 妥一段時間之後,必須將其視為背景的一 部分,另外,前景部分也會有經常性的移 動物體存在。在過去的研究中,大多是將 偵測畫面中的變化,視為移動物件,然而, 在停車場所中,畫面的變化可能來自於車 輛駛離後的車位,因為原本有車子,當車 子離開後,會產生變化,此部分必須要有 其他的機制來達成真正的動態偵測。因 此,如何能夠在維持有效的動態偵測的情 況下,除了能夠正常的偵測畫面變化區域 外,還要能夠判斷出該變化是否來自於真 正移動中的物件,並給予適當的回饋,是 本篇研究的主要動機之一。 圖1.1在停車場中人和車的偵測流程圖。 在偵測到真正的動態物件之後,為了 能夠提供停車管理上更多的協助,我們希 望能夠將偵測到的物件,分類出是人或是 車輛,這是因為人和車輛,是在停車環境 中,出現或移動頻率最高的物件,同時也 是最需要注意的兩個動態物件,透過對人 和車子的分析,將可以幫助管理者,提供 更充足的管理資訊。 為了達到停車場所中移動物件的偵測 與分類,首先,要將視訊畫面中,所有可 能的移動物件,從背景中分離出來,採取 的方式是,將 CCD Camera 所攝取的連續影 像,透過背景相減法及背景更新的技術, 來偵測出前景中移動的物件。在此,我們 主要的研究貢獻是,提出一快速更新背景 的技術來即時更新背景,以及建立一物件 移動分析表,用來紀錄和分析移動物件的 運動狀態,利用這些狀態來更新背景。最 後,利用移動物件的幾何特性和人臉特 徵,將移動物件分類為人或是車子,整個 系統流程圖如圖 1.1 所示,以下章節分別 介紹之。

二、移動物件偵測

在移動物件偵測時,要將視訊中有變 化的物件偵測出來,因為這些視訊中的變 化,有可能是視訊中的物體在移動時所造 成的。因此,必須要有一個比較的影像基 準(背景模式),因為攝影機是固定的位 置,所以,將固定不動的場景定義為背景 (Background),在視訊中會移動的物件 稱為前景(Foreground),透過背景模式 和視訊中每一個影像做比較,將視訊中影 像改變的地方偵測出來。 背景模式的建立,在文獻中,大都是 事先收集僅含有背景的連續影像。然而, 這種背景模式的建立,對於系統而言,一 開始要先做背景模式的訓練,對使用者容 易造成不便,尤其是,每當攝影機改變位 置時,都要重新訓練背景模式,所以,會 降低系統的便利性。在此,提出一種快速 背景更新技術,來解決這樣的問題。我們 採取讓系統自動的建立背景影像,我們的 作法是:在系統開始時,利用視訊中的第 一張影像,做為初始的背景影像,用來和 前景的影像做像素點的比較。但是在視訊 畫面進行的過程中,環境的背景會因為光 線、移動物體的進出以及攝影機位置的改

(4)

變(風、人為或自動),進而造成背景影 像有一些或大幅度的變化,所以,僅使用 視訊影像的第一張畫面,來做為背景影 像,並不能產生有好的偵測結果,因此, 我們接下說明背景模式,如何快速的更新 背景模式。 攝影機拍攝得到的視訊影像是彩色的 RGB 影像,將 RGB 影像空間轉換到 YCbCr 影像空間,利用第一張影像的亮度值 Y 做 為背景模式,與攝影機其他輸入影像做像 素差異值的比較,若是相對應的像素差異 值夠明顯,代表這部分的影像發生了變 化,保留這些發生變化部分,將沒有改變 的部份去除掉。如何判斷相對應的像素差 異值足夠明顯呢?一般做法是採用所謂二 值化(Thresholding)的固定閥值 T,當 差異值大於固定閥值 T 時,設為白色,否 則設為黑色。然而,由於環境中光影的變 化,或是攝影機的鏡頭對於光線較於敏 感,容易產生有雜訊或色差。因此,T 值 的設定良否,會影響移動物件的偵測結 果。一般而言,T 值設定的比較小,偵測 到的移動物件,含有許多雜訊;T 值設定 的比較大,偵測到的移動物件,含有許多 破碎的影像。 在過去的二值化研究中,若是影像中 可以明顯分為兩類的,利用 Otsu[7]方 法,可以得到很好的二值化結果。但是, 移動物件的變化,有時候很明顯,有時候 不是很明顯,尤其是移動物件變化不是很 明顯時,尤其與背景模式影像非常接近, 像素比較的差異值結果不大,Otsu 二值化 的方法就不適用,它會產生許多雜訊。為 了克服這個問題,在文獻[8]中,利用一個 簡單的機制來設定閥值,他們的方法,是 利用光線的變化,進而造成動態偵測的差 異結果,因此,他們先對光線做分析,來 決定該視訊影像所要使用的閥值 T,在文 獻[8]中,其閥值 T 定義為 T =βμ,其中 μ值是視訊影像的平均照度(Luminous), β是常數。然而,視訊影像的亮度值,跟 使用的攝影器材有關,這些攝影硬體在拍 攝視訊時,會進行自動光線校正或是強制 補光的動作。所以,我們修改文獻[8]的方 法,設定閥值為 T =βμ+γ,經過實驗後, 設定β為 0.2,γ為 2.8。 移動物件影像經過閥值 T 的設定,偵 測出來的移動物件影像,仍然存有許多雜 訊和破碎現象。其中雜訊的部份,是由於 光線對於攝影鏡頭的一種干擾,這類雜訊 大都屬於椒鹽雜訊(Pepper and Salt),又 稱為點雜訊,為了克服這些雜訊的干擾, 利用中值濾波器(Median Filter),來過濾 這些孤立的雜訊。 移動物件影像經過中值濾波器去除雜 訊之後,雖然可以濾除掉孤立的點和面積 較小的點。但是由於光影及色差的干擾, 仍然會有破碎的結果產生。利用影像處理 中的形態學運算,可以來解決這樣的問 題。使用擴張運算(Dilation Operation) 來彌補因光影變化所造成的破碎情況,再 利用侵蝕運算(Erosion Operation)將體 積較小的點去除掉以及消去因擴張而造成 的不自然點。上述的處理過程,在形態學 中稱為閉合(Closing)運算,閉合運算可以 使輪廓部分平滑,也能把狹窄的斷開部分 和長細缺口連接起來,消除小洞彌補輪廓 上的缺口。 經過雜訊去除和型態學運算後,我們 僅是在視覺上達到移動物件的萃取,為了 要能得到移動物件實際在視訊影像中的二 維 座 標 位 置 , 我 們 利 用 連 通 成 分 (Connected component)的抽取,將移動 物件的二維座標位置抽取出來。

三、移動物件分析

在停車環境中,本來是停止的車輛, 車主要開車或偷車賊要偷車時,會走到車 子的旁邊,開車門進入車內,然後發動車 子,把車子開走。為了紀錄人、車子以及 停車位的資訊,我們建立一個『移動分析 表』,來記錄移動物件在時間軸上的變動

(5)

情形,利用前景中移動物件的移動速度改 變,可以判定移動物件是在行進中,還是 停止中。假如在停車環境中,車輛或人從 移動中改為靜止時,系統可以立刻判斷出 移動物件靜止而停止對該物體的偵測(在 實際應用場合中,可以在此時錄影,分析 是否為合法車主和車輛,若是不合法,發 出警報並通知停車場管理員),進而進行 前景影像的更新動作,在實際運作上,若 移動物件連續三個畫面的位移值都很低, 會將該移動物件融入背景當中,系統會繼 續偵測其他動態的物件。『移動分析表』 所要記錄的內容包括:(1)物件編號(2) 物件左上方座標(3)物件右下方座標(4) 物件中色彩平均值(5)物件中色彩變異度 (6)位移量(7)移動方向以及(8)狀態。 我們利用『移動分析表』中的左上方和左 下方座標,來計算移動物件的中心點,並 計算中心點周圍的色彩平均值和變異度 (用於判斷在時間軸上,是否為同一個移 動物件),位移量是移動物件在相鄰畫面 的位移量,主要是透過相鄰畫面的中心點 座標來計算,移動方向是記錄移動物件的 移動方向,主要是透過相鄰畫面的 x 軸和 y 軸方向的相減,依照相減的正負號來決 定移動的方向,如圖 3.1 所示,例如,(+, +)表示移動物件往右上方移動,(-,-)表示 往坐下方移動。狀態是用來記錄移動物件 的變化情形:0: 停止,1:移動,2:移動 變停止,3:停止變移動,可以應用於實際 的場合中。

三、背景模式更新

背景更新的方法,為了避免事先蒐集 背景影像的不方便,以及統計式背景模型 的複雜計算,利用系統中預存的背景模式 影像來與輸入的視訊影像畫面進行像素的 比較。在系統一開始時,擷取第一張視訊 影像畫面為預設的背景影像。但是,只用 第一張畫面做為背景,有以下的問題:(1) 沒有辦法達到良好的偵測結果,(2)在實 際的停車場環境中,背景會因為鏡頭雜訊 或是車輛及人員的進出而有所改變,尤其 是車輛的停放,對於背景來說,容易造成 較大的背景改變,雖然這種情形,可以透 過移動物件的『移動分析表』,來判斷移 動物件的變化情形,若狀態是停止,就需 要將該移動物件部分更新至背景當中,才 可以在以後的像素比較中,有比較好的效 果,(3)利用第一個畫面做為背景影像時, 若是第一張畫面就包含有前景的移動物 件,該物件在第二張畫面中離開原本的位 置時,像素比較的結果仍然會判斷出在原 本的位置有明顯的改變而給予標記成前景 物件,為了避免這樣的錯誤偵測,背景模 式影像也必須要持續的更新。(4)若是在 系統執行的過程中攝影機的鏡頭位置改變 或方向,畫面中會因為前景環境與當初預 設的背景模式影像有極大的差異而標記成 前景物件。因此需要背景更新的方法來判 斷這樣的情況並加以解決。因此,在此研 究中,我們提出了快速背景更新的技術, 來解決上述四個問題。 圖3.1移動物件的移動方向表示法。 背景更新的想法,是來自於背景相減 法中的像素比較,在進行背景相減法時, 將背景與前景兩張圖片的對應點的亮度值 相減來計算其差異的程度。在偵測背景 中,也是因為光線或其他因素造成背景有 所變動。因此,也可以利用變動前與變動 後的兩張影像做亮度值的比較。但是在背 景更新時,並不需要設定門檻值判斷其變 化的大小,是直接以亮度值的差異,來決 定如何將變化前的背景模式影像演化成變 化後的背景模式影像。假設此時變化前的 背景模式影像,就是系統一開始載入的第 一張畫面,變化後的背景模式影像則是攝 影機所攝得的連續畫面。假設第一張畫面

(6)

中不包含有前景物件,也假設從第二張畫 面開始背景產生了變化。為了將目前的背 景模式影像演化為變化後的影像,將兩張 圖片對應位置的亮度值相減,判斷出第一 張影像與第二張影像的差異,接著把這差 異值加在第一張影像背景當中,讓第一張 影像背景演化成第二張影像背景。基本的 概念是如此,但是,在攝影機取得的連續 畫面當中,通常包含有移動的物件,若是 在差異比較時,將所有的差異值都加到原 先設定的背景模式影像上,則當移動物件 出現時,背景模式影像會馬上因為差異的 修補,也將移動的物件視為背景的一部 分。如此一來便無法透過前景圖與背景模 式影像的比較,將畫面的變化部分偵測出 來,為了控制這樣的問題,在演化背景模 式影像時,不把所有亮度的差異都加在背 景模式影像上,是設計了一個較小的數值 來適應背景些微的變化,我們提出的背景 更新方法如下列式子所示: ( ) ( ⎩ ⎨ ⎧ < − ≥ + = − × − = + + 0 1 0 1 ) ( ) , ( ) , ( ) , ( ) , ( , min ) , ( PB1 ifx ifx x Sign y x P y x P Sign y x P y x P y x α F B F B ) (3.1) 在上面式子中,PF(x, y)是輸入連續影像 中,單一Frame上座標為(x,y)的亮度值, PB(x, y)是初始背景模式影像上座標為 (x,y)的亮度值,α是背景更新率。以下說 明一下,如何使用α:我們取一個較小的 值α,來跟兩圖中的對應點差值比較後取 最小值,一般狀況下α值會小於亮度的差 異值。若是α值大於差異值也可以,因為 取最小值而限定在一定範圍內。判斷差異 之後將該值乘上一正負號,若是前景影像 的亮度值大於更新前背景模式影像,則乘 上一正號,反之則讓背景模式影像減去與 前景圖的差異。倘若α值偏大,則每次遞 增或遞減的程度就偏大,因此演化的速度 就加快,反之亦然。然而演化的速度以及 範圍需要控制適當,若是給予α一個極大 值造成演化速度過快,則在剛輸入影像 時,初始背景模式影像會立刻演化成該張 輸入的影像,造成無法分離出移動物件的 情況。因此,接下來我們將討論在不同情 況下,如何決定α值的機制和背景畫面更 新的範圍。 在正常的情況下,背景畫面的更新, 只要能適應光線所造成的些微變化,而此 變化有可能產生在背景畫面中的任何地 方,加上也有移動物件存在,因此,我們 只需要一個極小的α更新值,來對整個背 景畫面做更新的動作即可。 對於移動中的物體改變狀態到停止 時,因為在時間軸上位移量的判斷,會偵 測出該物體的運動狀態改變。當偵測到停 止時,除了錄影加以分析與應用外,要對 這些前景以及相對應的背景進行更新,針 對此區域給予較高的背景更新速度α值, 將該區域迅速的演化成背景,這就是在『移 動分析表』中,所謂的『移動到停止』狀 態。 另外一種情況是在『移動分析表』中, 所謂的『停止到移動』狀態,如在系統一 開始載入第一張畫面作為預設的背景模式 影像時,該張畫面已經包含移動中的物 件。在接下來的畫面中,移動物件離開原 處,但是在原處會因為產生變化,而讓系 統誤判為有移動物件。這也是文獻[9]中, 所定義的「鬼影」(Ghost)。為了解決這樣 的問題,當『移動分析表』中的狀態是『停 止到移動』時,也就是在前景分析時,會 判定其位移速度為過低的物件,所以,將 此前景的區域範圍,給予較大的背景更新 速度α值,讓不正確的畫面快速演化到正 確的背景模式影像中。 最後一種情況是,在偵測的過程中, 攝影機的位置改變了,這時,前景輸入的 連續影像與背景模式影像的差異,會突然 間的提高,畫面的大幅度變化也會在像素 點比較時被偵測出來。在一般情況下,利 用第一張畫面做為背景模式影像來偵測畫 面改變,並不會偵測到這麼多的變化點, 所以,當畫面的變化點數量出現異常高值 時,提高整個畫面的更新速度α值至最 高,讓在最短的時間內,將背景模式影像 演化成適合目前環境的背景影像。

(7)

依照上面四種情況的分析,更新速度 α值的大小,取決於不同的更新情況,也 影響了更新的速度。在此我們讓系統能自 動決定α值,依照不同的更新需求應給予 不同的大小。亮度值 0 時為全黑而 255 時 為全白,在一般情況下,背景更新只要適 應光線的變化,又不影響到前景移動物件 的分離,更新速度α值給予一個不為零但 是偏小的數值。對於攝影機位置改變時, 若是每次僅給予背景模式影像遞增或遞減 一個或兩個亮度值,又無法迅速的適應位 置改變後的環境,例如,假設畫面更新需 要從亮度值 0 更新至 255,假若每次只遞 增兩個亮度值,則需要一百二十三個畫面 後,才能完全將背景更新完成。由於更新 速度α值,面對不同的更新需求,會有不 同的改變,在此,我們利用一個遞增級數 來做為α值的取決判斷。為了更新速度α 值決定的效率,一般的等差級數並不適 用,等差值若過小時則需要更多的層級數 才能到達較大的數,等差值若過大則級數 中又可能產生過多較大的數,等比級數的 情況亦然。因此,我們選擇了費氏級數 (Fibonacci Series),作為更新速度α值 的決定依據,費氏級數的產生由之前兩個 級數相加而得,為一特殊的線性遞增級 數,遞增值以特殊的方式增加,非常適合 做為我們決定更新速度α值的依據。系統 在一般情況,視畫面的複雜程度給予小的 費氏級數(Fib(1)或 Fib(2))作為更新速 度α值,在局部更新的階段,更新的速度 要快而範圍較小,給於中等的費氏級數 (Fib(5)到 Fib(7)),並且依照更新面積 大小來決定。最後,當攝影機更改位置時, 要更新的背景範圍大而且速度要夠快,所 以,當畫面中的變化,所偵測到的面積很 大時,給予最大的費氏級數 Fib(9),若是 變化偵測到的面積變小,將更新速度α值 改設為費氏級數 Fib(8)。

四、移動物件分類

最後,將所偵測得到的移動物件,進 行人形與車輛的分類,我們採取的分類特 徵有:(1)寬高比,(2)車牌,(3)頭 髮,(4)眼睛,(5)膚色。使用寬高比 是因為車輛為剛性物體,而且形狀皆為寬 扁的長方形,以及下方都有車牌;而人形 多為直條狀,含有頭髮,眼睛以及膚色。 分類的規則如下:(1)當物件有頭髮或有 眼睛或有膚色時,分類為人,(2)當物件 有車牌時,分類為車子,(3)當物件的寬 高比小於一時,分類為人,(4)當寬高比 大於等於一時,分類為車子。規則使用的 順序如下:先使用規則(1),不成立再使 用規則(2),不成立再使用規則(3), 最後再使用規則(4)。 完成了人車分類之後,接下來利用人 的『移動分析表』,來分析人的行為。對 一般停車習慣而言,在完成停車的動作 後,通常駕駛人或乘客下車後,不會習慣 逗留在停車的環境中。以室內停車場而 言,空氣不流通所造成的悶熱、空氣汙濁 是主要原因。在室外停車環境中雖然沒有 空氣不流通的因素,但是車輛進出頻繁, 以駕駛習慣而言,多半乘客與駕駛人下車 後,皆會盡速離開場地。因此,我們可以 利用此特性,來做為判斷入侵者的第一個 基本行為分析條件。針對先前分類為人形 的移動物件,若是該物件被分類為人形, 且透過『移動分析表』的資訊,若是該物 件在一定範圍內逗留超過一定的時間,則 可能有其他意圖,此時可以加以錄影分 析,並通知管理員處理。範圍的大小則需 要依照停車場的設計以及鏡頭擺放的高 度、角度來決定。因為同樣一台車的範圍 會因為攝影機的角度或高度不同,在畫面 上所呈現出的範圍也不同。若是設定為一 台至兩台車的範圍,則當有入侵者意圖竊 車並觀察同一輛車時,系統可以判斷狀況 發生,進而通知管理人員處理。同時,若 是移動物件判定為人形且停止超過三張畫 面以上,系統不會將其視為背景改變。

五、實驗結果與討論

本文研究的電腦硬體配備為 CPU P4 2.4G/512MB RAM,應用介面是使用 Borland C++ Builder 6 撰寫,實驗影像擷取的攝

(8)

影器材為 Logitech QuickCam Pro,每一 個影片和擷取的影像大小是 320×240。針 對所提出的系統,分別做了以下的實驗: (1)改變攝影機監控方向,(2)偵測室 外車輛駛離車位,(3)偵測室外人車和分 類,(4)偵測室內車庫中的車輛,(5) 偵測室內車庫中的人,(6)與文獻其他方法 比較,以下分別說明之: (一) 改變攝影機監控方向實驗 (a) (b) (c) (d) (e) (f) (g) (h) (i) (j) 此實驗主要來說明,所提出的背景更 新方法是如何快速的做背景更新?,以圖 5.1 來做說明,圖 5.1(a)是改變攝影機監 控方向時,背景相減後的結果,圖中白色 表示偵測到的移動物件,黑色是背景,圖 5.1(b)是其對應的處理視訊圖形以及連通 成 分 。 從 圖 5.1(a),5.1(c), 5.1(e), 5.1(g)到 5.1(i)是系統背景更新的整個 過程。當改變攝影機監控方向時,經過像 素比較的步驟後,大多數的像素點都與背 景模式影像有某種程度的差異,因此在二 值化圖形中為白色,其對應的輸出結果 中,以紅色方框標記(圖 5.1(a)),此時系 統判斷後,將背景更新率α,調整為最高 等級α=55 (= Fib(9))時,僅需要 4 張 Frames 就 可 以 完 成 更 新 的 動 作 , 如 圖 5.1(i)所示,不再有移動物件被偵測到。 完成背景更新後的系統,會將背景更新率 α調回一般情況,相較於文獻[10]中,需 要 60~120 個 Frames 以及文獻[11]中需要 約 20 秒的時間,來完成背景更新,有顯著 的差異效果。 (二) 偵測室外車輛駛離車位的實驗 此實驗主要是對移動物件的狀態—由 停止變移動,以圖 5.2 來說明,本實驗在 室外環境拍攝停車場車輛駛離停車位置的 畫面,配合背景更新及移動物件的『移動 分析表』,可以在車輛離開車位後,對於 原來車子停車的位置,進行更新的動作, 並且標記出移動車子的位置。在圖 5.2(a) 原來車子停放的地方(Frame #84),有車子 要離開,在圖 5.2(b)時(Frame #137)車子 開始倒車,這時馬上被系統偵測出來,到 了圖 5.2(c)時(Frame #197),車子倒車位 移更明顯,一直到圖 5.2(h)時(Frame# 670)整台車,完全駛離停車位,車子原來 所停的位置,系統不會畫出框框,系統會 馬上更新,也會在『移動分析表』中,紀 錄此移動物件的狀態。 圖5.1 攝影機改變位置時背景更新實驗。 (三) 偵測室外人車和分類的實驗

(9)

此實驗主要是對移動物件的狀態—由 移動變停止,並做人與車子分類的實驗, 以圖 5.3 來說明,首先,將攝影機對準一 個空的車位,觀察車輛停車的過程(Frame #29),在 Frame #70 時(圖 5.3(b)),有 一台車子想要停車在所監控的停車位,到 了 Frame #140 時(圖 5.3(c)),車子開 始停進停車位,到了 Frame #284 時(圖 5.3(d)),該車輛已經完全將車子停好,在 這之前,系統都有將此移動的車子,偵測 出來,並在 Frame #290 時(圖 5.3(e))時, 系統將該車子範圍,完全更新到背景當 中,所以,系統不再框出車子,但會在『移 動分析表』中,紀錄此移動物件的狀態。 此時,在 Frame #527 時(圖 5.3(f)),有 另一車輛駛入畫面中,馬上被系統偵測出 來,到了 Frame #544(圖 5.3(g))時,新 進入的車子與剛停妥的車子中,下車的人 同時被偵測到,這時,假若在第一台車子 停好時,沒有背景與前景的更新機制,此 時,又有移動物件進入該範圍,則兩台車 會因為連通成分的關係,會被視為是同一 (a)#29 (b)#70 (c)#140 (d)#284 (e)#68 (f)#527 (g)#544 (h)#723 (i)#927 (j)#1046 (a)#84 (b)#137 (c)#197 (d)#443 (e)#564 (f)#596 (g)#644 (h)#670 圖5.2 偵測室外車輛駛離車位的實驗。 圖5.3 偵測室外人車和分類的實驗,人用 紅色框表示,車子用綠色框表示。

(10)

個移動物件,在圖 5.3(g)中,因為停好的 車輛,已經被當作為背景的一部分,因此, 可以偵測出後面車子的移動,最後,在圖 5.3(h)到圖 5.3(j)中,顯示人的偵測。 (四) 偵測室內車庫中的車輛實驗 此實驗在室內的停車環境中,進行移 動物件的偵測,以圖 5.4 來說明,一開始 在畫面中 Frame #5 時,有一輛休旅車從遠 方行駛過來,在 Frame #16 時,中間車位 也有輛車子要駛離車位,在休旅車經過之 後,可以看到從圖 5.4(e)開始,小轎車慢 慢離開原來車位的畫面,在離開的過程 中,同樣的,利用透過背景與前景的分析 以及『移動分析表』,可以解決車子離開 後,會留下位子改變的問題。 (a)#5 (b)#16 (c)#32 (d)#44 (e)#52 (f)#65 (g)#75 (h)#83 圖5.4 偵測室內車庫中的車輛實驗。 (a)#19 (b)#39 (c)#45 (d)#57 圖5.5 偵測室內車庫中的人實驗。 (五) 偵測室內車庫中的人實驗 此實驗主要是在對人與車子做分類 時,所使用的特徵與規則,是否有效果。 本次實驗,在室內停車環境中,偵測人形, 以圖 5.5 來說明,在此圖中,其中一人位 於離攝影機較遠的地方,由右邊向左邊移 動(圖 5.5(a)),另外一人,則在靠近鏡頭 的地方,由左邊向右邊移動(圖 5.5(c)), 兩人移動到 Frame #57(圖 5.5(d))時,進 行交錯,在分開之後,系統對兩個人形繼 續偵測,一直到兩個人都離開鏡頭為止。 當人比較近時,可以偵測到人類生裡特 徵—頭髮,眼睛,膚色等,所以,就使用 這些生理特徵來確認出是人,當人離鏡頭 比較遠時,人的生理特徵比較偵測不到, 使用寬高比小於一的規則,來確認是人。 同樣地,對於車子,只要能偵測到車牌, 那移動物件便是車子,若是偵測不到車 牌,使用寬高比大於等於一的條件,來確 認車子。 (六) 與文獻其他方法比較 對於整體的系統效能,使用一般的網 路攝影機,來拍攝解析度為 320 x 240 的 輸入視訊,每秒鐘可以處理 13 張畫面數, 與文獻[11][12][13]中的 11 張畫面數相

(11)

比較,有比較高的效能(表 5.1)。另外, 在背景更新的速度上,我們的系統,在 4 張畫面內,就可以將背景演化完成,與文 獻[10]中,採用統計方式,需要 60 到 120 張比較,明顯顯示出,我們提出的背景更 新方法,比其他方法來的快速與有效。最 後,本研究提出的方法,確實可以在不需 要事先搜集背景訓練的情況下,可以快速 與有效的產生背景模式影像。

六、結論

本文提出一個應用於智慧型停車場管 理的偵測人和車子的方法,所使用的方法 包括移動物件偵測,移動物件分析,移動 物件分類。再移動物件偵測中,使用背景 相減法來偵測出移動物件,在移動分析 中,利用移動分析表來分析和紀錄移動物 件的狀態,根據這些不同移動狀態,來改 變背景更新的速度,最後,利用移動物件 幾何特性以及人的身體特徵,將移動物件 分類為人和車子。經實驗結果得知,所提 出的快速背景更新法有效,最快在 4 張 frames 就可以更新,另外,在整體系統效 能中,每秒可以執行 13 張 frames。本系 統只是一個雛形,未來仍有許多工作待完 成:(1)將系統架設於實際停車環境中,(2) 取得更多和更自然的人和車影像來做實驗, (3)加入人臉辨識模組,進行入侵者的偵 測,(4)加入車牌辨識模組,進行停車場的 管理。 表 5.1 整體系統效能表

誌謝

This work was supported by the Ministry of Economic, R.O.C., under Grants MOEA-94-EC-17-A-02-S1-032 and National Science Council, R.O.C., under Grants NSC 94-2213-E-133-001-.

參考文獻

[1] Collins, Lipton, Kanade, Fujiyoshi, Duggins, Tsin, Tolliver, Enomoto, and Hasegawa, “A System for Video

Surveillance and Monitoring: VSAM Final Report,” Technical report

CMU-RI-TR-00-12, Robotics Institute, Carnegie Mellon University, May, 2000.

[2] I. Haritaoglu, Larry S. Davis, and D. Harwood, “W4 who? when? where? what? a real time system for detecting and tracking people,” In FGR98, 1998.

[3] C. Wren, A. Azarbayejani, T. Darrell, and Alex Pentland, “Pfinder: Real-time tracking of the human body,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 19, no. 7, pp780–785, 1997.

[4] C. Anderson, Peter Burt, and G. van der Wal, “Change detection and tracking using pyramid transformation techniques,” in Proceedings of SPIE - Intelligent Robots and Computer Vision, vol. 579, pp 72–78, 1985.

[5] J. Barron, D. Fleet, and S. Beauchemin, “Performance of optical flow techniques,” International Journal of Computer Vision, vol. 12, no. 1, pp42–77, 1994.

[6] Ying-li Tian and Arun Hampapur, “Robust Salient Motion Detection with Complex Background for Real-time Video

Surveillance,” in IEEE Computer Society

T F FR CE CC Video 1 30 390 13 0 100% Video 2 60 765 12.75 7 99.08% Video 3 90 1155 12.83 13 98.87% Gaussian[12] X X 11.25 X X Mixture [11] X X 11* X X Bayesian X X 11 X X

T: Time (sec.), F: Frames, FR: Frame Rate, CE: Classification

(12)

Workshop on Motion and Video Computing, Breckenridge, Colorado, January 5 and 6, 2005.

[7] N. Otsu, “A Thresholding Selection Method from Gray-level Histogram,” IEEE

Transactions System Man Cybernet, vol. 9, pp. 62 – 66, 1979.

[8] Feng-Sheng Chen, Chih-Ming Fu, Chung-Lin Huang , “Hand Gesture Recognition A Real-Time Tracking and Hidden Markov Models”, Image and Vision Computing , vol. 21, no. 8, pp. 745 – 758, March 2003

[9] Rita Cucchiara, Massimo Piccardi and Andrea Prati, “Detecting Moving Objects, Ghost, and Shadows in Video Streams”, IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 25, no. 10, October 2003.

[10] Suchendra M. Bhandarkar and Xingzhi

Luo, “Fast and Robust Background

Updating for Real-time Traffic Surveillance and Monitoring”, IEEE Computer Society Conference on Computer Vision and Pattern Recognition, vol. 3, pp. 55 – 60, June 2005.

[11] Christ Stauffer, W.E.L Grimson, “Adaptive Background Mixture Models for Real-time Tracking”, IEEE Computer Society on Computer Vision and Pattern Recognition, vol. 2, June 1999.

[12] Tiehan Lv, Burak Ozer, Wayne Wolf, “A Real-Time Background Subtraction Method with Camera Motion Compensation”, IEEE International Conference on Multimedia and Expo, vol. 1, pp. 331 – 331, June 2004.

[13] Yaser Sheikh , Mubarak Shah, “Bayesian Object Detection in Dynamic Scenes”, IEEE Compute Society Conference on Computer Vision and Pattern Recognition, vol. 1, pp. 74 – 79, June 2005.

參考文獻

相關文件

Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp... Annealed

• It is a plus if you have background knowledge on computer vision, image processing and computer graphics.. • It is a plus if you have access to digital cameras

• It is a plus if you have background knowledge on computer vision, image processing and computer graphics.. • It is a plus if you have access to digital cameras

Pantic, “Facial action unit detection using probabilistic actively learned support vector machines on tracked facial point data,” IEEE Conference on Computer

Zhang, “A flexible new technique for camera calibration,” IEEE Tran- scations on Pattern Analysis and Machine Intelligence,

二、此研究可偵測出 misfire 產生的正確時間,而 misfire 對引擎所 產生的影響甚鉅,期望提供汽車工程相關的控制,如引擎的 損耗轉換成引擎剎車控制系統 (

C., “Robust and Efficient Algorithm for Optical Flow Computation,” Proceeding of IEEE International Conference on Computer Vision, pp. “Determining Optical Flow.” Artificial

Muraoka, “A Real-time Beat Tracking System for Audio Signals,” in Proceedings of International Computer Music Conference, pp. Goto, “A Predominant-F0 Estimation Method for