• 沒有找到結果。

中 華 大 學

N/A
N/A
Protected

Academic year: 2022

Share "中 華 大 學"

Copied!
59
0
0

全文

(1)

中 華 大 學 碩 士 論 文

題目:結合電腦視覺與感測網路之事件偵測系統

Vision-Based Object Detection with Sensor Network for Event Identification

系 所 別:資訊工程學系碩士班 學號姓名:M09402053 石家銘 指導教授:連振昌 博士

中華民國九十七年 二 月

(2)

Abstract

In general, large amount of cameras are demanded to surveil a large building or area but this may introduces a high data transmission rate and computation cost. The reason why a high data transmission rate is required is that no matter what a event occurs the video bit stream form the cameras are transmitted continuously. In this study, a location-aware system using the sensor network is developed and then cooperated with the vision-based surveillance system to construct a new sensor-based surveillance system. When the location-aware system detects an event, then the object detection scheme is performed in the video surveillance system. Otherwise, only the background updating process works such that the high data transmission rate can be reduced. By extracting the features from the multi-sensor data within a sliding window, the location-aware system uses the SVM classifier to detect the various kinds of events. The experimental results show that the accuracy of event detection may achieve 99.34% for the proposed system.

(3)

摘要

目前於大型區域安全監控上,隨著監控範圍愈大,所需的攝影機數量跟著增 加。整個系統在處理與傳輸影像的負擔也大幅的提升,如何有效解決系統負擔已 是目前大型區域安全監控上急需解決的重要課題。本研究朝著一個新的思考方 向,嘗試使用日趨成熟的感測網路來幫忙解決大型區域安全監控所遇到的問題。

於大型區域中,關鍵區域、重要通道及出入口除了架設攝影機外,放置感測器作 為位置感知系統(Location-Aware System)。位置感知系統使用滑動窗口(Slide Window)的觀念,以半秒為一個窗口,從半秒中各種感測資料的變化情況找出代 表各類事件的特徵。並以其標準差作正規化來提高鑑別度,經由 SVM 訓練建造 出一個分類器,對未來資料每秒作八次分類判斷,實驗分類正確率約 99.34%。

將位置感知系統結合攝影機監控,當位置感知系統感測到有事件發生時才去做前 景偵測;未有事件發生時僅做背景更新,以提高背景更新之可靠度。不需透過複 雜的運算就可有效提升前景偵測的正確率。與一般大型區域安全監控相比,大幅 降低系統在處理與傳輸影像上的負擔。本研究使用的視訊偵測系統實際搭配感測 器應用後,可提升無事件發生時系統的處理速率。

(4)

誌謝

很幸運的能夠有機會在中華大學資訊工程學系碩士班中求學,度過值得回憶 的兩年半研究生活並順利取得到碩士學位。在這之中,首先我要感謝我的指導教 授 連振昌老師在這兩年半的時間裡不僅在專業知識上對我的幫助與教導,在人 生的態度以及做人處世的道理上更使我獲益良多。這兩年半來在連老師細心的栽 培下,才得以順利完成研究所的學業。

其次,我要感謝智慧型多媒體實驗室中許許多多朝夕相處的夥伴們,尤其感 謝致傑、仲平、士棻、嘉宏、志強、郁婷、忠茂、炳佑和揚凱學長在論文研究上 給予的莫大指導和幫助,靈逸、建程、清乾、正達和昭偉同學間相互的支持與照 顧,以及雅麟、佐民、銘輝、岳珉、懷三、偉欣、怡婷、筱萱、明修和正倫學弟 的協助和陪伴,使得我這兩年半的研究生生活得以過的多彩多姿。

最後,感謝父母家人無時無刻對我的叮嚀與照顧,以及之筠、雅慧、文良、

逸群、昌榮和系壘眾多的朋友支持與關心,使得我能如期完成我的碩士論文。

(5)

目錄

第一章 序 論...........................1 1.1 研究動機..........................1 1.2 相關研究..........................2 1.3 系統流程..........................6 1.4 論文架構..........................9 第二章 感測網路..........................10 2.1 無線感測器簡介.......................10 2.2 封包格式..........................13 第三章 感測器訊號之特徵擷取....................16 3.1 各事件變化圖........................16 3.2 特徵擷取..........................23 第四章 位置感知系統........................29 4.1 Support Vector Machine....................29 4.1.1 基本觀念.......................29 4.1.2 基本原理.......................29 4.1.3 核函數........................31 4.2 SVM 訓練.........................33 第五章 物件偵測..........................34 5.1 背景機率模型建立......................34 5.2 空間高斯分佈模型......................35 5.3 空間-時間統計模型 .....................36 5.4 背景機率模型更新......................37 第六章 實驗結果..........................39 6.1 感測器設置.........................39 6.2 特徵擷取..........................40 6.3 SVM 訓練 .........................43 6.4 事件偵測..........................44 6.4.1 未有事件情況.....................44 6.4.2 開門事件情況.....................45 6.4.3 開窗事件情況.....................46 6.4.4 經過事件情況.....................48 第七章 結論與未來工作.......................50 7.1 結論............................50 7.2 未來工作..........................50 參考文獻..............................52

(6)

第一章 序 論

1.1 研究動機

建構安全環境為近年來視訊監控上重要的研究題目。發展至今,視訊處理技 術不斷精進,由靠人力監控攝影機畫面的簡易監控系統發展至智慧型安全監控系 統。系統本身能自動偵測事件,大幅降低人力上的負擔。另外也由單攝影機系統 發展至多攝影機系統,進而解決監控死角與大區域監控時,單攝影機常遇到可視 區域被遮蔽的問題。雖然近年來已有諸多改良,於大型區域安全監控上仍有瓶頸 存在,隨著監控的範圍擴大,所需的攝影機數量增加後,整個系統在處理與傳輸 影像上的負擔也大幅的提升,如何有效解決系統負擔已是目前大型區域安全監控 上急需解決的重要課題。

鑒於現今功能日趨成熟的感測網路(Sensor Network)[1],可供研究者執行各 項創新的研究工作。本研究朝著一個新的思考方向,嘗試使用感測器來幫忙解決 大型區域安全監控所遇到的問題。於大型區域中,關鍵區域、重要通道及出入口 除了架設攝影機外,放置感測器作為位置感知系統(Location-aware system),透過 感測器提供的感測資訊來輔助攝影機進行物體偵測。本研究所採取的方式是當感 測器感測到物體經過或是有開關門窗事件時才做前景偵測;未有事件發生時僅做 背景更新,以提高背景更新之可靠度。不需透過複雜的運算就可有效提升前景偵 測的正確率。與一般大型區域安全監控相比,大幅降低系統在處理與傳輸影像上 的負擔。

(7)

1.2 相關研究

這幾年來關於感測網路方面的研究,大部分集中在如何避免電力浪費來延長 感測器壽命[2],或是更有效的進行路由選擇(Routing)或資料收集[3]。對於感測 網路來說,亦可結合其他已成熟的技術,如影像技術等,來節省開發成本或提升 工作效率[4]。如[4]所言,從大量分布之感測網路資料分析得知到相鄰的感測資 料之間具有高度關聯性,此特色如同影像各個相鄰像素之間的關係。正因觀察到 這個特性,作者使用四分樹分割(Quad-tree Decomposition)技術來對大量的感測資 料做區域分解(spatial decomposition)或分群之用。顯示很多現今已成熟的影像處 理技術,像是壓縮、目標追蹤,可應用於處理大量的感測網路資料上。

而本研究著重在感測網路於視訊監控方面的應用。目前相關的研究可以分為 兩大類:第一類是將攝影機作為感測器所構成新型態的無線視訊感測網路 WVSN(Wireless Video Sensor Network) [5][6][7];另一種是將無線感測網路以附 加的方式,結合發展成熟的視訊監控系統[8][9]。本研究採用的方法就是屬於這 類。

關於無線視訊感測網路這類相關的研究。文獻[5]分析,一般感測網路所使 用的感測器價格便宜、功能簡單且能源消耗少。但缺點也因為其所能提供的感測 資料過於簡單,功能有限;相反的,以攝影機作為感測器(Video based)來構成所 謂的視訊感測網路,則可提供豐富的視訊資料來滿足使用者更多元的需求。但相 對的,會有能量消耗大、價格昂貴,以及如何傳輸龐大資料量的問題。現今的視 訊攝影機都是朝向提高視訊品質與強化硬體機能的方向發展,與一般感測網路的 基本概念大相逕庭。對視訊感測網路而言,如何降低視訊感測器(Video Sensor) 的工作量為一大課題。文獻[5]主要是針對這點提出了簡單的改良方法,從感測

(8)

Pm

P1 P2

器關聯性(Sensor correlation)來有效減少視訊感測器(即攝影機)在網路傳輸上的 負擔。例如在同場景的雙攝影機偵測到同一目標物時,由於可視區域有重疊。作 法是將重疊區域中所需的影像經過關聯性(Correlation)運算,平均分配算出雙攝 影機各自要傳送的目標物影像部分,傳至伺服器(Server)端合成一個完整的目標 物影像。如圖1.1 所示,雙攝影機P1和P2各自拍攝的影像中,P1負責傳送所需A1Am

的影像,P2負責傳送所需AmA2的影像,最後於伺服器端合成一個假設攝影機Pm拍 攝到的完整影像。因為除去了不需要的影像部分,只需傳送各自負責的目標物部 分影像,將有效的減少工作量。缺點是當雙攝影機之間拍攝角度過大時,合成出 來的影像品質不甚理想,以及當雙攝影機位置不是在同一個水平面時,2 維的關 聯性較難計算。

圖1.1 文獻[5]中(a)整體關聯性示意圖(b)Pm影像融合示意圖

正如同[6]所分析,無線視訊感測網路與傳統無線感測網路在資源利用及效 能上有很大不同。主要理由在於傳統無線感測網路中,感測節點的功能簡單,感 測器用在資料運算的能量消耗小。然而在 WVSN 中,視訊運算跟壓縮功能結合

Am A2

A1

L1 Lm

A1

Rm R2

Am A2

(a) (b)

M M

(9)

在感測節點上,因此視訊感測節點(Video based Sensor node)的能量消耗情況跟如 何最佳化其覆蓋率與運作效能[7]也是課題之一,像是硬體支援跟網路方面都算 是未來重要的研究領域,勢必有一堆問題等待克服,目前相關的技術發展不夠成 熟,可行性相當低。

而第二類相關的研究,以文獻[8]來說,作者提出了結合被動式紅外線感測 器(PIR Sensor)來輔助視訊監控。整個系統主體是個多攝影機系統,並在監控區 域設置多個PIR Sensor,用來改善各個攝影機在監控及追蹤方面的成效。在攝影 機監控部份,用來偵測物件的方法為最簡單的背景相減法。由於背景相減法容易 受到光線變化影響,產生雜訊而誤判為前景目標物。所以作者利用 PIR Sensor 的訊號來輔助攝影機,確認是否真的有人經過,還是光線變化時產生的雜訊,抑 或是之前有人開門後未關上,而導致跟背景模型不同所產生的前景。可作為判斷 目標物正確性的依據,並可輔助背景更新之用。另外當有人走進遮蔽場景中,也 可利用PIR Sensor 來檢查此人行動的方向有否改變,提高當人走出遮蔽物後標記 的正確性。相較於目前發展的視訊感測網路(Video based Sensor Network),這種 利用各式各樣功能的感測器來輔助視訊監控,相對來說是目前比較可行的方式。

文獻[9]則是透過 Line-of-Sight Sensor(LoS 感測器)來輔助室內區域監控。

Line-of-Sight Sensor 配置方式是在室內封閉的區域中,於牆邊安裝光源發射器與 光源感測器,經由各個光源發射器發射光源給各個光源感測器接收,一堆光源線 構成的光源網為其感測區域。倘若有人遮到光源網中某幾條光源線,就可從遮到 哪幾條線來換算出此人的位置。在大區域的室內監控上,當房間或走道有很多行 人移動時,經由LoS 感測網路作定位任務(Location task),提供給攝影機迅速及 有效的偵測與定位,而攝影機系統主要在處理辨識任務(Identification task)之用。

(10)

未使用LoS 感測器時,監控系統勢必會花費大量的資源與時間在偵測與定位上。

且單以攝影機來偵測,位於攝影機可視區域內,近的人容易遮蔽到遠的人,也易 受到光線影響偵測正確性;加入LoS 感測器後,因 LoS 感測器廣佈在房間周圍,

光源線所構成的感測區域,可有效改善可視區域被遮蔽的問題,且偵測時不會受 到背景光線變化的影響。

本論文所提出的方法與上述第二類相關研究做個比較。文獻[8]中,PIR Sensor 主要是偵測熱能變化,最怕萬一體溫與週遭環境溫度差異不大時會喪失感 測能力。只使用PIR Sensor 容易遇到死角;相反的,我們的系統使用多種感測元 件搭配,可有效避免遇到單一種感測元件的弱點,增加判斷的正確性。且文獻[8]

中,其PIR Sensor 感測週期為兩秒一次,每兩秒才能做一次判斷。對於即時監控 來說反應速度太慢,難以實際運用;我們的感測器每秒可傳八筆封包,系統每 0.125 秒就可做一次判斷,完全符合即時監控的需求。而文獻[9]提出的 LoS 感測 網路架構概念,實用性不佳。只適用於非常大區域的空曠室內場所使用,當有太 多的遮蔽物在其中,勢必會破壞其感測區域。並且需要數量相當龐大的感測器,

來避免光源網之中,線與線之間構成的空隙過大,確保偵測的正確性。此外勢必 還需消耗不少能源來維持光源線構成的光源網,難以實際應用;而我們的系統不 但實作於實際即時監控可行,也可依照需要來彈性應用,可使用於門窗以及特定 區域,用來偵測監控入侵行為。

另外文獻[10]提出了個有趣的想法,因為現行的感測網路幾乎是單層配置 的,作者分析未來感測器應用將朝向多層邁進,單層的系統通常只能滿足低成 本、高覆蓋、功能性強及高可靠度這些優點其中的一部份,而多層系統卻能兼顧 各種優點,作者設計一套多層攝影機感測網路(Camera Sensor Network),並在系

(11)

統上實現了物體偵測識別及追蹤的功能,證明其可行性。

在視訊監控的發展上,傳統透過人力來監控攝影機畫面。以社區安全監控來 說,一個警衛必須同時監看數十個監控畫面,難保長時間不出錯。加上有事件發 生時,對各個攝影機畫面調閱查看,所費的時間將減低對緊急事件的應變能力。

而後發展的智慧型安全監控系統目的就是在於解決上述問題,使系統本身能自動 反應事件,大幅減低人力上的負擔。另外也由單攝影機系統發展至多攝影機系 統,進而解決監控死角,以及單攝影機可視區域遮蔽的問題。而隨著視訊技術的 快 速 成 長 , 視 訊 技 術 上 亦 有 多 種 技 術 可 供 使 用 。 背 景 相 減 法(background subtraction)[11]技術簡單容易使用,但缺點為容易受到環境的雜訊干擾,尤其易 受到光線變化影響且須先建立背景模型;而光流法(optical flow)[12]是透過複雜 的運算來求出連續畫面的光流量變化,但此技術需要龐大的計算量及資源,不適 合用在即時監控上。故我們使用文獻[13]所提出較完美的空間時間機率模型方法 來偵測目標物。

1.3 系統流程

圖1.2 為本系統的流程圖。透過 MTS310 感測板上面的數種感測元件將感測 到的資料傳給智慧感測器節點(Mote),燒在智慧感測器節點上的程式會將資料依 我們設計的格式壓成封包。每 0.125 秒傳送一筆封包,經由無線傳輸至 MIB510 板上。我們可以透過 RS232 埠在電腦上讀取到這些封包,並對這些封包進行解 碼,來得到我們所需的感測資料。再從各類感測資料擷取出我們所需要的特徵,

用來訓練支持向量機(SVM)分類器。最後將訓練好的 SVM 分類器來對真實情況 下接收到的資料進行分類判斷,並將判斷結果用來輔助攝影機偵測物體或背景更 新之用。

(12)

擷取感測資料

封包解析 經51 Pin腳

接收所有封包

經由RS232埠 MIB510

PC

感測訊號之 特徵擷取

SVM訓練 訓練完成的

SVM分類器

分類判斷

事件偵測

訓練階段 辨識階段

感測器偵測到事件

攝影機端 進行背景更新 攝影機端

進行物體偵測

感測器未偵測到事件 將感測資料壓成

特定封包格式

經無線傳輸

M310 擷取感測資料 擷取感測資料

經51 Pin腳 經51 Pin腳

將感測資料壓成 特定封包格式

將感測資料壓成 特定封包格式

經無線傳輸 經無線傳輸

……

感測節點 1 感測節點 2 感測節點 N

圖1.2 系統流程圖

圖1.3 為系統配置圖。整個實驗環境架設在實驗室中,實驗設計分為三類,

監控門窗出入以及特定區域進出。門與窗戶上各有一顆感測器負責偵測開關門窗 的事件,假設右下側的區域為特定監控區,在出入口也有一顆感測器用來偵測有 物體經過事件。經由伺服器端判斷出分類結果,輔助各自的攝影機於偵測物體與 更新背景之用。

(13)

H

C

C

C

H

H 感測器

感測器

感測器 伺服器

H

圖1.3 系統配置圖

(14)

1.4 論文架構

本論文架構分為七個章節討論,第一章將談及本論文研究的動機與目的,及 相關之研究發展情況,最後對整個流程做個簡單的敘述;第二章對我們所使用的 無線感測網路及感測封包做個介紹;第三章說明特徵擷取的方法;第四章將討論 位置感知系統,介紹支持向量機(SVM)原理以及 SVM 訓練的方式;第五章介紹 所使用的物體偵測技術;第六章則是把整個實驗及實驗結果做個全面性的敘述;

最後一章為本論文研究所得的結論及未來方向。

(15)

第二章 感測網路

第二章介紹我們所使用的無線感測網路,包括其構成的硬體部分、感測形式 和運作方式,並舉例說明。

2.1 無線感測器簡介

Crossbow 公司是全球第一家提供 Smart Dust 無線感測器的公司。此公司提 供了一系列感測器和相關硬體,其中大部分的產品都可隨插即用。我們所使用的 感測網路組件就是由其所製造發行的,其硬體產品皆支援了TinyOS[14]嵌入式作 業系統。TinyOS 是加州柏克萊大學專為嵌入式系統開發的微型作業系統,提供 了元件庫,包含網路協定、分散式服務、感測器驅動以及資料擷取工具等。鑒於 其佔用的記憶體低於 4Kbytes 以及開放原始碼,TinyOS 廣受感測器網路開發人 員歡迎,並經過不斷修正改進後,2.0 新版本的功能與支援更加全面。

我們採用的實驗平台是MOTE-KIT 5040 系列。本研究主要是使用其中三個 主要的硬體配件:MIB510 編程介面板(圖 2.1a 所示)、MICA2 智慧感測器節點(圖 2.1b 所示)和 MTS310 感測板(圖 2.1c 所示)。

MIB510 編程介面板能夠支援 MICAz、MICA2、MICA 和 MICA2DOT 系列 產品,並提供有電源接口可以從外部電源取得電力支援,及 RS232 串列埠用來 與電腦溝通或重新編程智慧感測器節點之用。

由於MICA2 採用了 Atmel Atmega 128L 這一款微控制器,該控制器會從其本身 的記憶體中運行 TinyOS。開發人員可以利用 MIB510 編程介面板來對其進行開 發。MOTE-KIT5040 共提供了三塊感測板(MTS310CA),將這些感測板透過 51-

(16)

腳的介面連到 MICA2 上。任何一個 MICA2 無線節點都可以配置成感測節點來 進行工作,MIB510 板可將從無線感測網路取得的資料彙集到電腦上。

(a)

(b) (c)

圖2.1 (a)MIB510實體圖 (b)MICA2實體圖(無天線) (c)MTS310CA實體圖[15]

如上所述,MTS310CA 感測板具有多種感測形式,像是光源、溫度、加速 度和磁力計等。其中光源感測器是由一個簡單的 CdSe 光電池構成;熱敏電阻 (Panasonic ERT-J1VR103J)裝配在一個簡單的電壓迴路上,用來偵測溫度;加速 度計為一個 MEMS(Micro-Electro-Mechanical-Systems 微機電系統)介面設備,具 有測量兩軸加速度及振動的能力;磁力計為一個矽感測器,包含一個表面覆蓋高 度敏感NiFe 塗料的橋式電阻,透過橋式電阻感測磁力變化,可用來測量地球磁

(17)

場或是其他較小的磁場,常見應用在車輛偵測上。圖2.2 為各種感測元件感測到 的訊號變化範例圖,這些感測的能力可以有利於發展各式各樣的感測網路應用 上。包含車輛偵測、物體移動、聲音等其他應用。

(a)

(b)

(c)

(18)

(d)

圖2.2 各類感測訊號範例圖 (a)光源訊號 (b)聲音訊號 (c)加速度計訊號 (d)磁力計訊號

當感測板將感測元件將得到的資訊收集起來傳給智慧感測器節點,再由智慧 感測器節點依照TinyOS 設定的規格構成封包。經由無線技術傳送到 MIB510 編 程介面板,而我們就可從PC 上透過 RS232 埠來讀取這些資訊。

2.2 封包格式

感測器將感測到的資料依一定的格式構成封包,如表2.1 為例。標準封包格 式使用值0x7e(SYNC_BYTE)來做同步之用,在每個封包的前後各加一個同步位 元組。Type 欄代表封包傳送方式,此例中 0x42 代表接收端收到封包不需回傳 ACK 確認。Data 欄中分為 TinyOS Msg Header 與內層資料欄。CRC 欄為 2Bytes 的錯誤檢查碼 (Cyclic Redundancy Check Code),用來做錯誤檢查。另外為了避 免資料內出現0x7e 的數值而造成誤判為同步字元,資料中使用脫逸字元 0x7d 來 修正。

表2.1 原始封包資料範例

7e427d5e00117d5d180000010026040000000000001d0480049b83e4012c3c7d5e72228b7e

(19)

XSensor Header、SensorData Payload 與無線傳輸封包所需構成物件(同步位元 組、CRC 碼和 Type 值)。TinyOS Header 包含相關 TinyOS 的訊息在裡面。XMesh Header 則包含了 Multihop 的相關訊息。而 XSensor Header 包含 Sensor 相關訊息。

最後的SensorData 部分為感測到的各種資料值。

表2.2 封包主要構成部分[14]

Sync Type Data CRC Sync

TinyOS Header

XMesh Header

XSensor Header

Sensor Data

表2.1 封包資料各細部分解如下表 2.3 所示:

表2.3 封包的各細部分解範例[14]

Sync Type Data CRC Sync

1 Byte 1 Byte 2 Bytes 1 Byte 7e 42

TinyOS Header

XMesh Header

XSensor Header

Sensor Data

8b22 7e

TinyOS Header

2 Bytes 1 Byte 1 Byte 1 Byte Destination

Address

AM Type AM Group Length

007e 11 7d 18

XMesh Header XSensor Header

2 Bytes 2 Bytes 2 Bytes 1 Byte 1 Byte 2 Bytes 2 Bytes Source

Address Origin

Address Sequence

Number Application

ID Sensor

Board ID Sensor

Packet ID Parent 0000 0001 0426 00 00 0000 0000

Sensor Data– part1

Sequence Number Voltage Light Thermistor Variable 2 Bytes 2 Bytes 1 Byte 1 Byte 6 Bytes

(20)

Sensor Data – part2

Variable Microphone Mag_X Mag_Y Accel_X Accel_Y 6 Bytes 2 Bytes 1 Byte 1 Byte 1 Byte 1 Byte

01e4 2c 3c 7e 72

(21)

第三章

感測器訊號之特徵擷取

觀察各類事件中各種感測資料的變化,去擷取出代表各類事件的特徵。透過 資料融合(Data Fusion)的觀念,將各種特徵構成特徵向量來偵測各類事件。

3.1 各事件變化圖

本研究經由觀察各個事件發生時,各類感測資料的變化來決定所要使用的特 徵。下面列出本論文所研究之三種事件的各類感測資料變化情形。

圖3.1 為一個完整的開關門事件中各個感測器上收到資料的變化。觀察可知 所有感測器,包含光線、聲音、X 跟 Y 軸加速度、X 跟 Y 軸磁力皆有變化產生。

其中只有X 軸加速度變化幅度小,易與雜訊混淆外,其餘的變化皆明顯。

(a)

(22)

(b)

(c)

(d)

(23)

(e)

(f)

圖3.1 開關門事件 (a)光線變化 (b)聲音變化 (c)X 軸加速度變化 (d)Y 軸加速度變化 (e)X 軸磁力變化 (f)Y 軸磁力變化

圖3.2 為一個完整的開關窗事件中各個感測器上收到資料的變化。觀察可知 於光線、聲音、X 跟 Y 軸加速度變化皆明顯易辨,如開關窗瞬間感測到的光線 數值會減低。而X 跟 Y 軸磁力上並沒有變化產生,故不列出變化圖。

(24)

(a)

(b)

(c)

(25)

(d)

圖3.2 開關窗事件 (a)光線變化 (b)聲音變化 (c)X 軸加速度變化 (d)Y 軸加速度變化

圖3.3~3.6 為一個物體分別在四種距離下通過,事件中各個感測器上收到資 料的變化。經過觀察得知物體經過感測器時,僅有光線、聲音變化較為明顯外,

於加速度計和磁力計上都無變化產生。比較四種距離下之訊號強度,本研究所使 用的光源感測器只適用於半公尺內,超過半公尺光線偵測變化過小,易與雜訊混 淆。

(a)

(26)

(b)

圖3.3 距離 15 公分內,物體經過事件 (a)光線變化 (b)聲音變化

(a)

(b)

圖3.4 距離約 30 公分,物體經過事件 (a)光線變化 (b)聲音變化

(27)

(a)

(c)

圖3.5 距離約半公尺,物體經過事件 (a)光線變化 (b)聲音變化

(28)

(b)

圖3.6 距離約一公尺,物體經過事件 (a)光線變化 (b)聲音變化

3.2 特徵擷取

觀察過三種事件的各類感測資料變化圖,可發現事件發生期間,資料皆有某 種程度的變化。以光源、加速度和磁力這些感測器來說,將目前感測時間得到的 感測資料數值減去上個感測時間得到的感測資料數值,所得到的差值表示各個感 測器資料變化的程度,另外聲音比較特殊是看強度大小做為聲音變化的程度。考 慮到單筆變化作為特徵容易受到雜訊影響,我們使用滑動窗口(Slide Window)的 觀念,設定一段連續時間為一個窗口,將此段連續時間中各種感測資料的變化情 形當作特徵,對代表感測資料變化的數筆差值相加作為特徵來改善這個問題,示 意圖表示於圖 3.7。為了找出使用幾筆差值和作為特徵最能代表事件中資料的變 化情形,使分類效果最佳。本研究各自測試用單筆、兩筆、三筆和四筆變化作為 特徵的SVM 訓練結果,所使用的測試檔分為有事件與完全無事件兩類,如下表 3.1 所示。

(29)

目前時間

:感測封包

-4/8 秒 -3/8 秒 -2/8 秒 -1/8 秒 +1/8 秒 +2/8 秒 +3/8 秒

:滑動窗口 滑動窗口方向

圖3.7 滑動窗口示意圖

表3.1 數筆差值和作為特徵於各類事件的成功率

特徵 單筆差值 雙筆差值和 三筆差值和 四筆差值和 無 99.070% 99.954% 99.953% 99.936%

開關門事件

有 95.965% 95.337% 95.759% 95.248%

無 99.735% 99.994% 100% 99.994%

開關窗事件

有 98.318% 98.240% 96.628% 95.627%

無 98.399% 99.264% 99.951% 99.923%

物體經過事件

有 99.828% 99.724% 99.215% 99.237%

從表3.1 得知,未有事件發生時單筆差值分類成功率最低,因為雜訊容易造 成誤判。另外也觀察到以四筆差值為特徵,幾乎全部分類的成功率下降。原因是 事件屬於瞬間發生的,過多的差值相加不但無助提升分類成功率,更會降低特徵

表3.2 開關門事件分類詳細資料 事件分類次數

特徵 雙筆差值和 三筆差值和

事件類型 經過 成功率 經過 成功率

白天1 2882 100% 2881 100%

白天2 3094 1 2 99.903% 3091 5 99.839%

晚上1 2811 1 99.964% 2811 100%

晚上2 3895 2 99.949% 3895 1 99.974%

白天1 2886 817 176 95.463% 2794 926 158 95.926%

白天2 2081 660 143 95.042% 2000 758 125 95.664%

晚上1 2658 745 178 2 94.976% 2569 856 156 1 95.617%

晚上2 1986 590 109 2 95.869% 1905 669 112 95.830%

(30)

的分類能力。因雙筆差值與三筆差值分類成功率相當,各有優缺,需詳細去比較。

本研究於有無開關門事件發生情況下,白天與晚上各做兩次實驗,每次約七分鐘 的感測資料,每0.125 秒作一次分類判斷,結果表示於表 3.2。觀察可知不論有 無事件發生,三筆差值和表現皆較雙筆差值和佳。

同樣於有無開關窗事件發生情況下,白天與晚上各做兩次實驗,每次約七分 鐘的感測資料,每0.125 秒作一次分類判斷,結果表示於表 3.3。觀察可知,無 事件發生時,三筆差值和較佳;有事件發生時,雙筆差值和較優。總和來說,雙 筆差值和表現較三筆差值和佳。

表3.3 開關窗事件分類詳細資料 事件分類次數

特徵 雙筆差值和 三筆差值和

事件類型 門 窗 經過 成功率 經過 成功率

白天1 3146 100% 3145 100%

白天2 3080 100% 3079 100%

晚上1 3873 100% 3872 100%

晚上2 3875 1 99.974% 3875 100%

白天1 3112 36 416 98.990% 3034 74 455 97.923%

白天2 2797 27 275 99.129% 2727 44 327 98.580%

晚上1 2405 36 367 24 97.881% 2352 114 351 14 95.479%

晚上2 2509 67 328 22 96.958% 2430 157 335 3 94.530%

表3.4 物體經過事件分類詳細資料 事件分類次數

特徵 雙筆差值和 三筆差值和

事件類型 門 窗 經過 成功率 門 窗 經過 成功率 白天1 2981 19 99.367% 2998 1 99.967%

白天2 2452 19 99.231% 2469 1 99.960%

晚上1 2271 21 99.084% 2289 2 99.913%

晚上2 2701 17 99.375% 2716 1 99.963%

白天1 2515 16 202 99.415% 2524 33 1 174 98.755%

白天2 2365 5 1 140 99.761% 2389 11 110 99.562%

晚上1 1889 3 178 99.855% 1902 19 148 99.082%

晚上2 2021 3 209 99.866% 2058 12 162 99.462%

(31)

表3.4 為判斷物體經過事件,同樣於有無事件發生情況下共做八次實驗,每 次約七分鐘的感測資料,每0.125 秒作一次分類判斷。於無事件時,三筆差值和 較優;有事件發生時,雙筆差值和較優。综合三類事件得知,使用三筆差值和略 佳於兩筆差值和。從上敘實驗觀察得知,單看單筆變化容易有誤判行為,過多筆 變化會降低分類成功率。而代表各事件的主要特徵及使用何種特徵閘值分類效果 最佳,相關實驗移至第六章另行介紹。

本研究依實驗結果決定使用三筆變化和作為特徵,且因為本研究只判斷事件 發生與否,不需判斷正負變化。不論開門、關門都視為同種事件,所以將此筆差 值累加取絕對值,整個運算如(3-1)式。 代表S 於時間 n 的特徵值, 代表S

於時間n 的感測資料數值,S 為感測元件種類,但不包含聲音感測元件。另外聲 音的資料變化跟另五種不同,是依數值500 為基準,聲音越大,上下振幅幅度越 大。因此聲音的特徵為目前感測時間內得到的感測資料數值減去DC 值 500 並取 絕對值相加,如(3-2)式所示。 代表聲音於時間n 的特徵值, 代表聲音於 時間n 的感測資料數值。

S

yn xnS

Mic

yn xnMic

=

= 2

0

1) (

j

S j n S

j n S

n x x

y (3-1)

=

= 3

0 j

Mic j n Mic

n x DC

y (3-2)

又因各類感測資料變化程度不盡相同,可能同一事件中光源變化大,而震動 變化小。為了提高分類成功率,將各類資料以其標準差作正規化來提高鑑別度,

如(3-3)式所示。 代表S 感測資料於時間 n 的特徵值,μ為 S 感測訓練資料的 整體平均值(global mean),σ為 S 感測訓練資料的標準差,S 為感測元件種類,y

s

yn

s

'n

(32)

代表S 感測資料經正規化後於時間 n 的特徵值。如表 3.5~3.7 所示,經過正規化 分類成功率明顯提升。

s s s s n n

y σ

μ

= − '

y (3-3)

最後得到六種正規化後的感測資料依資料融合觀念,構成我們所使用的特徵 向量,以供SVM 分類訓練與預測之用。整個特徵向量如(3-4)式所示。

[

MagYn

]

MagX n AclY n AclX n Mic n Light

n ' ' ' ' '

' y y y y y

y (3-4)

表3.5 開關門事件分類詳細資料 事件分類次數

正規化前 正規化後

事件類型 經過 成功率 經過 成功率

白天1 2881 100% 2881 100%

白天2 3091 5 99.839% 3094 2 99.935%

晚上1 2811 100% 2811 100%

晚上2 3895 1 99.974% 3896 100%

白天1 2794 926 158 95.926% 2841 888 149 96.158%

白天2 2000 758 125 95.664% 2039 725 119 95.872%

晚上1 2569 856 156 1 95.617% 2623 828 129 96.397%

晚上2 1905 669 112 95.830% 1948 638 100 96.277%

表3.6 開關窗事件分類詳細資料 事件分類次數

正規化前 正規化後

事件類型 經過 成功率 門 窗 經過 成功率

白天1 3145 100% 3145 100%

白天2 3079 100% 3079 100%

晚上1 3872 100% 3872 100%

晚上2 3875 100% 3875 100%

白天1 3034 74 455 97.923% 3076 1 486 99.972%

白天2 2727 44 327 98.580% 2788 310 100%

晚上1 2352 114 351 14 95.479% 2410 414 7 99.753%

晚上2 2430 157 335 3 94.530% 2548 4 370 3 99.761%

(33)

表3.7 物體經過事件分類詳細資料 事件分類次數

正規化前 正規化後

事件類型 門 窗 經過 成功率 門 窗 經過 成功率 白天1 2998 1 99.967% 2998 1 99.967%

白天2 2469 1 99.960% 2470 100%

晚上1 2289 2 99.913% 2291 100%

晚上2 2716 1 99.963% 2716 1 99.963%

白天1 2524 33 1 174 98.755% 2551 181 100%

白天2 2389 11 110 99.562% 2402 108 100%

晚上1 1902 19 148 99.082% 1920 149 100%

晚上2 2058 12 162 99.462% 2074 158 100%

(34)

第四章 位置感知系統

當我們有了各類事件的特徵向量,再來就是選個有效的機器學習方法來學 習,經過樣本訓練建造出一個分類器,再利用訓練好的分類器對未來資料轉換的 特徵向量進行分類判斷。判斷結果用作位置感知系統,輔以攝影機監控。本研究 使用的機器學習方法為支援向量機SVM (Support Vector Machine)[16]。

4.1 Support Vector Machine

SVM[16]是一種監督式學習的方法,由 AT&TBell 實驗室的 V.Vapnik 針對 分類和回歸問題所提出的統計學習理論。該技術在機器學習的研究領域上行之多 年,在分類的應用上也取得不錯的效果,如人臉識別、手寫體數位識別和圖像分 類等。

4.1.1 基本觀念

支援向量機主要針對線性可分情況進行分析,對於線性不可分的情況,利用 非線性映射演算法,將低維度空間上線性不可分的樣本,轉化至高維度特徵空間 使其線性可分,使得對非線性特徵樣本進行線性分析成為可能。

4.1.2 基本原理

支援向量機理論最初起源於資料分類問題的處理,SVM 目的在尋找一個分 割平面,使得各類訓練資料的點距離該平面越遠越好。在線性可分的情況下,就 會存在一個超平面盡可能將各類訓練樣本分開,該超平面可描述為:

=0 +

x b

w (4-1)

其中,“‧”是向量內積,w 是 n 維超平面法向量,b 為偏移量.

(35)

W

原點 H1

H2

Margin 圖4.1 線性分割超平面

以 圖 4.1 來 說 , 中 間 的 實 線 為 最 佳 分 割 超 平 面 (Optimal Separating Hyperplane),而那兩條虛線代表支援超平面(Support Hyperplane)。找出最佳分割 超平面的問題就等於找出相距最遠(margin最大)的支援超平面。假設輸入集合

由兩大類組成:如果x

{ }

xiRn i屬於第一類,則yi = 1,如果xi屬於第二類,則yi =

-1。最後可以得到訓練樣本點集合{xi , yi}, i = 1, 2, 3,…, n。支援向量機的目標就 是要根據結構風險最小化原理(Structural Risk Minimization)[17],建構一個目標函 數將兩類模式盡可能地區分開來。當所有訓練資料各自滿足各類的支援超平面 時,可以寫成下列形式:

1 1 ∀ =+ +

≥ +

i

i w b y

x (4-2)

1 1 ∀ =−

≤ +

i

i w b y

x (4-3)

上面兩式可以結合成如下所示不等式:

(

x w b

)

i

yi i⋅ + −1≥0 ∀ (4-4) 综合上面的討論在滿足約束條件 4-4 式下,最佳超平面可以通過解 2

2

min1 w 來

得到,這就是SVM 所要解決的主要問題。

(36)

因為限制條件的關係,我們可以利用Lagrange Multiplier Method將上面的式 子轉成一個二次方程式,找出可以使L為最小值的w, b, αi

( )

= =

+ +

= n

i

n

i i i

i i

P w y x w b

L

1 1

2

2

1 α α (4-6)

符合條件的極值點會出現在:

y 當yi

(

xiw+b

)

=1時,αi ≥ 0 y 當yi

(

xiw+b

)

>1時,αi 必為 0

這裡αi= (α1,…,αn) 是Lagrange Multiplier,w是最佳超平面的法向量,b是最佳超 平面的偏移量。Lagrange Multiplier Method的概念就是把限制條件也變成目標函 式的一部分。為了求解L的最小值,分別對w及對b偏微分

= =

i i

i i i i

i

iy x w y x

w α 0

α (4-7)

=

i i

iy 0

α (4-8)

從式(4-7)可知,那些αi=0 的樣本對分類沒有任何作用,只有那些αi>0 的樣本才 對分類起作用,這些樣本稱為支援向量,故最終的分類函數為:

( )

( )

=

+

= n

i

i i

i x x b

y x

f

1

α (4-9)

在我們求得支援向量之後,我們就可以用它們來判斷新加入的點是屬於那一類的 集合。

4.1.3 核函數

SVM 可透過使用不同的核函數形成不同的演算法,核函數主要的功能在於 將低維度線性不可分的樣本,轉換至高維度特徵空間使其線性可分,使得對非線

(37)

性而定。目前最常使用的核函數主要有三類。一是多項式核函數(Polynomial Function),所得到的是 P 階多項式分類器。

y p

x y x

K( , )=( ⋅ +1) (4-10) 二是徑向基函數RBF(Radial Basis Function)。所得分類器與傳統 RBF 方法的 重要區別是,這裡每個基函數中心對應一個支援向量,它們及輸出權重值都是由 演算法自動確定的。

⎪⎭

⎪⎬

⎪⎩

⎪⎨

⎧ −

= 2

2

exp 2 ) ,

( σ

y y x

x K

(4-11)

第三類是採用Sigmoid 函數作為內積,這時 SVM 實現的就是包含一個隱藏 層的多層感知器,隱藏層節點數是由演算法自動確定的,而且演算法不存在困擾 類神經網路方法的局部極小點問題。

) tanh(

) ,

(x y = κxy−δ

K (4-12)

X1 X2 X3 ……… Xd

………

K(x1 , x) K(x2 , x) α1y1

α2y2

αsys y

K(xs , x)

圖4.2 支援向量機示意圖

(38)

4.2 SVM 訓練

將各類中每段完整事件的感測資料,轉換成所設計的特徵向量,選擇具代表 性的特徵向量用作SVM 的訓練樣本。本研究收集大量資料來做訓練,並考慮各 項實際情況的影響。收集了包含晴天、陰天、雨天,和一天中各個時段,早、中、

晚和半夜。其中有開關門2095 個完整事件,開關窗 1072 個完整事件,物體經過 484 個完整事件,再加上平時未有事件發生的情況,共有 104800 筆特徵向量做 為訓練樣本。本實驗使用林智仁老師在網路上提供的libsvm2.83 版[18]工具來實 作,故需將特徵向量轉成libsvm 要求的格式:

〈Label〉 〈Index1〉:〈Value1〉 〈Index2〉:〈Value2〉…

Label 代表事件類別編號;Index 代表特徵向量標號;Value 則為特徵向量值。SVM 所有分類類型共有六種,在試誤法則實驗下得知,C-SVC 適用於本實驗的感測 資料集。由於文獻[19]建議,核心函數應優先選用 RBF,因其具有能分類非線性 的高維資料,只需調整兩種參數c 和γ,可減少操作上的複雜度與運算時間,且 有較佳的預測能力。因此本實驗使用 RBF 為核心,並透過 libsvm[18]提供的 Python 工具找出最佳的參數 c=32 和γ=0.0078125 代入 SVM 訓練使用。

(39)

第五章 物件偵測

透過 SVM 訓練後得到的分類器,我們可以對未知的情況做判斷,將分類 結果用來輔助物件偵測之用。當有事件發生時才去做物件偵測,可減少大量不 必要的物件偵測運算。對物件偵測來說,從一個光線變化劇烈以及擁擠複雜的 環境下,如何克服光線反射以及背光問題,能正確完整分離出前景對於後續處 理步驟有極大幫助。本章介紹文獻[13]所提出的空間時間機率模型方法。

5.1 背景機率模型建立

為加速目標物之區域偵測,我們利用較低解析度之影像進行前/背景之分 離。以一大小為W×H 的灰階影像為例,將 Image A 的每個區塊(block)以 median filter 取出一值,建立低解析度之 Image B,其中α為區塊的長度(在我們偵測系 統上α=3),示意圖如圖 5.1 所示。而採用 median filter 主要取其優點為快速而 簡易的計算,又不會有使用average filter 的模糊化或將雜訊一併計算的缺點。

經過此步驟可降低在做前景偵測時的計算量。

針對場景攝影機拍攝的各張影像,以median filter 降低解析度後,相同座 標位置之各張影像的像素值可能為背景或前景。若按照時間順序予以串列就可 以一個包含前景和背景的模型描述之,而混合高斯分佈(MOG)[20]即是針對其 中一點在連續的影像描述的模型,也就是一個背景的模型加上一個前景的模 型。如(5-1)式。

) ( )

| ( ) ( )

| ( )

(I p I B P B p I T PT

p = + (5-1)

於(5-1)式中 P(T)即為屬於目標物的機率值,p(I)為屬於像素的機率值,p(B)則

(40)

為屬於背景的機率值。

Image A

Image B

圖5.1 將原始影像之每一方塊以 median filter 之輸出值取代原方塊影像以求得低 解析度之影像

5.2 空間高斯分佈模型

每個像素的在連續影像內像素值的變化量可由MOG 模組化,因此亦可將 同一張影像內像素的變化量以空間分佈模組化如(5-2)[20]

2 2

( ( )) ( | ) 1 exp

2 2

b b

I I x p x B

πσ σ

=

(5-2)

) (xb

I 和σ是在xb時間上的高斯分佈的平均值和標準差。前景的分佈模型如下:

L T

I

p( | xb ) =1/ (5-3) 利用貝式分類法(Bayes classifier),分出前景和背景:

λ

=

( ) ) ( )

| (

)

| (

B P

T P T I p

B I p

b b

x x

(5-4) P(T)和 P(B)為事前機率,分別是在影像中屬於背景或是目標物的機率。把上述 的背景和前景的模型代入,可得到Likelihood 的關係式:

( )

L X

I

I b λ

σ σ

π

2

2

2 ) exp (

2 1

(5-5)

(41)

將上式取對數後簡化如下:

σ k x I I ( b)|

| (5-6)

於(5-6)式中,k = 2ln

(

2πσλ/L

)

。最後我們可以將判斷為前景或背景的法 則整理如下:

y 若 II x( )bkσ則該像素判斷為背景 y 若 II x( )b >kσ 則該像素判斷為前景

圖5.2 (a) 像素時間統計示意圖(b) 像素時間空間統計示意圖

Background pixel The region

used to construct the spatial probability model

5.3 空間-時間統計模型

僅僅以pixel-base 的時間機率模型執行前景偵測,很可能在背景有小幅度 更動的時候造成錯誤的前景偵測結果,為了解決這個問題,我們應用空間-時間 統計模型(Spatial - Temporal Statistical Model)解決[21]。如圖 5.2(b)所表示之空 間-時間統計模型可以式(5-7)描述:

1 / 2 1/ 2

1 1

( | ) exp ( ) (

(2 ) 2

b

T

u N

u

p B m C m

π

= ⎜⎝− − ⎟⎠

u u

C u u uu) (5-7) 於(5-7)式中

u=[IT,IS]T

IT:該像素在時間軸上的像素值,如圖5.2(a)

IS:該像素在空間中相鄰像素的像素值,如圖5.2(b) mu:u之平均值向量

(42)

仿造(5-6)可推導空間機率模型定義如(5-8)

B L u p ub

≥λ )

|

( (5-8)

於(5-8)式中λ為一常數,若 ( | )

ub

p u B L

≥ 則該像素判斷為背景,反之則為前景。λ

兩邊取對數可將(5-8)簡化為下式:

) ) 2 ln( ( 2 ) (

) (

2 / 1 1

L m C

u C m

u u T u u λ π u

(5-9)

取出前景之後可能會有若干雜訊,在此,系統中以型態學(Mophology)將較小雜 訊過濾,並以標記法(Labeling)透過適當的閥值標記出目標物。

投票演算法

)}

| ( ),

| ( ),

| ( { )

|

( u y u y cr u cr cb u cb

b b

b

b p u B p u B p u B

B u

p =

p uy Bu y L , ,

b ) /

|

( >λ p ucr Bu cr L

b ) /

|

( >λ p ucb Bu cb L

b ) /

|

( >λ 其中有兩式成立,像素屬於前景;反之屬於背景。

最後透過投票演算法來改良前景偵測。對 分別計算出代表 YCrCb 值

的 、 、 ,當其中兩個滿足限制,則判定

為前景,反之為背景。感測器未感應到事件時,僅需做背景更新功能,可節省 前景偵測的運算。

)

| (u Bub

p )

| ( y u y

Bb

u

p ( cr | u cr)

B b

u

p ( cb | u cb)

B b

u p

5.4 背景機率模型更新

當背景有發生些微變化(如光線小幅度改變),將使前景偵測結果出現大量 雜訊,導致偵測錯誤。所以,勢必需要每隔一段時間更新背景機率模型。更新法 如下式:

若Ic屬於前景:

(43)

' '

( ) ( )

( ) ( )

M M M M

M M M M

I I

I I

μ μ

σ σ

=

= (5-10)

否則:

'

' 2 2

( ) ( ) (1 ) ( )

( ) ( ) 1

1 1

M M M M c

M M x x c

I I I

I n I

n n

μ α μ α μ

2 '

σ σ μ μ

= ⋅ + − ⋅

= ⋅ + + −

+ +

(5-11)

於(5-11)式中Ic為即時取像進來frame的像素值,μM(IM)為原來背景模型上的

像素之平均值,μM' (IM)則為新的背景模型上像素之平均值,α為權重值。σM' (IM) 為新的背景模型上像素之變異度。利用此背景更新機制可讓前景偵測在長時間運 作下,能維持穩定的前景/背景分離效果。

(44)

第六章 實驗結果

本研究結合了感測器與視訊偵測系統,將感測器作為位置感知系統進行分類 判斷,視訊偵測系統依據分類結果進行物件偵測或僅做背景更新。圖6.1 為感測 器與攝影機溝通示意圖。實驗主要以實驗室為實際測試場景,以下為實驗各階段 簡介與結果。

圖6.1 感測器與攝影機溝通示意圖

6.1 感測器設置

再進行實驗前,需要做些前處理的步驟。針對感測器端的部份,TinyOS 1.1.15 版的元件庫提供了一個ad-hoc multi-hop routing 的簡單應用範例。我們將其修改 成我們需要的形式,增加聲音並修改傳輸速率,將預設的每八秒傳一次改成一秒 傳八次燒進Mote 中。當進行感測實驗時,就會依照我們修改的方式來進行感測 任務,將感測到的光線、溫度、聲音、加速度及磁力等資料包成封包形式,經由 無線傳輸至MIB510 編程介面板,而我們就從 PC 上透過 RS232 埠來讀取這些封

(45)

包,並對封包進行解碼的動作,來得到各種感測元件的感測資料。

6.2 特徵擷取

特徵擷取階段中,需要去了解代表各事件的主要特徵及使用何種特徵閘值分 類效果最佳。表6.1 為嘗試使用單種感測器及數種組合後的實驗成功率。可以得 知開關門事件主要由加速度與磁力特徵所觸發,開關窗事件主要由加速度特徵所 觸發,而物體經過事件主要由光線特徵所觸發。另外也發現組合數個有效特徵能 提高各事件的辨識率,將各事件之間的邊界區分的更清楚,實驗證明辨識成功率 優於使用單一特徵。以開關門事件為例,搭配聲音與加速度或加速度與磁力兩種

表6.1 各類感測器於各事件辨識成功率

特徵 light Mic Acl Mag Light+Mic Mic+Acl Acl+Mag Light+Acl 所有特徵 無事件 96.294% 97.662% 99.061% 100.000% 95.103% 99.508% 99.061% 97.804% 99.987%

開關門 23.342% 0.412% 88.543% 73.112% 23.510% 90.105% 96.676% 88.863% 99.734%

開關窗 0.009% 32.745% 74.303% 0.000% 34.227% 79.852% 76.120% 73.086% 99.384%

物體經過 76.590% 0.000% 0.000% 0.000% 74.374% 0.000% 0.000% 83.256% 100.000%

0 5 10 15 20

light threshold

No Door Window Pass

(a)

(46)

Acceleration threshold

(b)

圖6.2 各種事件邊界圖 (a)使用光線閘值 (b)使用光線與加速度閘值

特徵的效果皆勝過只使用加速度或磁力特徵。比較圖6.2(a)與(b)可明顯看見使用 兩種特徵得到的各事件邊界優於只使用單一特徵。

另外我們引用文獻[22]計算在某個閘值(threshold)分數下的錯誤接受率(False Acceptance Rate)FAR 與錯誤拒絕率(False Rejection Rate)FRR。根據這些 FAR 與 FRR 值畫出 ROC 曲線圖,找出一個閘值,使得 FAR 與 FRR 為最小。表 6.2 為 開關門事件於各種加速度閘值的FAR 與 FRR,表 6.3 為開關窗事件於各種加速

表6.2 開關門事件於各種加速度閘值的 FAR 與 FRR Threshold 1 5 10 15 20

FAR 2.186% 1.196% 0.041% 0.016% 0.010%

FRR 0.337% 0.981% 1.946% 2.209% 2.339%

參考文獻

相關文件

Wu, “Control parallel double inverted pendulum by hierarchical reinforcement learning,” in Proceedings of the 7th International Conference on Signal Processing, Beijing,

Asakura, “A Study on Traffic Sign Recognition in Scene Image using Genetic Algorithms and Neural Networks,” Proceedings of the 1996 IEEE IECON 22 nd International Conference

Shih, “On Demand QoS Multicast Routing Protocol for Mobile Ad Hoc Networks”, Special Session on Graph Theory and Applications, The 9th International Conference on Computer Science

Overview of NGN Based on Softswitch Network Architectures of Softswitch- Involved Wireless Networks.. A Typical Call Scenario in Softswitch- Involved

Ongoing Projects in Image/Video Analytics with Deep Convolutional Neural Networks. § Goal – Devise effective and efficient learning methods for scalable visual analytic

• Learn about wireless communications and networks!. • Why is it so different from wired communications

“Ad-Hoc On Demand Distance Vector Routing”, Proceedings of the IEEE Workshop on Mobile Computing Systems and Applications (WMCSA), pages 90-100, 1999.. “Ad-Hoc On Demand

Text messaging (SMS) allows users to send and receive short text messages on a phone or other mobile device or computer Picture messaging allows users to send pictures and

• As RREP travels backwards, each node sets pointer to sending node and updates destination sequence number and timeout entry for source and destination routes.. “Ad-Hoc On

Kyunghwi Kim and Wonjun Lee, “MBAL: A Mobile Beacon-Assisted Localization Scheme for Wireless Sensor Networks,” The 16th IEEE International Conference on Computer Communications

Krishnamachari and V.K Prasanna, “Energy-latency tradeoffs for data gathering in wireless sensor networks,” Twenty-third Annual Joint Conference of the IEEE Computer

Selcuk Candan, ”GMP: Distributed Geographic Multicast Routing in Wireless Sensor Networks,” IEEE International Conference on Distributed Computing Systems,

Maltz,” Dynamic source routing in ad hoc wireless networks.,” In Mobile Computing, edited by Tomas Imielinski and Hank Korth, Chapter 5, pp. Royer, “Ad-hoc on-demand distance

Kalker, “Speed-Change Resistant Audio Fingerprinting Using Auto-Correlation,” in IEEE International Conference on Acoustics, Speech, and Signal Processing, vol. Kalker,

Kyunghwi Kim and Wonjun Lee, “MBAL: A Mobile Beacon-Assisted Localization Scheme for Wireless Sensor Networks”, the 16th IEEE International Conference on Computer Communications

Plumbley, “Beat Tracking with a Two State Model,” IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP 2005), vol. Honing, “Computational

[7] Candemir Toklu, Shih-Ping Liou, and Madirakshi Das, “Video Abstract: A Hybrid Approach to Generate Semantically Meaningful Video Summaries,” In Processing of IEEE International

[17] Xiuqi Li and Jie Wu, ”Cluster-based Intelligent Searching in Unstructured Peer-to-Peer Networks”, Proceedings of the 25th IEEE International Conference on Distributed Computing

[20] Mohamed Younis, Moustafa Youssef, and Khaled Arisha “Energy Aware Routing in Cluster-Based Sensor Networks”, 10th IEEE International Symposium on Modeling, Analysis

Yang, “An Improved Approach to Security and Privacy of RFID Application System,” Proceedings of IEEE International Conference on Wireless Communications, Networking and

[21] Honghun Li, Jianwen Wang, Xun Li, and Hongxu Ma, “Real-time path planning of mobile anchor node in localization for wireless sensor networks,” International

[17] Chunhua Du, Qianq Wu, Jie Yang, Zhenq Wu, “SVM based ASM for facial landmarks location”, 8th IEEE international Conference on Computer and Information Technology,

Panayiotou “Distributed Collaborative Path Planning in Sensor Networks with Multiple Mobile Sensor Nodes” IEEE International Conference on Control & Automation,