• 沒有找到結果。

On Barrier Coverage in Wireless Camera Sensor Networks

N/A
N/A
Protected

Academic year: 2021

Share "On Barrier Coverage in Wireless Camera Sensor Networks"

Copied!
11
0
0

加載中.... (立即查看全文)

全文

(1)

On Barrier Coverage in Wireless

Camera Sensor Networks

Kuei-Ping Shih, Chien-Min Chou, and I-Hsin Liu

Department of Computer Science and Information Engineering, Tamkang University, Tamshui 251, Taipei, Taiwan

kpshih@mail.tku.edu.tw 本篇論文提出應用於無線攝影機感測網路邊界覆蓋 形成問題之分散式演算法,稱為CoBRA。CoBRA演算法 的基本概念為攝影機感測節點各自與鄰居判斷可能形成 的防衛線,並藉由收送BREQ訊息,判別可感測連接之鄰 居,當BREQ訊息傳遞於整個感測區域中,並判斷可形成 邊界覆蓋時,再藉由傳遞BREP訊息之方式,設定節點之

感測方向。CoBRA主要包含「Initial Phase」、「Candidate Selection Phase」、「Decision Phase」三個部份,在Initial

Phase 主要為每個攝影機感測節點判斷自身的角色,並設

定防衛線起源節點;在Candidate Selection Phase中,當

起源節點或一般節點收到BREQ時,節點將回覆訊息告知 鄰居可協助建立防衛線之條件。最後在Decision Phase部 份,當感測區域中的節點判斷可形成防衛線時,由 Sink 發出BREP封包形成防衛線,位於防衛線上得感測節點將 轉動到決定之方向,並代傳BREP給防衛線上的下一個感 測節點。本論文實驗顯示在規則配置節點之場景中,能夠 以最少節點形成邊界覆蓋;而在亂數配置攝影機感測節點 之場景中,CoBRA演算法可成功提昇建立防衛線之機率, 使區域中產生邊界覆蓋。

關鍵詞―Wireless Sensor Networks,Camera

Sensor,Barrier Coverage。

一、Introduction

隨著微機電硬體技術的進步及無線通訊技 術的發展[3],使得體積小、低成本、多功能的感 測器(Sensors)得以實現,這些感測器具有感測、 計算及通訊能力,並且可透過無線之方式進行資 料之傳輸。此外每個感測器上都具備數種感測元 件(Sensing Unit),例如加州大學柏克萊分校所 研發之 MICA2 可以感測溫度、濕度、壓力等多 種屬性[10],並可依照需求及應用場景之變化在 感測器上追加配備以符合實際應用。現今將攝影 機(Camera)裝配在感測器上,利用攝影機來獲 取資料,稱為攝影機感測器節點(Camera Sensor Node),其獲得之資料類別為影像、聲音等多媒 體資料:具有可快速辨識目標之特性,因而可應 用於許多場景之中,並以目標追蹤以及安全監控 為主要應用,我們將配備攝影機之無線感測網 路 , 稱 之 為 無 線 攝 影 機 感 測 網 路 ( Wireless Camera Sensor Networks,WCSN)。

目前在攝影機感測網路這些應用大多可設 定為一廣大的監視區域(Monitoring Area),在其 中分佈許多攝影機感測器節點,執行在監視區域 內搜集感測資料或偵測目標物等功能,並處理感 測所得之資料,再將資料回傳至匯集點(Sink)。 而無線攝影機感測網路為了補捉資料,可利用無 線通訊方式,對於監視區域內之感測節點進行調 整覆蓋狀況之變化。基於上述功能,無線攝影機 感測網路可適用於戰場、展覽場、監獄、生態保 育區等場合感測和蒐集監視區域內之資料等,達 到進行即時監控、以應變事件發生。 在無線攝影機感測網路研究中[2] [7],形成 邊界覆蓋(Barrier Coverage)為許多研究議題其 中之一。在無線感測網路中,當任意物體以特定

(2)

方向橫越過監視區域時,則必被網路內運作中的 感測器感測器所感測,則稱此監視區域具備「邊 界覆蓋」之特性。 圖一 (a)無線感測網路;(b)無限攝影機感測 網路。 此種應用可套用如美國與墨西哥之國境防 守之場景,美墨交界的國境線長達 2000 英哩, 在如此廣大的國境線上,常有非法越境之狀況發 生,若以人力來看守國境,將耗費相當多的人力 資源;若將無線攝影機感測網路使用於偵測入侵 國境者者,不但可節省大量人力,並可利用攝影 機感測器偵測之影像資料,辨認入侵者之特徵, 加強國境之防守。 以往於無線感測網路與邊界覆蓋之相關研 究議題之中,使用一般感測器為網路裝置之主 體,因此在規劃感測之區域時,使用節點之位置 為圓心,感測距離作為半徑,畫出圓形來代表該 感測器能夠偵測之區域。當物體經過圓形之感測 區域時,將被感測器所感測,並利用無線方式回 傳資料至後端系統進行資料的分析與整合。在無 線感測網路相關文獻中[1] [7] [9] [13],以圓形作 為感測之區域形狀來考量網路中之節點感測區 域是否交集,以選擇並起動監視區域內可達成邊 界覆蓋之感測器。 然而本論文所考量之感測節點,為無線攝影 機感測器,若以相同的策略使用於其中,將造成 所選擇之感測器無法形成感測區域交集。以圖一 之場景作為說明:利用一般無線感測網路以圓形 感測區域所起動之節點位置,將如同圖一(a) 之位置關係,節點以感測距離及位置資訊來判斷 左右是否與鄰居節點感測區域有交集,使紅色入 侵者的路線穿越圓形感測區域,並進而被偵測。 但是在無線攝影機感測網路中,必須考慮到 攝影機感測器之特性:視角(Field of View,FOV) 之限制,當感測區域為扇形區域,而非以往圓形 之區域,無線攝影機感測網路中感測器之感測區 域形狀不再是圓形,此時套用傳統的邊界覆蓋演 算法,將會造成圖一(b)之狀況。 基於上述動機,本論文將在無線攝影機感測 網路中,設計邊界覆蓋演算法,使以攝影機感測 節點所構成的無線攝影機感測網路,可透過攝影 機節點之特性,使感測區域仍能形成邊界覆蓋。 目前就我們所知,本論文是首先探討在無線 攝影機感測網路下探討邊界覆蓋建立之研究議 題,本論文所提出的演算法,可搜索出目前網路 中所存在之防衛線,並在搜尋過程中以使用最少 節點數量為決策目標,因此我們的演算法不但能 適合無線攝影機感測網路之特性,更可應用於任 何感測器具有方向感測特性之網路應用。 本論文其他章節之架構如下:第二節為相關 文獻回顧,第三節將概述本論文方法之系統模 式、相關定義與運作方式。在第四節將詳細說明 本論文所提出之演算法,第五節則為實驗的模樣 結果。最後,我們的結論則於第六節提出。

二、Related Work

近年來許多的學者所提出許多在無線感測 網路中覆蓋問題之相關議題論文之研究 [1] [4] [6] [7] [9] [11] [12] [13],依據不同的研究議題, 可分為無線感測網路及無線多媒體網路兩方面。 在論文[9]中提出在監視區域佈建無線感測 網路,並定義當有入侵者穿越過此區域後,必定 (a) (b)

(3)

至少被 k 個感測器所偵測到,則稱該區域具 K-Barrier Coverage,亦稱為邊界覆蓋。

在 論 文 [2] 中 所 提 到 無 線 多 媒 體 感 測 器 (Wireless Multimedia Sensor,WMS)具有感測 影像及聲音的能力,並且能處理影音串流資料, 可以運用在軍事、校園監測、監獄等環境方面, 在此篇文獻中提及多媒體感測器重要的特徵─ 「方向性感測」;以往一般之無線感測網路所探 討及思考的方式著重於位置,利用位置來判別節 點的覆蓋交集與否,但在多媒體感測器中,為了 獲得聲音或影像等資料,其感測裝置,如攝影 機、收音器等,將會有感測區域之限制,而無法 一次感測周遭 360 度所有範圍。 論文[8],在無線攝影機感測網路中,說明 Partial Barrier Coverage 與 Full Barrier Coverage 之定義差異,在一個設有障礙物的監視區域中, 當攝影機感測器之數量(資源)在有限的狀況 下,連在區域中最窄之部份亦無法建立連接一端 邊界至另一端邊界的防衛線,達成 Full Barrier Coverage , 只 在 區 域 內 能 形 成 片 段 的 Partial Barrier Line,在如此資源不足之狀況下,此篇論 文題出以遊戲理論(Game Theory)為基礎去分 析偵測機率與配置資源所能形成的覆蓋防衛線 比例之關係,並找出在監視區域中何處來配置這 些資源能夠達到最大的防禦機率。 在論文[11],探討在無線攝影機感測網路環 境下,如何找尋目標附近之攝影機感測節點,期 望使用最少數量節點之條件下達成目標覆蓋。論 文[11]的主要概念為:在感測區域中,針對目標, 利用已配置於場景中之攝影機感測器,利用選擇 能夠覆蓋目標外圍之角度,挑選彼此覆蓋角度交 集越少越好之組合,達到使用節點數量少及完成 目標覆蓋之目的。 另有許多相關文獻,如在 WCSNs 有以定位 導向(Localization-Oriented)建立 Coverage,針 對一個感興趣的目標進行偵測[11] [12];或探討 如何透過分散式演算法,利用最少的 Camera Sensor 對一個目標進行多面向的影像感測[12]。 在參考過許多國內外相關領域之論文後,本 論 文 將 探 討 如 何 透 過 Camera Sensor 與 一 般 Sensor 相異感測區域特性(即扇形感測區域), 設計一集中式演算法,達到在監視區域內建立 Full Barrier Coverage。

三、背景知識

本論文提出可以運作在無線攝影機感測網 路中搜尋並設定監視區中之節點,使監視區域具 邊界覆蓋。以下說明本研究的環境假設:監視區 域之大小為 W(Width)x H(Height),在監視 區域內節點以亂數選擇位置方式,設定無限攝影 機感測節點,每個節點同質(homogeneous),意 指所有 Camera Sensors 的能力相同,如感測距離 (Sensing Range)、傳輸距離(Communication Range)以及可視角度(Field of View, FOV)等; 而攝影機感測器節點本身可以透過全球定位系 統(Global Position System, GPS)或是定位演算 法得知位置資訊[3] [6]。上述皆為網路之系統設 定,接下來我們對之後演算法所用到的相關知識 詳加定義。  定義一:入侵方向(intruder path) 入侵者穿越矩形區域時,將先後通過矩陣平 行之兩邊界,一為起點,一為終點,將入侵者起 點與終點連線,此連線可視為入侵者之入侵方 向。  定義二:感測距離(Sensing Range) 在攝影機感測器能夠成功感測並獲得資料 之最遠距離,稱之為感測距離。  定 義 三 : 通 訊 距 離 ( Communication Range) 在一攝影機感測器節點能與其他節點能夠 成功交換資料之最遠距離,稱之為通訊距離。  定義四:視角(Field of View,FOV) 在攝影機感測器一次感測之動作內能夠感 測的最大範圍角度。

(4)

( )a ( )b i i j j 圖二 達成感測連接之節點。  定義五:感測區域 Sensing Area 攝影機感測節點在一次感測內,能夠感測之 區域。此區域由攝影機感測節點之感測的距離與 視角所決定,所圍出之區域為一扇形區域。  定義六:感測連接(Sensing Connect) 在兩節點間,彼此之感測區域互相交集或 相接,則可稱此兩節點為感測連結。以圖二為 例,兩感測器間,會因彼此距離不同,而造成感 測連接節點數量不同,如圖二(a),兩點之距離 小於感測距離,因此在節點 i 與 j 之間可由 i 節 點或 j 節點中的任一點覆蓋其間,即可造成兩節 點能夠感測連接;而在圖二(b)中,因兩節點 相距超出感測距離,i 與 j 節點間若要形成感測 連接,則必須由兩節點合作,才可達成兩節點間 的感測連接。 i j ( )a ( )b i j 圖三 防衛線示意圖。  定義七:防衛線(Barrier Line) 當兩節點達成感測連接時,則在此兩節點之 間所夾住之區域(如圖三中黑色矩形所形成之區 域),可視為由此兩節點連線之線段在此黑色矩 形中形成邊界覆蓋,此線段稱為防衛線。如圖三 (a)(b)中,因 i 與 j 感測連結,在任意入侵者 由下方往上方穿越黑色矩形時,其行進路線必與 防衛線至少交於一點,亦即入侵者至少可被 i 或 j 中其一感測器所偵測。 在通訊半徑為感測半徑兩倍之假設下,基於 上述防衛線節點因距離不同,而產生節點需求數 量之不同,因此可將在一個節點之通訊半徑內所 存在的鄰居可分兩種區域,與目前節點距離在感 測半徑之內者,稱之為位於 SR Zone,在感測半 徑以外,通訊半徑(兩倍感測半徑)以內者,稱 之為位於 LR Zone。如圖四中,以中心黑色節點 而言,鄰居節點分別位於兩種不同的 Zone 當中。 Rs Rc SR Zone LR Zone 圖四 通訊距離內鄰居節點位置圖。 因此,根據上述觀察歸納:在一節點之通訊 半徑內中,與任兩鄰居可能形成之防衛線有三種 類型,Type SS:其兩鄰居皆位在區域一內,即 皆位在感測半徑以內。Type SL:其兩鄰居之一 位置於區域一內,另一鄰居則位在區域二內。 Type LL:其兩鄰居皆位於區域二內。 而根據不同的類型,防衛線所需要支援的節 點數量也不一樣。在 Type SS 之狀況:在三個節 點中,可由其中任兩個節點覆蓋節點與節點之間 之線段,形成三個節點彼此感測連接之至狀態。 而在 Type SL 與 Type LL 之狀況,三個節點皆需 要使用來協助覆蓋其間區域,才能夠達到彼此感 測連接,其中在 Type LL 之限制又比 Type SL 的 條件嚴苛,必需判斷三點所夾之角度與攝影機感 測器之視角之關係,所夾之角度小於視角者則成 功答成感測連接,若大於視角者,則無法形成。

(5)

LR zone SR zone ( )a csa csd csb csc csg csh ( )b csa csd csb csg csh ( )c csa cs d csb csg csh 圖五 三種類型防衛線。  定義八:邊界節點(Edge Node) 攝影機感測節點佈置在監視區域後,當節點 距離入侵方向之邊界小於或等於感測距離者,則 節點的角色為邊界節點,如圖六中淺灰區域內灰 色節點皆為邊界節點之角色。  定義九:內部節點(Inner Node) 不同於邊界節點,與入侵方向水平之邊界大 於感測距離者,則節點的角色為內部節點,如圖 九中白色節點即為內部節點。  定義十:虛擬節點(Virtual Node) 此種節點不屬於實體節點,僅設定於邊界節 點之鄰居列表中,用於設定邊界與邊界節點感測 連接,使邊界至邊界節點之間必須具有防衛線存 在,虛擬節點之座標設定位於邊界上,與對應之 邊界節點相距感測距離之長度。如圖六中邊界上 黑色之節點。在本篇文章中皆以 ViLj代表,其中 i 代表為節點 i 設定之虛擬節點,L 代表虛擬節點 位於左邊界上,j 為虛擬節點的 ID。 Rs Rs V Li 2 V Li 1 i :Ordinary Sensor :Boundary Sensor :Virtual Sensor Sink Sink 圖六 CoBRA 場景圖與節點角色分佈示意圖。 在實行演算法之時,整體系統符合下列之假 設條件:  假設一:攝影機感測器節點以亂數佈建 方式,分佈在監視區域之中。  假設二:攝影機感測節點配備有 GPS, 或者節點本身可利用定位演算法,知道 其本身位置及偵測方向。  假設三: 在此無線攝影機感測網路中 所使用的所有攝影機感測節點,其各種 性質、能力皆為相同。  假設四: 攝影機感測節點之通訊半徑 為感測距離之兩倍。則通訊半徑內之節 點皆可能與位於圓心之節點形成感測 連接之狀況。 基於本章中之定義及假設,我們將在下節詳 細描述所提出以演算法之細節。

四 、 Cone-base Barrier coverRage

Algorithm (CoBRA)

在本章將詳細介紹可在無線攝影機感測網 路內 , 建立邊界覆 蓋之演 算法 , 設定 在一 將 Camera Sensor 佈點完畢之監視區域內,使用演 算法搜尋並設定網路中之 Camera Sensor 偵測方

(6)

向,期望使用最少 Camera Sensor 數量來建立起 防衛 線 ,使 監視 區域 達成 邊界 覆蓋 ,以 下 為 Cone-based Barrier coveRage Algorithm(CoBRA) 演算法之詳細介紹。 在無線攝影機感測網路中,為了偵測特定入 侵方向之入侵者,網路中必須存在一條防衛線, 使監視區域具邊界覆蓋,因此設定監視區域內之 Camera Sensors 來形成防衛線,為本論文之探討 並解決之主要問題。 為了形成防衛線,本論文提出 CoBRA 演算 法,其概念如下:每個 Camera Sensor 將搜集通 訊半徑內之鄰居,以建立相關之資訊,接著網路 中之 Camera Sensor 依收到之訊息執行候選者挑 選步驟(Candidate Selection Step)及決策步驟 (Decision Step) ,依條件發送 Barrier Request (BREQ)及 Barrier Response(BREP)來設定 網路中 Camera Sensor 之偵測方向來形成監視 區域內防衛線。 本論文場景圖如圖六所示。在接下來的部份 將詳細介紹分散式 CoBRA 演算法各部份之詳 細作法,並介紹其細節。 在初始時,每個 Camera Sensor 擁有自身位 置資訊及邊界資訊,因此 Sensor 會依照位置,設 定自己角色為 Boundary Sensor 或是 Ordinary Sensor,並利用 Hello Message 交換彼此之資訊, 如位 置、 感 測 方 向等 ,依 照這 些資 訊 來 設定 Camera Sensor 之間距離之關係。

表一 BREQ BREQi

Source Sensor ID Source Sensor Location Last Sensor ID Hopcon

CandidateID1 Helpbit 1 CandidateID2 Helpbit 2 …... …… 當所有 Camera Sensors 設定完角色與鄰居距 離關係後,將由場景中一端 Sink 發出 BREQ 之 訊息,格式如表一,其中 Source Sensor ID 為防

衛線初始端之 Boundary Sensor ID,作為此條防 衛線之代表,LastID 為上一步發出 BREQ 訊息之 Camera Sensor ID,Hopcon 為計算目前所能形成 防衛線之 Camera Sensor 數量。CandidateID 為候 選鄰居之 ID,為發出 BREQ 之 Camera Sensor 所 挑選之防衛線的可能候選者。Helpbit 為支援之 指示值,其值為 0,則對應之候選鄰居為自由狀 態,其值為 1 時,代表候選鄰居必須往發送 BREQ 之 Camera Sensor 方向偵測,才可達成感測連結。

當 Camera Sensors 接收到來自 Sink 或其他 Camera Sensor 所發出之 BREQ 訊息後,Camera Sensor 判別 CandidateID 欄位,若其中包含自身 之 ID , 則 該 Camera Sensor 進 入 Candidate Selection Step,開始挑選適合目前節點之鄰居以 形成防衛線,並將合適之候選節點 ID 及支援條 件(Helpbit)包含在自身所發出之 BREQ 中,直 到另一端之 Sink 接收到 BREQ。 表二 BREP BREPi Source Sensor ID Last Sensor ID 當另一端之 Sink 接收到所有邊界節點所 傳之 BREQ 訊息後,利用各 BREQ 內 Hopcon 欄位來作為防衛線挑選之準則,以最少 Camera Sensors 數量之防衛線為優先來發送 BREP,格 式如表二。

接收到 BREP 之 Camera Sensor 將設定偵 測方向,並依照 BREP 內 LastSensorID 欄位回 覆 BREP 至下一個 Camera Sensor,直到原始發 送 BREQ 之 Sink,則此時所挑選之防衛線,其 線上之 Camera Sensors 皆設定好偵測之方向並 達成感測連結。以下為各步驟更細部之說明。

A. Candidate Selection Step

進入「Candidate Selection Step」之 Camera Sensor,依各自之角色進行挑選適當鄰居做為防 衛候選節點;為 Boundary Sensor 角色之 Camera Sensor 為了不在邊界產生偵測漏洞,必需負責與

(7)

邊界作感測連結之覆蓋,在此處所挑選之鄰居必 須能與該 Boundary Sensor 所設定在邊界上之 Virtual Node 形成防衛線,但 Virtual Node 不具 實體,因而必須由 Boundary Sensor 及其候選鄰 居形成三點間之感測連結,所挑選形成之防衛線 類形因此只有 Type SS 以及 Type SL,而內部節 點角色之 Camera Sensor,將依照所收到 BREQ 內之資訊,分別尋找能夠形成 Type SS、Type SL 或是 Type LL 相符之鄰居,將其 ID 包含在 BREQ 中傳遞給候選鄰居,以下為各角色再挑選候選鄰 居之選擇考量。 b Sink 1 Sink 1 d b h VbL1 VbL2 LR zone SR zone (a) (b )

圖七 Boundary Sensor 之 Type SS & Type SL 防衛線示意圖

角色為 Boundary Sensor 之 Camera Sensor, 接收到來自 Sink 的 BREQ 訊息後,將挑選能夠 包含 Virtual Node 之防衛線,因此所找尋之防衛 線為 Type SS 及 Type SL 兩類,當找到之鄰居節 點能形成之防衛線為 Type SS 者,以圖七(a)為 例說明,此時鄰居 d 位於 Boundary Sensor b 之 SR Zone,此時 d 點只需往 b 點方向偵測即可在 此形成由邊界之 d 點間感測連結,並使其間形成 防衛線。 當所找到之鄰居 Camera Sensor 所能形成之 防衛線為 Type SL 者,以圖七(b)為例說明, 鄰居 h 位在 Boundary Sensor b 之 LR Zone,與 b 點相距感測距離以外,欲達成邊界起始至 h 間感 測連結,亦代表 Boundary Sensor 能與 Virtual Node 感測連結並且亦可能與候選節點感測連 結,則 h 必須能夠達成∠Virtual Node─Boundary Sensor─候選 Camera Sensor 三者角度小於視角 之條件,即∠VbL2bh≤θ 之條件,當 b 往角平分 線方向偵測,h 往 b 點方向偵測,就可達成感測 連結。挑選到合適之候選鄰居後,將發送包含所 有候選鄰居 ID 之 BREQ,並夾帶 Helpbit 欄位為 1 之值,使得候選鄰居獲得挑選其候選鄰居時之 限制資訊。

角色為 Ordinary Sensor 之 Camera Sensor, 在接收到包含自身 ID 之 BREQ 訊息後,進入 防衛候選節點選擇步驟,所挑選之候選節點之條 件大致與 Boundary Sensor 之方式相同,當接收 到的 BREQ 來自 SR Zone 內之鄰居時,若 Helpbit 為 0,代表不用支援該鄰居 Sensor,以圖八(a) 為例,a 點發送 BREQ 給 b 點,包含 Helpbit 為 0, 代表 a 點已覆蓋 a-b 間使 a-b 形成感測連結,則 此時能夠選擇形成之防衛線類型有 Type SS 及 Type SL:位在 SR Zone 內之鄰居,可形成如圖 八(a)之防衛線,在發送 BREQ 時給予該鄰居 相對應之 Helpbit 值為 0;位在 LR Zone 內之鄰 居,可形成如圖八(b)之防衛線,給予該鄰居 相對應之 Helpbit 值為 1,不論何種 Type,b 點只 要往候選鄰居方向偵測都有可能達成感測連結。 b d a b h c b SR Zone LR Zone

圖八 SR Zone 鄰居與 LR Zone 鄰居,Helpbit 為 0 條件時之防衛線示意圖。

當接收到之 Helpbit 為 1 時,則代表收到 BREQ 之 Camera Sensor 必須協助才可與發送 BREQ 之 Camera Sensor 形成感測連結,以圖九 為例,b 點收到來自 a 或 c 點之 BREQ 後,由於

a、c 點無法覆蓋 a-b、c-b 間,因此尋求 b 點之

協助,此時 b 點可找到候選鄰居形成防衛線之類 型有 Type SS、Type SL。

(8)

當找到位在 SR Zone 之鄰居如圖九(a)之 d 點,可形成 Type SS 之防衛線,由於 b 點須協助 a-b 段覆蓋,必須由 d 點來協助覆蓋 b-d 段覆蓋 才可達成感測連結,b 點在發送 BREQ 時將 d 點 加入 CadidateID 欄位中並给予對應之 Helpbit 為 1;當找到位在 LR Zone 之鄰居如圖九(b) 之 h 點時,b-h 段必須由兩個 Camera Sensor 同 時覆蓋才可達成兩點間感測連結,則 b 點必須同 時協助前後段之覆蓋,因此所找之候選鄰居必須 如 h 點之條件,使∠cbh ≤ θ(FOV)時,Type SL 防衛線才能形成,並給予之對應之 Helpbit 為 1。所形成之防衛線如圖九(b)所示。 LR zone SR zone ( )a ( )b b d a b h c 圖九 SR Zone 鄰居、Helpbit 為 1 條件之防衛線 示意圖。 當接收到之 BREQ 訊息來自 LR Zone 內 之鄰居時,則其 Helpbit 欄位必為 1,此時所找 尋候選鄰居可型成之防衛線類型有 Type SL 及 Type LL 兩種,如圖十為例,當候選鄰居位在 SR Zone 內,則可形成 Type SL 之防衛線,如圖十 (a)所示,k 點必須覆蓋 b-k 段,因此 b 所 發出之 BREQ 給予相對應之 Helpbit 為 1;當 候選鄰居位在 LR Zone 內,則 b 點必須同時 協助覆蓋 g-b、g-h 段,因此必須所尋找之候選 鄰居如 h 滿足∠gbh ≤ θ(FOV),b 才視為候選 鄰居,加入 BREQ 內 CandidateID 欄位內,對 應之 Helpbit 欄位為 1,所形成防衛線如圖十 (b)所示。 B. Decision Step 當從初始端 Sink 發送 BREQ 後,待另一

端之 Sink 收到附近 Boundary Sensor 所發出之 BREQ 後,判斷其中 Hopcon 欄位值為最小者回 覆 BREP 給對應之 Boundary Sensor。而收到 BREP 訊 息 之 Boundary Sensor 或 Ordinary Sensor,依所暫存之 Helpbit 之值來設定其偵測 方向,為 0 者往發出其對應之 Cadidate ID 所表 示之 Camera Sensor 位置方向偵測,為 1 者,若 LastSensorID 欄位所表示之 Camera Sensor 相距 小於感 測距離,則 往 LastSensorID 所指 示之 Camera Sensor 方向偵測,若大於感測距離,則 LastSensorID、本身及 CandidateID 三者之角平分 線方向偵測,設定完偵測方向後之 Camera Sensor 將發出 BREP 直到初始端 Sink。 LR zone SR zone ( )a ( )b b k g h b g (a) (b) 圖十 LR Zone 鄰居、Helpbit 為 1 條件之防衛 線示意圖。 當 BREP 傳回至初始端之 Sink 時,則將在 監視區域中則產生一條防衛線,橫越整個區域, 當有物體經特定方向的任何路線穿越此區,將被 形成的防衛線上之節點偵測,即在區域中建立起 邊界覆蓋。

五、模擬實驗

本論文是以程式模擬之方式來完成實驗,模 擬程式所使用之程式語言為 C++,在實驗中所使 用之參數如表三所示:場景大小設定範圍為 500 * 500 ~1500* 500 m2,而在場景左右兩端將各配 置一 Sink,此二 Sink 假設通訊距離無限制,在 場景中配置的 Camera Sensor 數量為 250~750,

(9)

感測距離為 50m,通訊距離為設定為感測距離之 兩倍,也就是為 100m,視角設定範圍為 30~90 度,每一個 Camera Sensor 將與其通訊距離內之 鄰居交換目前之位置資訊、建立鄰居列表,以下 為實驗所得之各張數據圖。 在圖十一中所設定之場景為 500m * 500m, 感測半徑為 50m,FOV 為 60 度,在測詴不同密 度與形成一條防衛線之成功率之關係,當可形成 一條防衛線時即算 CoBRA 演算法實行成功。設 定 Camera Sensor 數量範圍為 50-250 個,觀察圖 二十,當所設定之節點數量越多,可發現在區域 中能形成一條防衛線之成功率依密度提高而增 加,當數量達成密度 0.05%(個/m2)以上,皆可 達到 80%的成功率。 表三 實驗參數表。 Monitor Area:W x H 500 ~ 1500 * 500 m2 Camera Sensors 50~750 Communication Range 100 m Sensing Range 50 m FOV 30~90 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% 25 50 75 100 125 150 175 200 225 250 Number of Camera Sensors

Ba r r ie r Li n e S u c c e ss fu l R a te

圖十一 Camera 數量與找到 Barrier Line 之成功 率。 在圖十二所設定之場景為 500m * 500m,在 感測距離為 50m,視角為 60 度,在不同長度的 場景下,我們觀察不同密度所能形成防衛線之成 功率。密度=Camera Sensor 數量/監視區域面積, 單位為(個/m2)。圖十二在數量達到 0.1%與 0.05%之密度下,所能形成防衛線之成功率與場 景中監視區域的長度的變化關係較小,均能夠分 別維持在 80%即 90%以上之成功率;但在數量只 達到 0.025%之密度時可發現,雖然維持在一定 之密度下,越短的監視區域長度成功率越大,越 長的監視區域長度則成功率越小,由觀察可知監 視區域 的長度與防 衛線長 度成正比, 在配 置 Camera Sensor 數量不足下,因不均勻的密度分 佈,將容易導致在局部區域無法尋找到合適或不 存在鄰居 Camera Sensor,因此越短的防衛線則 越容易形成,越長之防衛線則越容易失敗。 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% 500 600 700 800 900 1000 1100 1200 1300 1400 1500 Width of Monitoring Area (m)

Ba r r ie r Li n e S u c c e ss fu l R a te 0.10% 0.05% 0.03% 圖十二 場景寬度與找到 Barrier Line 之成功率。 在 圖 十 三 中 所 設 定 場 景 大 小 為 500m * 500m,所使用感測距離為 50m,在使用視角範 圍為 30~90 度即不同的密度的狀況下與防衛線 成功率之關係。在圖中可發現當滿足一定程度之 密度下,亦即達到一定的佈置 Camera Sensor 數 量時,視角的大小遠小於密度對於成功率之影 響,但在對於密度不足的情況下,視角越大越能 達到較高的成功率,表示視角越大,可選作為候 選鄰居之數量較視角角度小知情況多,所以才形 成較高的防衛線成功率。 在圖十四中所設定之場景為 500m * 500m 之大小,感測距離為 50m,視角為 60 度,在此 張圖中比較理想佈點本篇論文所提供 CoBRA 之演算法之比較,其中 Ideal 佈點是使用最少的 Camera Sensor 數量以形成一條防衛線,利用寬 度與最 大感測距離 相除而 得之數值, 因此 在

(10)

500m 寬度的場景中,感測距離為 50m,Ideal 佈 點數量為 500/50=10 個 Camera Sensor,在彼此 感測區域相鄰狀況下,形成防衛線。 0% 10% 20% 30% 40% 50% 60% 70% 80% 90% 100% 30 45 60 75 90

Field of View (Degree)

Ba r r ie r Li n e S u c c e ss fu l R a te 0.10% 0.08% 0.06% 0.04% 0.02% 圖十三 密度、視角角度與找到 Barrier Line 之成 功率。 0 2 4 6 8 10 12 14 16 18 100 150 200 250 300

Number of Camera Sensors

N u m b e r o f Ba r r ie r Li n e s CoBRA Ideal 圖十四 理想狀況與 CoBRA 演算法比較圖。 由圖十四中觀察,本論文所提出之 CoBRA 演算 法與 使 用理 想佈 點所 形成 防衛 線 中 使用 Camera Sensor 之數量差異,在 Camera Sensor 數 量少時較大,因為此時在 CoBRA 演算法因受數 量限 制, 能 夠 產 生之 防衛 線選 擇較 少 , 而當 Camera Sensor 數量增加時,防衛線之選擇性因 而增加,所以在形成防衛線時能夠挑選更少數量 的 Camera Sensor;圖中顯示當數量越大時, CoBRA 演算法所挑選出之防衛線,其形成之 Camera Sensor 數 量 愈 趨 近 理 想 值 , 也 代 表 CoBRA 演算法在數量越多的 Camera Sensor 中尋 找出近似理想佈點方式之防衛線。

六、結論

本論文在無線攝影機感測網路環境下,提出 了尋找防衛線的分散式演算法,利用節點位置資 訊,判斷節點之間能否夠達成感測連接,建立連 續之防衛線段,使區域具邊界覆蓋。分散式演算 法分為「角色設定」、「防衛候選節點評估」、「決 策回傳」三個部份。在「角色設定」與「防衛候 選節點評估」部份,節點依照位置設定角色並利 用訊息的傳遞,判斷並挑選合適鄰居為候選節 點,利用 BREQ 之訊息通知候選節點可形成感測 連接之條件,收到 BREQ 訊息之節點,按照訊息 內所夾帶之條件,尋找可延續防衛線之合適鄰 居,並同樣利用 BREQ 夾代條件通知鄰居。持續 到當某節點判斷可形成橫貫區域之防衛線時,則 判斷回傳 BREP 之訊息通知可形成防衛線之節點 相關定向資訊,令防衛線上之節點設定偵測方 向,以建立橫貫感測區域之防衛線。 本論文所提出的分散式演算法,除了可找到 防衛線之外,亦盡量使用較少的節點建立防衛 線,因此除了可以找出數組防衛線之外,也可有 效的減少網路節點的耗電,增加整體網路的運作 時間,使整個攝影機感測網路可持續肩負其任 務,從而達到本論文的目標。

七、致謝

本究感謝中華民國行政院國家科學委員會 研究計畫經費補助(NSC 98-2221-E-032-018)。

八、相關文獻

[1] J. Adriaens, S. Megerian, and M. Potkonjak, “Optimal Worst-Case Coverage of Directional Field-of-View Sensor Networks,” in

Proceedings of the 3rd IEEE Sensor and Ad Hoc Communications and Networks, 2006.

[2] I. F. Akyildiz, T. Melodia, Kaushik R. Chowdhury, “A Survey on Wireless Multimedia Sensor Networks,” Computer

(11)

Networks, pp. 921-960, October 2006.

[3] N. Bulusu, J. Heidemann, and D. Estrin, “GPS-less Low Cost Outdoor Localization for Very Small Devices,” IEEE Personal

Communications Magazine, vol .7, no. 5,

pp.28-34, 2000.

[4] K.-Y. Chow, K.-S. Lui, and E. Y. Lam, “Maximizing Angle Coverage in Visual Sensor Networks,” in Proceedings of the

IEEE International Conference on Communications (ICC), June 2007.

[5] J. Ford, “Telecommunications with MEMS Devices: an Overview,” Lasers and Electro-Optics Society, 2001.

[6] A. Galstyan, B. Krishnamachari, K. Lerman, S. Pattem, “Distributed Online Localization in Sensor Networks Using a Moving Target,” in

Proceedings of the ACM/IEEE International Symposium on Information Processing in Sensor Networks (IPSN), Apr. 2004, pp.

61-70.

[7] C.-F. Huang and Y.-C. Tseng, “The Coverage Problem in a Wireless Sensor Network,” in

Proceedings of the ACM International Workshop on Wireless Sensor Networks and Applications (WSNA), 2003, pp. 115-121.

[8] S. Kloder, S. Hutchinson, “Partial Barrier Coverage: Using Game Theory to Optimize Probability of Undetected Intrusion in Polygonal Environments,” in Proceedings of

the IEEE International Conference on

Robotics and Automation, (ICRA), 2008.

[9] S. Kumar, , T. H. Lai, , and A. Arora, “Barrier Coverage with Wireless Sensors,” in

Proceedings of the 11th Annual International Conference on Mobile Computing and Networking (MobiCom), 2005.

[10] P. A. Levis, “TinyOS: An Open Operating

System for Wireless Sensor Networks (Invited Seminar),” in Proceedings of 7th International Conference on Mobile Data Management (MDM), 2006.

[11] L. Liu, H. Ma, and X. Zhang, “Analysis for Localization-Oriented Coverage in Camera Sensor Networks,” in Proceedings of the

IEEE Wireless Communications and Networking Conference (WCNC), Mar. 2008.

[12] L. Liu, H. Ma, and X. Zhang, “Collaborative Target Localization in Camera Sensor Networks,” in Proceedings of the IEEE

Wireless Communications and Networking Conference (WCNC), Mar. 2008.

[13] C. Shen, W. Cheng, X. Liao, and S. Peng, “Barrier Coverage with Mobile Sensors,”

International Symposium on Parallel Architectures, Algorithms, and Networks

參考文獻

相關文件

It is a self calibration technique and called automatic camera tracking calibration technique and called automatic camera tracking or

Natural Video Matting using Camera Arrays Removing Camera Shake From a Single Photograph Coded Exposure Photography: Motion Deblurring Photo Tourism: Exploring Photo Collections in

• Michael Grossberg, Shree Nayar, Determining the Camera Response from Images: What Is Knowable, PAMI 2003. • Michael Grossberg, Shree Nayar, Modeling the Space of Camera

• Michael Grossberg, Shree Nayar, Determining the Camera Response from Images: What Is Knowable, PAMI 2003. • Michael Grossberg, Shree Nayar, Modeling the Space of Camera

1 camera sample and 16 shadow samples per pixel. 16 camera samples and each with 1 shadow sample

– Camera view plane is parallel to back of volume – Camera up is normal to volume bottom. – Volume bottom

1 camera sample and 16 shadow samples per pixel. 16 camera samples and each with 1 shadow sample

structure for motion: automatic recovery of camera motion and scene structure from two or more images.. It is a self calibration technique and called automatic camera tracking