• 沒有找到結果。

各種聲音之判定條件及系統流程

第三章 異常聲音偵測法

3.2 各種聲音之判定條件及系統流程

針對各種類別所選定之特徵,作為系統執行時對各種危急聲音之偵測依 據,如果條件皆不符合表示並無危急情況視為正常。綜合前面聲波分析的 結果(請參考表七)以及我們計算出的平均有聲波形區段跟資料庫裡面的各 個類別做相關性計算後所得到之結果。我們可以為各種危急聲音類別決定

其代表的特徵和最佳的臨界值。整個系統的主要判斷流程將如下:

„ 靜音偵測:N=0,即當一段五秒音訊訊號在處理過後,其分割段數為零, 就是無聲靜音狀態。

„ 咳嗽聲偵測:( M>5500 ) and ( 0.15<ZCR<0.2 ) ,即當一段五秒音訊訊號 Others

五秒資料流

Yes 正常

No

Yes 咳嗽

No

No 正常

Yes

呻吟

求救 喘息 正常

咳嗽偵測 靜音偵測

相關性計算

求救、呻吟和 喘息的偵測 計算 M/ZCR/N/Dn

在處理過後,其平均音量跟正規化零越率在其臨界範圍內,則判定為咳 嗽聲。

„ 相關性計算:當一段五秒音訊訊號,所分割出來的有聲波形區段和系統 內求救、呻吟、喘息之標準平均有聲波形區段計算相關性。當其中一個 有聲波形區段和求救相關性大於 0.7 或和呻吟相關性大於 0.9 或和喘息 相關性大於 0.8 則繼續下列的判斷條件。

„ 求救聲偵測:( N=3 or 4 ) and ( Dn=12000~15000 ),即當一段五秒音訊訊 號在符合求救聲相關性計算條件後,其分割段數和其中一個有聲波形區 段之波形持續時間在其臨界範圍內,則判定為求救聲。

„ 呻吟聲偵測:( N=1 or 2 ) and ( Dn=17000~29000 ) ,即當一段五秒音訊 訊號在符合呻吟聲相關性計算條件後,其分割段數和其中一個有聲波形 區段之波形持續時間在其臨界範圍內,則判定為呻吟聲。

„ 喘息聲偵測:( N=5 or 6 ) and ( Dn=3500~6500 ),即當一段五秒音訊訊號 在符合喘息聲相關性計算條件後,其分割段數和其中一個有聲波形區段 之波形持續時間在其臨界範圍內,則判定為喘息聲。

第四章 實驗結果

硬體設備:本系統使用 Intel Pentium 4 2.8 GHz,1G 記憶體之機器和無 線藍牙麥克風和 USB 藍牙接收器,如圖二十二至圖二十四所示 :

圖二十二:無線藍牙麥克風

圖二十三:USB 藍牙接收器

圖二十四:實際運用狀況

音訊格式:取樣頻率 16 KHz,解析度 16 bits,單聲道。

實驗環境和軟體平台:將圖二十二之無線藍牙麥克風掛於被看護者脖 子,以接收被看護者發出之聲音。搭配 Microsoft Direct Show 元件所撰寫的 音訊擷取程式,讓系統實際執行 150 分鐘,每一次處理之資料長度為五秒 且每隔一秒處理一次,所以有四秒的重疊,最後總共處理 8996 筆資料 (150*60-4),其中實驗過程包含一般人講話的聲音、電話鈴聲、電視聲音和 週遭的噪音,同時求救聲、呻吟聲、咳嗽聲和喘息聲各發生 150 次,其結 果和偵測率如表八:

表八 偵測結果與偵測率 150 次,並被正確辨識出 145、144、143、及 142 次。應被判定為沒事的狀 況則有 8396 次,當中發生 7 次的假警報。這七次假警報當中,以咳嗽聲四

第五章 結論

本論文提出一個可即時 ( Real-Time ) 偵測異常聲音之居家看護系統。

即在被看護者之身上掛一個輕巧的無線藍牙聲音接收器,隨時將被看護者 週遭的聲音加以接收並經由我們的系統處理,然後由系統判定所處理過後 之音訊訊號是否為危急聲音。是危急聲音時,則通知相關單位確認此被看 護者之實際狀況,正常聲音時則不發出任何警訊。實驗結果顯示對求救聲、

呻吟聲、劇烈咳嗽聲和喘息聲四種危急狀態之偵測準確率高達 94%~97%,

在假警報方面,僅只有 0.08%的發生率。本系統較以往以視訊為基礎之看護 系統更可以確保個人隱私,因為我們只需要在偵測到異常聲音時才需要去 注意此被看護者。否則一般正常情況時,我們不會主動監看被看護者此時 從事之行為,保護被看護者的隱私權。

未來的研究將繼續加強危急聲音偵測的準確率和進一步降低假警報 率,甚至希望可以偵測到更多的聲音類別,以確切落實一套實用的居家看 護系統可以百分之百的偵測出被看護者發出之危急聲音,同時希望不要太 常發出假警報之訊息,以免增加相關醫護人員處理次數之頻率。

文獻參考

[1] C. L. Huang and W. Y. Huang, “Sign Language Recognition using Model-Based Tracking and 3-D Hopfield Neural Network”, Machine Vision and Application, vol.10, no. 5, 1998, pp. 292-301.

[2] T. Y. Huang, M. L. Wu, T. Y. Chiang, Y. D. Lin and H. W. Chung, “Design and Implementation of a Fascimile Electrocardiographic System for Convenient Remote Monitoring“, National Taiwan University Engineer Magzine, vol.88, 2003, pp. 43-50.

[3] E. Wold, T. Blum, D. Keislar, and J. Wheaton, “Content-based classification, search, and retrieval of audio”, IEEE Multimedia, vol. 3, no. 3, Fall 1996, pp. 27-36.

[4] L. Guojun and T. Hankinson, “A technique towards automatic audio classification and retrieval”, in Proc. Int. Conf. Signal Processing’, vol. 2, 1998, pp. 1142-1145.

[5] E. Scherier and M. Slaney, “Construction and evaluation of a robust multifeature speech/music discriminator”, in Proc. Int. Conf. Acoustics, Speech, Signal Processing’97, Munich, Germany, April 1997, pp. 1331-1334.

[6] S. Rossignol, X. Rodet, and J. Soumagne et. al, “Feature extraction and temporal segmentation of acoustic signals”, in Proc. ICMC, Ann Arbor, Michigan, 1998, pp.

199-202.

[7] D. Li, I. K. Sethi, N. Dimitrova, and T. McGee, “Classification of general audio data for content-based retrieval”, Pattern Recognition Letters, vol. 22, no. 5, April 2001, pp.

533-544.

[8] T. Zhang and C.-C. J. Kuo, “Hierarchical classification of audio data for archiving and retrieving”, in Proc. Int. Conf. Acoustics, Speech, Signal Processing’, vol. 6, 1999, pp.

3001-3004.

[9] T. Zhang and C. C. J. Kuo, “Audio content analysis for online audiovisual data segmentation and classification”, IEEE Transactions on Speech and Audio Processing,

[10] E. Zwicker and H. Fastl, Psychoacoustics, Facts and Model Springer, 1990

[11] J. Saunders, “Real-time discrimination of broadcast speech/music”, in Proc. Int. Conf.

Acoustics, Speech, Signal Processing’, vol. 2, Atlanta, GA, May 1996, pp. 993-996.

[12] E. Zwicker and H. Fastl, Psychoacoustics, Facts and Model. Springer, 1990

[13] A. Abu-El-Quran, and R. Goubran, "Pitch-based feature extraction for audio classification", Proc. of the 2nd IEEE International Workshop on Haptic, Audio and Visual Environments and Their Applications, 2003. Ottawa, Canada, September 2003, pp.43-47.

[14] L. Wyse and S. Smoliar, “Toward content-based audio indexing and retrieval and a new speaker discrimination technique”, in Proc. ICJAI’95, Singapore, December 1995.

[15] D. Kimber and L. D. Wilcox, “Acoustic segmentation for audio browsers”, in Proc.

Interface Conf., Sydney, Australia, July 1996.

[16] R. S. Lin and L. H. Chen, “A new approach for classification of generic audio data”, in International Journal of Pattern Recognition and Artificial Intelligence, Vol. 19, No. 1, 2005, pp.63-78.

相關文件