• 沒有找到結果。

第二節 第二節

第二節 建議 建議 建議 建議

在本研究中,我們整合了音高偵測、掌聲速度偵測、音訊效果器以及MIDI 數位音樂介面,完成一項可應用於音樂表演場合的音訊互動裝置。在互動裝置的 開發方面,由於本研究採用低成本的耗材與設備來完成該互動裝置的開發,若採 用更為精準的硬體設備,在音高偵測與掌聲速度偵測的結果上,將可能得到更精 確的結果。在音訊互動裝置的應用上,本研究僅計畫將該互動裝置應用於音樂表 演場合,利用這樣的互動科技與互動方式加強音樂表演場合中,現場觀眾與音樂 表演者之間的雙向互動關係。在本小節中,我們將對本研究之互動裝置設備與設 計以及其應用上提出以下建議:

一 一 一

一、 、 、 、互動裝置設計的改進 互動裝置設計的改進 互動裝置設計的改進 互動裝置設計的改進

本研究採用容易取得且低成本的動圈式麥克風作為音訊互動裝置的輸入端 硬體,由於一般市售動圈式麥克風在出廠前並沒有經過精準的品質管理與收音特 性校正,因此即便以相同的收音設定於同類型的麥克風上,也無法保證收音的品 質與結果能夠具有一致性。因此在互動裝置的輸入端硬體裝置上,可以選擇具有 高度指向性且出廠前已經過特性校正的麥克風,如此將能夠有利於降低環境雜音 對音訊輸入之干擾。

在環境設置的方面,由於各音樂表演場合的現場空間大小不盡相同,因此在 互動裝置設置時,須考慮到可能會產生的環境雜音以及現場音樂的音量是否會對 裝置錄音時造成干擾,如果在現場相關設備設置時能先行對上述環境特性進行探 勘,如此可以避免收音時可能會造成的聲音雜訊干擾。

由於音樂表演場合的人數可能從數人到數萬人皆有可能,僅用單一麥克風非 常可能無法收錄到所有現場觀眾的情緒聲響,因此若能利用麥克風陣列的技術對 表演現場分區收音,將各區域所收錄得到之聲音訊號再行以精密的演算法進行處 理後再對應到裝置輸出端,或是在表演現場的頂端架設機械軌道,利用機械軌道

控制麥克風到指定的方位進行收音,如此將能夠達到更佳的收音效果。

二 二

二 二、 、 、 、互動裝置實際導入應用 互動裝置實際導入應用 互動裝置實際導入應用 互動裝置實際導入應用

在本研究的互動音訊效果器裝置設計中,我們提出並實做出一項音訊互動裝 置,藉由使用者對於裝置的音訊輸入,能夠改變音樂的音色、頻率,以及音樂的 速度節奏,達到與傳統音訊效果器不同的互動方式。然而本研究之最初目標,是 開發一項能夠增進音樂表演場合中現場觀眾與音樂表演者之間互動的裝置,因此 將音訊互動裝置實際導入音樂表演現場,並利用互動裝置的功能增進音樂表演的 互動效果,以音樂達到現場觀眾與音樂表演者之間的共鳴,是本研究設計該音訊 互動裝置的初衷,也是本研究的最終目標。

本研究所開發之音訊效果器裝置,若能夠進一步商業化成為實體電子裝置與 現有電子樂器搭配使用,或成為軟體或者軟體外掛插件進而與音樂表演軟體結合,

並以標準化的MIDI數位音樂傳輸介面讓互動音訊效果器與樂器或電腦之間傳輸 數位音樂訊號,如此將能夠便於音樂表演者將本研究之互動音訊效果器裝置加入 音樂表演場合中,利用該裝置加強與現場觀眾之間的互動,在音樂演出中達到與 現場觀眾之間的共鳴,能夠更加完善音樂表演內容的豐富性與多樣性。

參考文獻

201-217。

林俊良(2009)。人機介面的另一選擇:聲音。自動化科技學會會刊自動化科技學會會刊自動化科技學會會刊自動化科技學會會刊,9,50-60。

洪欣民(2011)。麥克風陣列音訊互動裝置設計及其應用之研究麥克風陣列音訊互動裝置設計及其應用之研究麥克風陣列音訊互動裝置設計及其應用之研究(未出版之碩士論麥克風陣列音訊互動裝置設計及其應用之研究 文)。國立臺灣師範大學,臺北市。

唐國豪(2003)。人與機器的對話。科學發展科學發展科學發展科學發展,368,18-23。

桂冠學術編輯室(譯)(1999)。音樂概論音樂概論音樂概論音樂概論(原作者:H. M. Miller, P. Taylor, & E.

Williams)。臺北市:桂冠圖書。

張戈、張旭(1996)。電腦音樂的製作與技巧電腦音樂的製作與技巧電腦音樂的製作與技巧電腦音樂的製作與技巧(第一版)。北京市:清華大學。

張紹勳(2000)。研究方法研究方法研究方法研究方法。臺中市:滄海。

郭學武(譯)(2009)。人機介面互動式系統設計人機介面互動式系統設計人機介面互動式系統設計人機介面互動式系統設計(原作者:D. Benyon, P. Turner, & S.

Turner)。臺北市:碁峰。

胡振傳(2011)。建構在行動裝置上的小型演唱會群眾互動系統建構在行動裝置上的小型演唱會群眾互動系統建構在行動裝置上的小型演唱會群眾互動系統(未出版之碩士論建構在行動裝置上的小型演唱會群眾互動系統

Benesty, J., Chen, J., & Huang, Y. (2008). Microphone array signal processing., Berlin, Germany: Springer-Verlag.

Borsook, T. K., & Higginbotham-Wheat, N. (1991). Interactivity: What is it and what can it do for computer-based instruction? Educational Technology, 31(10), 11-17.

Dubberly, H., Pangaro, P., & Haque, U. (2009). What is interaction? Are there different types? Interactions, 16(1), 69-75.

Jang, J. S. (n. d.). Audio signal processing and recognition. Retrieved from

http://mirlab.org/jang/books/audioSignalProcessing/basicFeaturePitch.asp?title=

5-4%20Pitch%20%28%AD%B5%B0%AA%29

Kapor, M. (1991). A software design manifesto. Dr. Dobb's Journal, 16(1), 62-67.

Kapoor, A., & Picard, R. W. (2002). Real-time, fully automatic upper facial feature tracking. Proceedings of the 5th International Conference on Automatic Face and Gesture Recognition 2002, 8-13. doi: 10.1109/AFGR.2002.1004123

Levin, G., & Liberman, Z. (2004). In situ speech visualization in real-time interactive installation and performance. Proceedings of the 3rd International Symposium on Non-Photorealistic Animation and Rendering (NPAR 2004), 7-14.

Lyons, M. J., Haehnel, M., & Tetsutani, N. (2001). The Mouthesizer: A facial gesture musical interface. In Colleen (chair.), Siggraph 2001: Electronic Art and

Animation Catalog. Symposium conducted at the meeting of the Association for Computing Machinery, Los Angeles.

Lyons, M. J., & Tetsutani, N. (2001). Facing the music: A facial action controlled musical interface. Proceeding of the Human Factors in Computing Systems, 309-310. doi: 10.1145/634067.634250

Merrill, D. (2003). Head-Tracking for gestural and continuous control of

parameterized audio effects. Proceedings of the NIME '03 Conference on New Interfaces for Musical Expression, 218-219.

Messick, P. (1998). Maximum MIDI music applications in C++. Fairfield,CT:

Manning.

Mitra, S. K. (2001). Digital Signal Processing: A Computer-Based Approach. New York, NY: McGraw-Hill.

Negroponte, N. (1996). Being Digital. New York, NY: Vintage Books.

Norman, D. A. (2002). The design of everyday things. New York, NY: Basic Books.

Pulte, D. M. (2005). The Messa di voce and its effectiveness as a training exercise for the young singer (Doctoral dissertation, The Ohio State University). Retrieved

from http://search.proquest.com/docview/305424918?accountid=14228 Reynolds, M., Schoner, B., Richards, J., Dobson, K., & Gershenfeld, N. (2001). An

immersive, multi-user, musical stage environment. Proceedings of the 28th annual conference on Computer graphics and interactive techniques, 553-560.

doi: 10.1145/383259.383324

Russell, S. (2009, February). Makin’ MIDI: mistralXG a USB connected, PIC-based MIDI Synthesizer. Nuts and Volts, 44-48.

Saffer, D. (2006). Designing for interaction. Berkeley, CA: New Riders Press.

Sensation (event). (2012, January, 10). In Wekipedia, the free encyclopedia.

Retrieved from http://en.wikipedia.org/wiki/Sensation_%28event%29 Tung, C. M. (n. d.). NCTU-Lessons: Microphones. Retrieved from

http://www.chaomingtung.info/recording/MICROPHONE.pdf

World News. (2008, December, 12). The voice painter a multimodal interface for painting with voice. Retrieved from

http://wn.com/The_Voice_Painter__A_Multimodal_Interface_for_Painting_with _Voice

Yakabuski, J. (2001). Professional Sound Reinforcement Techniques: Tips and Tricks of a Concert Sound Engineer. Irvine, CA: Hal Leonard.

Yoshimoto, H., & Hori, K. (2009). Fluff: Illuminating blimps and Music.

Proceedings of ACM Special Interest Group on Computer Graphics Conference and Exhibition in Asia. doi: 10.1145/1666778.1666780

相關文件