• 沒有找到結果。

中 華 大 學

N/A
N/A
Protected

Academic year: 2022

Share "中 華 大 學"

Copied!
57
0
0

加載中.... (立即查看全文)

全文

(1)

中 華 大 學 碩 士 論 文

題目:基於場景畫面分類產生深度圖

Depth-map Generation Based on Scene Classification

系 所 別: 資訊工程學系碩士班 學號姓名: M09402010 梁韻卉 指導教授: 鄭 芳 炫 教授

中華民國 九十六 年 八 月

(2)

摘要

因為立體影像比平面影像更逼真、效果也更好,因此立體視覺應用的範圍越

來越廣。而立體顯示原理是模擬人的雙眼視覺,立體影像對指的就是左眼和右眼

看到的影像,可直接由3D相機直接取得。但是因為3D相機價格昂貴取得不易,所

以我們希望能有一個方法,可以直接將現有的2D影像轉換成立體影像對。這樣即

可很輕易的享受到立體顯示的帶來的優點。但是景物在拍攝時,深度資訊並沒有

被保留下來。基於上述因素,我們希望能提出一個產生深度圖的方法。因為有了

深度圖,我們就可以經過計算得到立體影像對。

雖然場景畫面的深度資訊,在拍攝時並未被儲存起來,但在影像中還是有些

特徵仍然隱含著有關深度的資訊。例如各種影像類型的特性,也是一個有利的深

度資訊。所以我們先分析了幾種最常見的拍攝類型的畫面,希望能從場景畫面本

身的資訊得到它的深度資訊。再利用場景畫面的顏色資訊和特徵,將場景畫面做

分類。並且利用小波轉換取出高頻資訊,將影像作區塊切割。再根據不同的場景

畫面類型和構圖原則,而產生不同的深度圖。最後透過我們的深度圖,將原圖經

由位移產生立體影像對。利用立體螢幕顯示時,即可得到良好的立體視覺效果。

(3)

致謝

本文承蒙我的指導教授 鄭芳炫教授兩年來的悉心指導與諄諄教誨,使得我

兩年的研究生涯中獲得許多助益。不論是從觀念的啟迪、理論架構的建立、疑問

的解析,乃至於論文的竣稿,均不辭辛勞的悉心指導與不厭其煩地逐字斧正。師

恩浩瀚,永銘於心。僅此致上最誠摯的敬意與謝忱。

感謝在學期間 黃雅軒教授於專業知識之細心指導及指正,並提供寶貴意見

和建議。以及另外兩位口試委員 蘇文鈺教授和 林道通教授之不吝指教,讓這篇

論文更加完善。僅此致上由衷的謝意。

同時也要感謝實驗室的學長們在研究上的指導與討論,在遇到困難時給予

建議與協助。以及感謝同學們在這兩年內與我共同努力、互相砥礪,讓許多問題

都能夠迎刃而解,讓我得以順利完成研究。還有實驗室的學弟妹們在研究期間的

協助與精神上給予的鼓勵,心中感謝萬千。研究所這段路走的風風雨雨,有辛酸、

有挫折也有喜悅,我都點點滴滴在心頭。很高興大家有緣在一起,不管怎麼樣給

曾經關心我幫助我的人,致上我最衷心的感謝。

最後感謝我最愛的家人與朋友,感謝他們在這段期間給我的關心、支持與

鼓勵,讓我可以專心致力於研究的工作。特別感謝我的父母 梁正瑜先生 李春嬌

女士,感謝您 20 幾年來的付出與支持,才能成就今天的我。僅以此文獻給我摯

(4)

目錄

摘要...I 致謝...II 目錄...III 圖目錄... V

1 章 序論...1

1.1 研究背景與動機... 1

1.2 深度感受... 2

1.2.1 雙眼視覺... 2

1.2.2 心理因素... 5

1.3 論文架構... 7

2 章 相關研究...8

2.1 CID... 9

2.2 消失點... 10

2.3 MTD... 10

2.4 MULTI-VIEW... 11

3 章 場景畫面分類...12

3.1 HSI 色彩空間... 14

3.2 人臉偵測... 15

3.2.1 人臉的候選區域... 15

3.2.2 膚色判斷... 17

3.3 畫面場景之主體偵測... 18

3.3.1 小波轉換... 18

3.3.2 原始畫面與小波轉換後的結果之關係... 22

3.4 藍天草地之偵測... 26

4 章 深度圖...28

4.1 人物近照深度圖產生方法... 29

4.1.1 頭部區塊... 29

(5)

5 章 實驗結果與討論...38

5.1 實驗結果... 40

5.1.1 人物近照... 40

5.1.2 風景照... 41

5.1.3 特寫照... 42

5.2 討論... 44

6 章 結論與未來展望...46

(6)

圖目錄

圖 1-1 雙眼視差的範例 ...3

圖 1-2 光角的範例 ...4

圖 1-3 心理因素的範例 ...6

圖 2-1 CID 的原理,引用於[9]...9

圖 2-2 消失點與消失線的示意圖,引用於[10] ...10

圖 2-3 MTD 的原理,引用於[9]...11

圖 2-4 Multi-view 的範例 ...11

圖 3-1 場景畫面的類型 ...12

圖 3-2 場景畫面分類的流程圖...13

圖 3-3 人臉特徵偵測範例,引用於[12]...16

圖 3-4 integral image ...16

圖 3-5 人臉偵測結果 ...17

圖 3-6 小波轉換的流程圖 ...19

圖 3-7 小波轉換的結果範例 ...19

圖 3-8 小波轉換再二值化後的結果 ...21

圖 3-9 HH 的權重範例 ...22

圖 3-10 HL 的權重範例...23

圖 3-11 LH 的權重範例...23

圖 3-12 HH_2 的權重範例 ...24

圖 3-13 填補的流程圖 ...25

圖 3-14 主體偵測結果 ...26

圖 4-1 深度圖範例 ...28

圖 4-2 人體區塊示意圖 ...30

圖 4-3 填補的流程圖 ...32

圖 4-4 填補結果 ...33

圖 4-5 中心線 圖 4-6 人物近照主體深度圖曲線...34

圖 4-7 主體深度範例 ...35

圖 4-8 風景照主體深度圖曲線 ...36

圖 4-9 中心線 圖 4-10 特寫照深度圖曲線...37

圖 5-1 立體影像的結果 ...39

圖 5-2 人物近照的結果 ...40

(7)

圖 5-6 特寫照的結果 ...43 圖 5-7 特寫照的結果 ...44 圖 5-8 影像排列方式 ...44

(8)

第1章 序論

1.1 研究背景與動機

隨著科技的進步,多媒體的播放與擷取系統越來越成熟。所以我們對於視覺

上的享受也越來越要求,特別是在娛樂方面。不同於電視和電影等平面顯示器所

提供的畫面,我們雙眼所看到的景象中物體是具有前後位置的深度感。因此如何

使我們觀看影像或影片時能感受到有物體的深度距離,這就是立體視覺的目的。

因為立體視覺比一般平面的影像更逼真,可應用的領域也很廣:立體電影、立體

遊戲、醫學影像、立體影像電話…等,這些都是立體影像的範疇。

我們在觀看生活周遭的物體時,能很自然地看出物體間相對距離,這就是景

深。也是觀看電視或電影無法提供給我們的感受。雖然立體影像可以從立體相機

或立體攝影機直接得到,但是因為立體影像的設備尚未普及。因此價格不斐。如

果我們能將現有的影像或影片轉換成立體影像,則立體影像的應用將可以更普及

且也更便利。經由相機或攝影機所擷取出的影像都是平面影像,它的深度資訊並

沒有被儲存起來。如果我們能利用影像內的特徵找回深度資訊,我們即可利用深

度資訊位移原圖,產生立體影像。

大約在一百多年前,立體影像的技術就已經開始萌芽,Charles Wheatstone

(9)

現今叫做 Wheatstone 立體視鏡。立體影像的顯示原理就是模擬人的雙眼視覺,

我們將在下一節介紹雙眼視覺如何讓我們觀看物體時能感受到立體的效果。

1.2 深度感受

我們能輕易得感受到生活中物體間遠近距離,是因為我們的雙眼位於同一個

水平高度且位置大約間隔六公分。雖然雙眼各自看到的影像很像,但還是有些微

的不同。透過大腦的融合、成像在視網膜上,我們可以感受到物體間些微的距離,

因而有立體的視覺效果。因此,只靠單眼是無法感受到立體感。如果動物的雙眼

也是位在同一水平上且位隔幾公分,則牠也是能看到立體的影像。所以立體視覺

系統就是模擬雙眼視覺,只要能使左右眼影像各自看到該看到的影像,即可自然

地產生立體感。接著我們將介紹跟立體視覺有關的雙眼視覺和心理因素,如同[1]

所提到的。

1.2.1 雙眼視覺

人的雙眼在看物體時,能很自然的感受到立體感是因為雙眼視覺。雙眼視

差、光角、調節是三種可以產生立體視覺的生理因素。現在很多立體影像的顯示

技術都是根據雙眼視覺這種原理產生。

(10)

a. 雙眼視差

因為人的雙眼大約間隔六公分,這距離就被稱為視差。因為雙眼間

隔六公司,所以雙眼各自看到的影像雖然很像但還是有些微的不同。當

這兩張些微不同的影像投影到視網膜時,透過大腦的融合,我們可以很

自然地感知到物體的深度,如圖 1-1 所示。

圖 1-1 雙眼視差的範例

b. 光角

當我們在看一個物體時,雙眼與物體的夾角會隨著物體跟我們之間

的距離而有所改變。這夾角就稱為光角,如圖 1-2 所示。假如這物體離

(11)

物體間的夾角會比較小。因此我們可以經由光角的變化得知觀測物體的

距離,但是如果物體離我們的距離太大時,則變化就比較不明顯。

圖 1-2 光角的範例

c. 調節

人的雙眼就像相機一樣,眼睛的水晶體就像光學的透鏡一樣,差別

在於水晶體是有彈性的。水晶體為了調節影像成像在視網膜的位置,會

隨著我們所看的景物而有所調整。當我們在看一個較遠的物體時,眼睛

內的肌肉會使水晶體變得較厚;在看一個較近的物體時,眼睛內的肌肉

會使水晶體變得較薄,因此可以得知觀測物體的遠近。因此我們可由這

些身體的自然反應,得到物體的遠近距離。

(12)

1.2.2 心理因素

當我們在觀看週遭的事物時,除了生理上的因素,其實也是有些因素會影響

到我們的視覺感覺。同樣的,如果我們想要從影像中找出深度的資訊,就可以從

這些線索下手。

a. 遮蔽

當兩個物體有前後距離差異時,A 物體會遮蔽住 B 物體的一部份,則 A

物體是比 B 物體離我們更近,反之更遠。如果在影像中,物體有遮蔽的

情形,我們可以依據此特性得到物體間距離關係,如圖 1-3 所示。

b. 相對大小

當有兩個物體他們的外型是一樣的時候,通常距離我們較遠物體,看起來

會比較小,反之更近。在影像中,我們可依據此特性將相同類型的物體根

據大小得到他們的遠近關係,如圖 1-3 所示。

c. 紋理

通常我們在看生活周遭的事物時,較遠的事物我們比較看不清楚;較近的

事物我們看得比較清楚。在影像中也是,距離較近的紋理會比較清晰且銳

利;距離較遠的紋理會比較模糊。所以我們可以根據這種特性知道影像中

(13)

d. 線性透視

生活中平行的事物,例如:馬路、鐵軌..等。實際上在觀看時,他們並不

是平行的。沿著這些事物的邊線可以延伸,匯集到遠方的某一點。此點通

常代表的是目前景物中最遠的地方。在影像中也是,此點通常被稱為消失

點,匯集於消失點的線段被稱為消失線,我們可以依據消失線與消失點的

存在而估測出整個景物的深度走向。

圖 1-3 心理因素的範例

(14)

1.3 論文架構

儘管景物的深度資訊,在被拍攝時並沒有被保留下來。我們仍希望能從場景

畫面的特徵找回深度資訊,產生深度圖。首先,我們所提出的方法可分為兩個步

驟:首先,必須先根據場景畫面的特徵與色彩資訊及各種場景畫面類型的構圖原

則,將場景畫面做分類;最後,知道該場景畫面是屬於何種類型時,再依據場景

畫面類別的不同而有不同產生深度圖的方法。產生出深度圖後,我們可以利用

“Creating 3D stereoscopic Image from 2D Depth Image” [2],根據深度資訊位移原 圖產生立體影像對,最後再將立體影像對透過 3D 螢幕顯示,我們即可看到有立

體感的影像。

這篇論文架構如下:第二章,我們將介紹各種有關立體影像轉換的方法;第

三章,我們將介紹我們如何將場景畫面作分類;第四章,我們將介紹如何根據不

同的場景畫面類型而產生深度圖。第五章,就是我們的實驗結果與討論。最後,

我們在第六章介紹此論文的結果與未來展望。

(15)

第2章 相關研究

立體顯示原理是模擬人的雙眼視覺,將立體影像對經由立體顯示器播放。讓

左右眼看到各自該看到的影像,透過大腦的融合,使我們可以感受到影像的立體

視覺效果。因為立體影像來源取得不易,所以我們希望能將現有的影像轉換成立

體影像。接著我們將介紹幾種立體轉換的方法。

這些技術大約可被分為三個方向:單張影像[3][4]、影片[5][6][7]和多視角的

影像[8]。從單張影像產生立體影像:有人提出“Computed Image Depth Method

(CID) [9]”,將單張影像根據清晰度與銳利度估測出影像的深度;也有人根據影 像中的消失點消失線[10],推測出影像的深度走向。從影片:當影片中的物體移

動是呈水平移動時,有人提出“Modified Time Difference (MTD) [11]”,將影片轉

換成立體影片。第三個方向是從多視角的影像產生立體影像,因為物體間深度距

離,在拍攝時並沒有被儲存起來。如果利用兩台以上的相機,我們可以根據不同

視角的影像,得到正確的立體影像。以上這些方法都是為了讓觀看者能有立體的

視覺效果。在這章我們將詳細地介紹這些方法。

(16)

2.1 CID

我們在看一張照片時,雖然沒有立體的視覺效果。但是我們可以從影像中的

特徵資訊,得到物體間遠近距離。這些特徵資訊可以用來幫助我們得到影像的深

度資訊。例如:在影像中的物體如果是比較近時,它的清晰度和對比度將會比較

高。圖 2-1 就是 CID 這方法的流程圖。

一開始先將影像切成一個區塊一個區塊,再計算每個區塊的清晰度和對比

度。根據每個區塊的清晰度和對比度估測出深度。整張影像的深度只有遠、中和

近三階層,再利用色度將屬於同物體的區塊合併在一起。因為同物體的顏色幾乎

都很接近。而 CID 非常適合用來將單張影像轉換成立體影像。

圖 2-1 CID 的原理,引用於[9]

(17)

2.2 消失點

在生活周遭中平行的物體,在影像中卻可能會匯集到某一點,例如鐵軌或馬

路。這點通常指的是影像中最遠的地方,被稱為消失點。圖 2-2 是消失線與消失

點的範例。因此只要能在影像中找出消失點,我們即可利用消失點與消失線推測

出影像的深度走向。

圖 2-2 消失點與消失線的示意圖,引用於[10]

2.3 MTD

圖 2-3 表示的是 MTD 的原理。圖中有一隻鳥在山的前面,從左飛到右。如

果我們能同時將影片中的第二個畫面給右眼看,第四個畫面給左眼看。我們即可

到看立體的視覺效果,鳥是浮在山的前面。MTD 這方法很適合用在將影片轉換

成立體影片,特別是影片中的物體移動是呈水平時。但是當物體是呈垂直方向的

移動或移動速度太快時,MTD 的效果並不是很好。近幾年有很多的立體影片轉

換方法,都是根據 MTD 這個方法。再分析影片中物體的移動方向跟速度,選擇

不同的影片畫面給左右眼,產生立體影像。

(18)

圖 2-3 MTD 的原理,引用於[9]

2.4 Multi-view

因為立體影像的顯示原理就是模擬人的雙眼視覺,如果我們利用兩台相機在

左眼和右眼的位置拍攝同一景物,所得到的就是立體影像,如圖 2-4 所示。將立

體影像透過立體顯示器播放,我們即可看到立體的效果,並且此方法所得到立體

影像是正確的。因此也有人利用兩台以上的相機同時拍攝,因為相機的位置不

同,視角也不同。根據不同相機的畫面,推測得到此畫面的深度圖。因為可以根

據不同視角的畫面中,物體的位移量來判斷物體是遠是近。

(19)

第3章 場景畫面分類

我們在看生活週遭的事物時,能很直接的感受到週遭事物的遠近。但當我們

用相機或攝影機將畫面擷取下來時,場景的深度資訊並沒有被儲存起來。所以我

們希望能先將場景畫面做分類,再根據不同類型的畫面給予不同產生深度圖的方

式。在這章我們會介紹如何利用場景畫面的特徵和色彩資訊做分類,總共分三類 :

人物近照、風景照和特寫照,如圖3-1所示。

(a) 人物近照 (b) 風景照 (c) 特寫照 圖 3-1 場景畫面的類型

因為我們會根據場景的不同和需求而有不同的拍攝方式,而相同類型的畫面

都有相同的構圖原則。所以我們可以利用這些原理去分析場景,將場景畫面作分

類。當我們要拍攝的對象是比較小或是我們較感興趣的物體時,我們通常會選擇

近拍模式去拍攝。這種類型的畫面,焦距內的像素會非常的清楚而焦距外的像素

則會非常模糊,我們將這類型的畫面稱為特寫照。我們再將其他場景畫面分為風

景照和人物特寫,人物近照的構圖原則是因為人是我們拍攝的主體,所以人臉在

(20)

整張影像擁有比較多的比例。風景照的構圖原則是通常場景的上半部會是天空或

山,而下半部會是屬於草地或地面。

圖 3-2 是我們將場景畫面作分類的流程圖。首先我們會先將畫面的色彩空間

從 RGB 轉成 HSI。因為影像擷取系統所擷取出的影像格式是由 RGB 色彩空間組

成,但不便於影像處理的分析用。所以我們須先將色彩空間由 RGB 轉成 HSI。

我們會利用色彩的資訊和構圖原則去將畫面做分類及切割。接著,我們將詳細的

介紹我們的場景畫面分類方法。

(21)

3.1 HSI 色彩空間

通常利用影像擷取系統所得到的影像,色彩空間都是 RGB 組成。但是 RGB

色彩空間並不適用於描述色彩。因為 RGB 色彩空間是由 RGB 三個分量影像所

組成。因此為了將場景畫面中的色彩資訊作分析,我們常常將色彩空間由 RGB

轉成到 HSI。HSI 色彩空間是根據人們對彩色的描述而組成的,分為:色調、飽

和度和強度。利用式子 3-1,3-2,3-3 可以將 RGB 色彩空間轉成 HSI 色彩空間。飽

和度的範圍是[0, 1],色調的角度範圍是[0, 360]。例如,紅色相當於角度 0 度、

綠色相當於角度 120 度而 240 度相當於藍色。如果有一個顏色他的飽和度是 1,

色調是 0,則此顏色代表的是純的紅色。

⎩⎨

>

= ≤

H G

B if 360

G B if

θ

θ

(3-1)

⎪⎪

⎪⎪⎬

⎪⎪

⎪⎪⎨

− +

− +

=

12 2

1

)]

)(

( ) [(

)]

( ) 2[(

1 cos

B G B R G

R

B R G

θ R

[min( , , )]

) (

1 3

R G B

B G S R

+

− +

= (3-2)

) 3(

1

R G B

I

= + + (3-3)

(22)

3.2 人臉偵測

因為拍照時我們會很直接的就將焦距定在人臉的位置上,因此人臉在人物近

照中扮演很重要的角色。如果能在畫面中偵測出人臉區域,我們則可以判斷此場

景畫面是屬於人物近照;否則繼續作其他畫面類型的判斷。

通常我們在作人臉偵測時,會利用膚色當作特徵,但這是不夠的。因為人的

膚色本來就會有所差異,再加上會因為外在環境光線的影響而有所變化。所以我

們通常需要加上臉部特徵做偵測。首先利用人臉特徵找出可能是屬於人臉的區

域。再判斷膚色,如果偵測出的人臉區域不是落在膚色的範圍內,則可能是屬於

誤判的狀況。

3.2.1 人臉的候選區域

因為人臉可能會出現在畫面中的各個角落。如果以像素為基礎慢慢搜尋比對

人臉特徵的話,速度將會很慢。所以我們利用[12]所提出的 integral image 去加

快偵測人臉區域。首先利用圖 3-3 (a) 所表示的數個矩型特徵去找出人臉的眼睛

特徵,如圖 3-3 (b)所示。如果能從影像中找出人臉特徵,我們則先判斷此區塊是

屬於人臉的候選區域。

圖 3-4 所表示的是 integral image,在影像中(x, y)這個位置的像素值代表的是

(23)

(a) 矩型特徵 (b) 人臉特徵範例 圖 3-3 人臉特徵偵測範例,引用於[12]

=

y y x x

y x i y

x ii

'

' ,

'

'

, )

( )

,

(

(3.4)

利用 integral image 我們可以簡單地算出矩型特徵方塊的數值。例如在位置 1

的像素值指的是區塊 A 所有的像素值總和;位置 2 的像素值指的是區塊 A 加 B

的所有像素值總和;位置 3 的像素值指的是區塊 A 加 C 的所有像素值總和;位

置 4 的像素值指的是區塊 A 加 B 加 C 加 D 所有的像素值總和。最後利用 integral

image 的值運算,即可輕鬆的得到特徵值。我們使用 Intel’s open source computer

vision library [13]利用上述的方法作人臉偵測。

圖 3-4 integral image

(24)

3.2.2 膚色判斷

人臉偵測只單靠人臉特徵去找,仍有可能會造成誤判。如圖 3-5 所示,(a)

是人臉區域偵測正確之結果,(b)是人臉區域偵測錯誤之結果。

(a) 人臉區域偵測正確結果 (b) 人臉區域偵測錯誤結果 圖 3-5 人臉偵測結果

因此我們加上膚色去做辨別。我們利用式子(3.5),將判別為可能屬於人臉區

域的候選區域,色彩空間由 RGB 轉成 YCbCr。因為膚色在 YCbCr 色彩空間的聚

集密度最集中,分佈形狀隨著 Y 軸呈長條形分佈。我們利用“The study on Digital

Cosmetology and Preferred Color [14]”所提出的膚色範圍,當作人物主體膚色的分 佈界線,如式子(3.6)所示。影像中被偵測出的人臉區域,如果是屬於膚色,則此

人臉的候選區域則被判為人臉區域。如果人臉的候選區域不是屬於膚色,則此人

臉的候選區域則屬於誤判。如果在場景畫面中我們可以偵測出人臉區域,則將此

(25)

(3.5)

(3.6)

3.3 畫面場景之主體偵測

不管拍照時我們選用何種模式拍攝,我們通常會將焦距定在主體的位置。因

此在影像中主體的紋理總是比較清晰,也會擁有較多的高頻資訊。所以我們可以

利用這種特性,將影像中的主體切割出來。

3.3.1 小波轉換

近年來小波轉換被應用在很多領域,特別是在傳輸、壓縮或分析影像時。因

為小波轉換是種無失真的影像處理技術,可以將資訊分出高頻與低頻。圖 3-6 所

示的是一階小波轉換的流程圖。I(m, n)是一張灰階影像,經由高通濾波器和低通

率波器的處理。再做降階取樣,可得到四個不同頻率的子影像。

⎥ ⎥

⎢ ⎢

⎡ +

⎥ ⎥

⎢ ⎢

⎥ ⎥

⎢ ⎢

=

⎥ ⎥

⎢ ⎢

128 128

0

B G R

0.0813 -

0.4187 -

5 . 0

0.5 0.3313

1687 . 0

0.114 0.587 299 . 0

Cr Cb Y

⎩ ⎨

=

<

<

<

<

<

<

=

otherwise

0 ) , (

130) Cb

(86 170), Cr

(135 230), Y

(75 if 1 ) , ( C

y x YCbCr

y

x

bCr

Y

(26)

圖 3-6 小波轉換的流程圖

(a)

(b) (b)

(27)

圖 3-7 是場景畫面經由兩階小波轉換的結果。圖 3-7(a)指的是影像經過兩階

小波轉換後,各個頻率的名稱。圖 3-7(c)指的是將(b)做完兩階小波轉換的結果。

LH_2 和 LH 區塊依序是含有垂直方向的低頻和高頻資訊。HL_2 和 HL 區塊依序 是含有水平方向的低頻和高頻的資訊。而 HH_2 和 HH 區塊依序是含有水平和垂

直方向的低頻和高頻的資訊。小波轉換後的係數與原影像的頻率有密切的關係。

如果影像擁有較多高頻資訊,則小波轉換後係數不屬於零的個數也會較多。係數

值如果越高則表示此像素的能量越強。

因為拍照時我們通常會將焦距放在主體的上面,所以主體的紋理通常會比較

清晰且銳利因此也擁有較多的高頻資訊。所以我們將濾掉在高頻資訊中能量較低

的資訊,留下屬於主體的像素。因為小波轉換後的低頻資訊的係數絕對值通常都

比高頻資訊的係數絕對值來的大。通常在高頻資訊中係數值越大,越表示此像素

是很重要的資訊。所以在高頻資訊中出現低能量的像素有可能是屬於背景資訊,

而不是屬於主體資訊。所以我們需要設臨界值將像素分為兩類,像素值大於臨界

值的則當作是重要像素;小於臨界值的則當作是不重要的像素。這裡的重要資

訊,指的是可能是屬於主體的像素。

(28)

(a)臨界值設 0 (b) 臨界值設 5 圖 3-8 小波轉換再二值化後的結果

圖 3-8(a)是畫面做完兩階小波轉換後再二值化後的結果圖,臨界值為 0。像

素值小於 0 的,像素為黑;像素值大於 0 的,像素為白。圖 3-8(b)是做完兩階小

波轉換後再二值化後的結果圖,臨界值為 5。像素值小於 5 的,像素為黑;像素

值大於 5 的,像素為白。從圖 3.9 的結果我們可以得知在高頻區域,像素為白的

幾乎都是屬於主體。所以我們給予這四個區塊圖 3-8(a)的 HH 和圖 3-8(b)的 HL、

LH 和 HH_2 不同的權重,利用這四個區塊的資訊將場景畫面中的主體偵測出 來。這四個區塊的權重會依它所擁有的資訊重要性而定。HH 區塊是小波轉換後

擁有最高頻資訊的子影像,所以他擁有的資訊是最重要,權重也是最大。HL 和

LH 區塊擁有的高頻資訊是第二,因此權重也是給第二大。而 HH_2 區塊的權重 則是給最低。

(29)

3.3.2 原始畫面與小波轉換後的結果之關係

小波轉換後的結果係數和原始影像有密切的相關。因為小波轉換後的影像大

小會被降階,因此我們需要先知道小波轉換後的資訊是對應到原影像的何處,再

分析小波轉換後的係數與原始影像的關係。

圖 3-9 到 12 是表示小波轉換後的結果對應到原始影像的關係。圖 3-9 是 HH

區塊與原始影像的關係。圖 3-9(a)是小波轉換後的空間頻域,(b)是原始畫面的空

間頻域。假設一個原始影像的大小是 8*8,作一階小波轉換後 HH 區塊影像大小

會變成 4*4。在 HH 子影像的一個像素要反推回到原影像的相對位置時,一個像

素得會代表 2x2 的區塊。因為 HH 的權重最大,我們利用右下角的像素當作基底,

擴展成 5x5 的區塊,如圖 3-9(c)所示。

(a) 原始畫面 (b) 小波轉換後 (c) 圖 3-9 HH 的權重範例

圖 3-10 是 HL 區塊與原始影像的關係。圖 3-10(a)是小波轉換後的空間頻域,

(b)是原始畫面的空間頻域。假設一個原始影像的大小是 8*8,作一階小波轉換後

(30)

對位置時,一個像素得會代表 2x2 的區塊。因為 HL 的權重是第二大,我們利用

右下角的像素當作基底,擴展成 3x3 的區塊,如圖 3-10(c)所示。

(a) (b) (c) 圖 3-10 HL 的權重範例

圖 3-11 是 LH 區塊與原始影像的關係。圖 3-11(a)是小波轉換後的空間頻域,

(b)是原始畫面的空間頻域。假設一個原始影像的大小是 8*8,作一階小波轉換後

LH 區塊影像大小會變成 4*4。在 LH 子影像的一個像素要反推回到原影像的相 對位置時,一個像素得會代表 2x2 的區塊。因為 LH 的權重是第二大,我們利用

右下角的像素當作基底,擴展成 3x3 的區塊,如圖 3-11(c)所示。

(31)

圖 3-12 是 HH_2 區塊與原始影像的關係。圖 3-12(a)是小波轉換後的空間頻

域,(b)是原始畫面的空間頻域。假設一個原始影像的大小是 8*8,作兩階小波轉

換後 HH_2 區塊影像大小會變成 2*2。在 HH_2 子影像的一個像素要反推回到

原影像的相對位置時,一個像素得會代表 4x4 的區塊。因為 HH_2 的權重是最

小的,我們利用右下角的像素當作基底,擴展成 2x2 的區塊,如圖 3-12(c)所示。

(a) (b) (c) 圖 3-12 HH_2 的權重範例

經由上述方法留下這些重要資訊則,是我們判斷屬於主體的像素。我們需要

再用型態學的膨脹,將這些像素整合在一起。但通常都還會留著一些雜訊屬於背

景的像素佈滿整張影像,光用型態學的侵蝕很難將所有的雜訊消掉。再加上因為

主體區塊的個數只有一個,所以我們只留下最大的那個區塊,並稱這個區塊為主

體區塊。其餘的像素都可以設為背景區塊。流程圖如 3-13 所示。將像素間空洞

差距小於臨界值的補起來,在圖 3-13 的臨界值是 2。

(32)

圖 3-13 填補的流程圖

經由上述這幾個步驟,我們可以擷取出場景畫面中主體的區塊,結果如圖

3-14 所示。圖 3-14(a)是風景照原圖,(b)是它的主體偵測結果,白色區塊就是偵 測為主體區塊的結果;圖 3-14(c)是特寫照原圖,(d)是它的主體偵測結果,白色

區塊就是偵測為主體區塊的結果。

(33)

(a) 風景照原圖 (b) 風景照主體偵測結果

(a) 特寫照原圖 (b) 特寫照主體偵測結果 圖 3-14 主體偵測結果

3.4 藍天草地之偵測

因為風景照的構圖原則是場景的上半部大部分是天空或是山,場景的下半部

大部分是草地或地面。因此我們將利用顏色的資訊,判斷場景畫面是否屬於風景

照。為了降低主體區塊的顏色可能會造成整張影像的誤判,所以我們不將主體列

入分析。利用色調和飽和度還有亮度將其餘區塊作分析,判斷此畫面是否屬於風

景照。

(34)

藍天草地的顏色判斷公式如下:

⎪⎪

⎪⎪

<

<

<

<

<

<

<

<

=

otherwise

, 0

object to belong not does y) i(x,

, ) 255 ) , ( 100

( ) 180 ) , ( 100

( , 1

object to belong not does y) i(x,

, ) 255 ) , ( 80

( ) 100 ) , ( 50

( , 1

) ,

( Hue x y and Intensity x y

y x Saturation and

y x Hue

y x

O (3.5)

∑∑

=

=

=

1

0 1

0

) , (

m

x n

y

Outdoor

O x y

V

(3.6)

⎩⎨

= >

otherwise

, image

V , image )

,

( Outdoor

up Close

threshold Outdoor

y x

i

(3.7)

因為風景照中大部分是由天空、山和草地所組成。因此我們設天空和草地的

顏色範圍為色調介於 50 到 100 且飽和度介於 80 到 255 的像素屬於草地或山。色

調介於 100 到 180 且強度介於 100 到 255 的像素屬於天空。最後我們將色調、飽

和度和亮度正規劃化到 0-255,根據我們設的天空草地的顏色範圍,利用式子

3.5,3.5 和 3.7 判斷場景畫面是否屬於風景照。i(x, y)是代表原始畫面,原始畫面 中的像素如果不是屬於主體,且符合我們所設的藍天草地的顏色,最後符合的像

素個數佔大部分時,將此場景畫面判斷為風景照。否則判斷為特寫照。

(35)

第4章 深度圖

深度圖是用來記錄影像的深度資訊。深度圖和原始影像有相同的大小,通常

是用灰階圖來表示,深度值是介於 0-255。像素値越接近 0 則表示此像素離觀看

者很遠,像素値越接近 255 則表示此像素距離觀看者很近,如圖 4-1 所示。

深度圖除了用來記錄影像的深度資訊,還可利於 3D 立體電視的影像傳輸。

因為 3D 電視在播放立體影片時,一個立體畫面會需要傳輸左右兩眼的影像,這

在傳輸上會非常的耗時。如果此時一個立體畫面是傳一張原始影像和它的深度

圖,到螢幕端時再利用深度資訊位移原圖而產生左右眼的立體影像。因為深度圖

是一張灰階影像,所以在影像傳輸上面則會加快許多。

我們在上一章介紹了如何將場景畫面簡單的分為人物近照、風景照和特寫

照。在這章我們將介紹如何根據不同的場景畫面類型而給予不同的深度圖產生方

法。首先我們會先將場景畫面分成幾個區塊,再根據不同區塊的特性而給深度值。

圖 4-1 深度圖範例

(36)

4.1 人物近照深度圖產生方法

當我們在拍人物照時,通常會將人物設為我們的主體,其餘則是屬於背景的

部分。因此整張畫面我們可以分為主體與背景,而主體區塊可分為頭部區塊與身

體區塊兩大區塊。在畫面中除了主體區塊以外的區域都被稱為背景區塊。因此我

們可以利用上一章所找的人臉區域的位置,推測出主體區塊的位置,再利用顏色

資訊將主體區塊偵測出來。

4.1.1 頭部區塊

在上一章所偵測出的人臉區域只包含眼睛、眉毛、鼻子和嘴巴,所以我們可

以利用人臉區域的大小推測出頭部區塊和身體區塊可能出現的位置。如圖 4-2 所

示,我們設頭部區域的寬大約是人臉區域的兩倍,高大約是人臉區域的一點五

倍。而人臉區域的四個頂點座標分別是(x1, y1)、(x2, y2)、(x3, y3)和(x4, y4)。紅

色方形框框表示的是人臉區域,藍色方形框框表示的則是頭部區域。用下列式子

可以得到頭部區域座標。

5 6 ), 2 / ) 1 2 ((

2 6

)/2) 1 3 ((

- 1 5 ), 2 / ) 1 2 ((

1 5

y y x

x x

x

y y y y x

x x x

=

− +

=

=

=

(37)

圖 4-2 人體區塊示意圖

頭部區域只是頭部區塊可能出現的範圍,接著我們將介紹如何偵測頭部區

塊。頭部區塊大約是由膚色或頭部特徵所組成,頭部特徵指的是頭髮、眉毛、眼

睛、嘴巴…等。因為頭部特徵在影像中的灰階值都比較低,因此我們可以假設頭

部區域中像素的顏色介於某個門檻值時,則將此像素判為屬於頭部特徵。接著我

們將算出此畫面中的膚色區塊。因為在現實生活中,每個人的膚色皆有所不同,

再加上拍攝時環境與光線的影響,在畫面中每個人物主體的膚色都不一樣。因此

我們利用人臉區域中最常出現的色調和飽和度當作是此人物主體的膚色。所以在

頭部區域中,像素的顏色和此人物主體的膚色很接近時,我們則將此像素判為屬

於膚色區塊。最後將我們所找出的膚色區塊和頭部特徵區塊合併在一起,即是頭

部區塊。

(38)

4.1.2 身體區塊

在上一小節找出頭部區塊後,我們將利用相同方法偵測出身體區塊。如圖

4-2 所示,我們假設人臉區域以下三倍人臉區域寬度的範圍,皆是屬於身體區塊 可能出現的區域,稱為身體區域。人臉區域的四個頂點座標分別是(x1, y1)、(x2,

y2)、(x3, y3)和(x4, y4)。紅色方形框框表示的是人臉區域,綠色方形框框表示的 則是身體區域。用下列式子可以得到身體區域座標。

height y

x x

height y

x x

y y x

x x x

y y x

x x x

=

=

=

=

=

− +

=

=

=

12 , 8 12

11 , 9 11

, 4 10 ), 3 4 ( 4 10

, 3 9 ), 3 4 ( 3 9

(4.2)

身體區域只是身體區塊可能出現的範圍,接著我們將介紹如何在身體區域中

偵測出身體區塊。身體區塊大約是由膚色和上衣所組成。此區塊出現的膚色可能

是屬於脖子或是手臂的部分。首先我們將身體區域中最常出現的色調和飽和度當

作是此物體的上衣的顏色。因此在身體區域中,像素的顏色和此上衣的顏色很接

近時,我們則將此像素判為屬於上衣區塊。在身體區域中,像素的顏色和此主體

的膚色很接近時,則此像素則被判為屬於膚色區塊。最後將我們所找出的膚色區

(39)

利用上述的步驟求得頭部區塊和身體區塊,我們將頭部區塊和身體區塊這兩

區塊利用型態學的膨脹組合在一起。通常都還含有誤判的雜訊,並且我們認為主

體區塊應該是完整的。所以我們會填補小空隙的區塊,只留下區塊個數最大的當

作主體區塊,其餘的皆視為雜訊區塊。流程圖如 4-3 所示。將像素間距離差距小

於臨界值時,則將空洞補起來,圖 4-3 的空隙臨界值是設 2。圖 4-4(a)是空洞尚

未補起來前,(b)是空洞補起來後的結果。

圖 4-3 填補的流程圖

(40)

(a) 主體區塊未補洞前 (b)主體區塊補洞後 圖 4-4 填補結果

人物近照中的主體區塊偵測好後,剩下的區域則判為背景區塊。當人物近照

的區塊都分割好後,我們需要先找出主體區塊的中心線,如圖 4-5 所示。因為中

心線可用來輔助產生主體的深度圖。因為實際上人體的形狀是屬於接近圓柱狀,

在主體區塊的邊緣附近的深度變化比較激烈,越中間則越趨於平緩。剛好 Log

曲線符合這種原理,所以主體的深度值是依據 Log 曲線而定。對於較靠近邊緣

的像素映射到一個範圍較寬的深度,對於較靠近中心線的像素則映射到範圍較窄

的深度。深度圖的給法如圖 4-6 所示,Y 軸是主體區塊的深度範圍,X 軸是主體

水平方向的距離,最左邊是水平方向的邊緣,最右邊指的是中心線。主體區塊內

的像素深度值依據此像素在邊緣與中心線的比例,再根據 Log 曲線對應到該有

的像素值,且主體區塊內的深度是左右對稱。為了要讓主體的立體效果突出,我

們將主體區塊的深度範圍設為 100-255;而背景是屬於最遠的地方,則將背景的

(41)

圖 4-5 中心線 圖 4-6 人物近照主體深度圖曲線

4.2 風景照深度圖的產生方法

風景照通常可分為三個區塊,分別是前景、主體和背景。背景可能是天空或

是山,位於場景畫面的上半部。前景可能是草地或地面,位於場景畫面的下半部。

主體通常可能是建築物,垂直於前景,位於場景畫面的中間。在上一章,我們偵

測出風景照的主體區塊後。我們可以很直接的將位於主體上方的區塊判斷為背景

區塊,將位於主體下方的區塊判斷為前景區塊。

因為天空的色調很單純、紋理也很少,因此它的立體感也比較不明顯。所以

天空的深度值是給單一數值而不給漸層的深度值,並且背景是屬於最遠的地方,

所以深度值給 0。建築物在現實生活中通常是垂直於地面與拍攝者呈平行,因此

建築物的深度值也是給固定深度值。我們可以從場景畫面中利用建築物的面積與

位置,推測出建築物的深度。通常建築物位於畫面中高度越高,代表離拍攝者越

(42)

遠,反之越近。因此我們可以根據主體的位置而給深度值,越接近畫面頂端深度

值越接近 0,越接近畫面底部深度值越接近 255,如圖 4-7 所示。

圖 4-7 主體深度範例

草地區塊通常是屬於場景畫面中最接近拍攝者的,它的深度變化是離場景畫

面底端越近的,表示離拍攝者越近。離場景畫面底端越遠的,表示離拍攝者越遠。

通常草地區塊最遠的地方指的是草地與建築物的交界處,最近的地方指的是場景

畫面的底端。因此深度值的範圍是介於主體的深度到 255。草地區塊的深度值可

以依據 Log 曲線圖而定。因為通常草地接近主體的地方深度變化比較激烈,越

接近場景畫面底端則越平緩。剛好 Log 曲線符合這種原理,所以是用 Log 曲線

圖對應得到深度。深度值的給法如圖 4-8 所示,Y 軸是草地區塊的深度範圍,X

軸是草地區塊的距離,最左邊是草地最遠的地方,最右邊指的是草地最近的地

方。草地區塊內的像素深度值依據此像素在草地遠近距離的比例再對應 Log 曲

線到該有的像素值。

(43)

圖 4-8 風景照主體深度圖曲線

4.3 特寫照深度圖的產生方法

利用近拍模式拍攝出來的照片,對到焦的影像將會很清晰,其餘影像會很模

糊。通常我們在拍的時候,都會將焦距對在我們想拍的物體上。因此我們可以將

特寫照分為兩個區塊:主體區塊和背景區塊。在上一章,我們已經先偵測出主體

區塊,其餘部分我們可以判斷為背景區塊。

當區塊都分割好後,我們需要先找出主體區塊的中心線,如圖 4-9。中心線

可用來輔助產生主體的深度。因為主體的形狀是屬於近似圓柱狀,因此在主體區

塊的邊緣附近的深度變化比較激烈,越中間則越趨於平緩。剛好 Log 曲線符合

這種原理,所以主體的深度值是依據 Log 曲線而定。對於較靠近邊緣的像素映

射到一個範圍較寬的深度,對於較靠近中心線的像素則映射到範圍較窄的深度。

深度的給法如圖 4-10 所示,Y 軸是主體區塊的深度範圍,X 軸是主體水平方向

的距離,最左邊是水平方向的邊緣,最右邊指的是中心線。主體區塊內的像素深

(44)

度值依據此像素在邊緣與中心線的比例,再根據 Log 曲線對應到該有的像素值,

且主體區塊內的深度是左右對稱。為了要讓主體的立體效果突出,我們將主體區

塊的深度範圍設為 150-255。而背景是屬於最遠的地方,則將背景的深度值設為

0。

圖 4-9 中心線 圖 4-10 特寫照深度圖曲線

(45)

第5章 實驗結果與討論

在這章我們將介紹利用我們所提出的方法所產生的深度圖,最後再討論透過

我們的深度圖而產生的立體影像結果。在這實驗中我們所測試的彩色影像大小皆

是 512*512。最後我們透過謝榮修學長所提出的“Creating 3D stereoscopic Image

from 2D Depth Image”,利用我們的深度圖位移原圖產生出立體影像對,如圖 5-1 所示。圖 5-1(a)是原始畫面,(b)是深度圖,(c)是位移後的左眼影像,(d)是位移

後右眼影像,(e)是補洞後的左眼影像,(f)是補洞後的右眼影像,(g)是左右眼影

像插排圖。將影像中的空洞的地方補起來,即可得到立體影像對。

這方法是利用 DIBR(depth-image-based rendering)[15]的原理,產生出左右眼

的影像,並將空洞的區域補起來。最後透過立體顯示器播放,觀看我們所產生的

立體影像,即可獲得良好的視覺效果。

(a) 特寫照 (b) 深度圖

(46)

(c) 未補洞前的左眼 (d) 未補洞前的右眼

(e) 補洞後的左眼 (f) 補洞後的右眼

(47)

5.1 實驗結果

5.1.1 人物近照

圖 5-2 和 5-3 是人物近照的結果。(a)是人物近照,(b)是人臉區域的偵測結果。

而在(c)中白色指的是主體區塊,黑色指的是背景區塊。(d)是找出主體區塊中心

線的結果,紅色就是中心線,(e)則是我們所產生的深度圖。背景區塊的深度值

是 0,主體區塊的深度範圍是 100-255。

(a) (b) (c)

(d) (e) 圖 5-2 人物近照的結果

(48)

(a) (b) (c)

(d) (e)

圖 5-3 人物近照的結果

5.1.2 風景照

圖 5-4 和 5-5 是風景照的結果。(a)是風景照的原始影像;(b)是在風景照中偵

測主體區塊的結果,白色區塊指的是主體區塊,其餘兩區塊,在上方的是背景區

塊,下方的是前景區塊;(c)是我們所產生的深度圖。背景區塊的深度值是 0,主

體區塊的深度值是 80,前景區塊的深度範圍是 80-255。

(49)

(a) (b) (c) 圖 5-4 風景照結果

(a) (b) (c) 圖 5-5 風景照結果

5.1.3 特寫照

圖 5-6 和 5-7 是特寫照的結果圖。(a)是特寫照的原始影像;(b)是在特寫照中

偵測主體區塊的結果,白色區塊指的是主體區塊,黑色區塊是屬於背景區塊;(c)

是找出主體區塊中心線的結果,紅色就是中心線;(d)則是我們所產生的深度圖。

背景區塊的深度值是 0,主體區塊的深度範圍是 175-255。

(50)

(a) (b)

(c) (d) 圖 5-6 特寫照的結果

(a) (b)

(51)

(c) (d) 圖 5-7 特寫照的結果

5.2 討論

從實驗結果我們可以得知,影像區塊如果切割的好效果也會很好。CID 這方

法是先將影像切成一個區塊一個區塊,利用清晰度和銳利度而給每區塊深度。再

根據區塊的顏色將區塊合併在一起,因此所看到的立體視覺可能會是破碎的。而

我們所提出的方法是根據不同影像類型而有不同產生深度圖的方法,並且還會根

據不同的影像類型而將影像分成幾個區塊。因此所看到的效果比較好。

(52)

圖 5.5 指的是人在觀看立體螢幕播放左右眼影像時的結果,在螢幕中左右眼

影像是交錯排列。因為螢幕前有個遮罩,使得眼睛一隻只會看到一個影像。在位

置 A、C 和 E,我們的眼睛會看到正確的立體影像。左眼是看到左眼影像,右眼

是看到右眼影像。但在位置 B 和 D,我們的眼睛會看到錯誤的立體影像,因為

左眼會看到右眼影像,右眼是看到左眼影像。因此最大的位移量大約是兩眼間距

離的兩倍。

而在位移產生左右眼影像時,每個像素會根據深度值而有不同的位移量。深

度值越大的像素位移量越大,深度值越小的像素位移量越小。因此在產生立體影

像時,最多是位移兩眼間距離的兩倍,大約是 12 個像素。深度圖中深度值的範

圍是 0-255,因此大約深度值差異 22,會位移一個像素。

當影像中的區塊深度值範圍很大時,我們所看到的視覺效果會是一片一片,

而不是平滑。特別是風景照中的前景。這是因為深度圖的解析力不夠,未來若能

將位移量降低到半個像素,提高表達深度的階層,立體效果將會更好。

(53)

第6章 結論與未來展望

因為場景畫面的深度資訊在拍攝時,就已經消失。所以我們希望能利用畫面

中的特徵和資訊,找回該場景的深度資訊。首先利用場景畫面的色彩資訊和特徵

將場景分為三種類型,再根據不同的場景類型而有不同產生深度圖的方法。透過

我們的深度圖而產生的立體影像,經由立體螢幕播放時,我們可以感受到立體的

效果。因為我們除了先將場景畫面做分類,也利用場景畫面的特性做區塊切割。

因此透過我們產生出的深度圖所產生的立體效果,看起來的效果並不會很突兀或

有錯誤的現象產生。

我們提出的方法仍有些限制,例如拍攝人物近照時,衣物的紋理不能太複

雜,顏色也必須很單純。人的姿勢必須是正面,不能是側躺或趴著。未來我們將

朝下面兩個方向繼續改進:

1. 增加深度圖的解析力

深度圖的解析力如果能提升,立體的視覺效果將會更好。因為目前的深度圖

是用灰階圖表示,像素在位移時,只能位移至少一個像素。未來若能位移半

個像素,且立體顯示設備也能配合時,這樣視覺效果將會更平滑、更符合人

眼的視覺感受,不會是一片一片。

(54)

2. 提高場景畫面分類與區塊切割的結果

未來若能增加場景畫面的類型分類與區塊的切割能做的更好時,立體視覺效

果也會更好。也許我們可以利用影像的資料庫進行特徵比對,將場景畫面的

類型分的更好或分成更多的種類;增加場景畫面內的區塊切割個數,這樣深

度變化將會更多元,也更準確。

(55)

參考文獻

[1] 劉榮政,國立中央大學 光電科學研究所 “平面螢幕之立體影像設計” 碩士 論文 1999

[2] 謝榮修, 私立中華大學資訊工程研究所 ”從二維影像深度圖創造 3D 立體影 像” 碩士論文 2006

[3] C. C. Lin, C. L. Chin, K. K. Fan and C.Y. Lin, “A novel architecture for

converting single 2D image into 3D effect image,” Conference of IEEE, pp. 1-10,

May 2005

[4] V. Cantoni, L. Lombardi, M. Porta, N. Sicari, “Vanishing Point Detection:

Representation Analysis and New Approaches”, Dip. di Informatica e

Sistemistica – Università di Pavia IEEE 2001.

[5] S. Curti, D. Sirtori, F. Vella, "3D Effect Generation from Monocular View", In

IEEE Proc. of - 3DPVT’02 International Symposium on 3D Data Processing

Visualization and Transmission, pp. 550 –553, 2002.

[6] P. Harman, J. Flack, S. Fox, M. Dowley, “Rapid 2D to 3D Conversion”, In Proc.

SPIE Vol. 4660, Stereoscopic Displays and Virtual Reality Systems IX, pp.

78-86, 2002.

(56)

[7] C. H. Choi; B. H. Kwon; M. R. Choi; “A real-time field-sequential stereoscopic

image converter”, Journal of IEEE, Volume 50, Issue 3, pp. 903-910, Aug

2004

[8] L. Jong-Ho, K. Jung-Jin, K. Eun-Soo “Adaptive Stereoscopic Image Conversion

of 2D Image” Proceedings of SPIE Vol. 4471 ,2001

[9] H. Murata, Y. Mori, S. Yamashita, A. Maenaka, S. Okada, K. Oyamada, S.

Kishimoto, Sanyo Electric Co., Ltd., and Osaka, Japan, “A Real-Time Image

Conversion Technique Using Computed Image Depth,” SID SYM, Vol. 29, pp

919-922, 1998.

[10] S. Battiato, A. Capra, S. Curti, M. La Cascia “3D Stereoscopic Image Pairs by

Depth-Map Generation” In IEEE Proc. of - 3DPVT’02 International Symposium

on 3D Data Process Visualization and Trandmission, 2004.

[11] T. Okino, H. Murata, K. Taima, T. Iinuma, and K. Oketani, “New television with

2D/3D image conversion technologies,” Proc. SPIE Vol. 2653, p. 96-103,

Stereoscopic Displays and Virtual Reality Systems III, 1996.

[12] P. Viola and M. Jones, “Rapid Object Detection using a Boosted Cascade of

Simple Features,” IEEE Conf. on Computer Vision and Pattern Recognition,

(57)

[13] Intel’s open source computer vision library,

http://www.intel.com/technology/computig/opencv/index.htm

[14] 陳汶鍠, 私立中華大學資訊工程研究所 ”數位化妝術與喜好色之研究”碩士 論文 2004

[15] Liang Zhang; Tam, W.J, “Stereoscopic Image Generation Based on Depth

Images for 3D TV,” Journal of IEEE, Volume 51, Issue 2, pp. 191-199, June

2005

參考文獻

相關文件

print –dtiff my_image.tif: 將目前指定的圖形,產生 TIFF 格式的影像檔,並以my_image.tif 的檔名儲存。.

„ 移動滑鼠游標到縮圖上, 移動滑鼠游標到縮圖上, ACDSee會自動顯示放大 ACDSee 會自動顯示放大 的縮圖

B3-4 DEEP LEARNING MODEL COMPRESSION BY NETWORK SLIMMING Ching-Hao Wang (王敬豪), Shih-Che Chien (簡士哲), Feng-Chia Chang (張峰嘉), and Wen-Huang Cheng (鄭文皇). B3-5

• Similar to Façade, use a generic face model and view-dependent texture mapping..

倒傳遞神經網路的演算法使 SPOT 假色影像轉換到 SPOT 自然色影 像。影像的結果。(3)以不同天的 SPOT 假色影像進行網路回想,產 生

隨著影像壓縮技術之進步、半導體科技之快速發展、無線通訊技術與數位傳送輸技術

Mutual information is a good method widely used in image registration, so that we use the mutual information to register images.. Single-threaded program would cost

現在, 蘇珊想要做出一個6 個小立方體 長、5 個小立方體寬、4 個小立方體高的