• 沒有找到結果。

行政院國家科學委員會專題研究計畫 成果報告

N/A
N/A
Protected

Academic year: 2022

Share "行政院國家科學委員會專題研究計畫 成果報告"

Copied!
39
0
0

加載中.... (立即查看全文)

全文

(1)

行政院國家科學委員會專題研究計畫 成果報告

整合三維頻率特徵及相關與非相關模型之自動選擇機制於 3D 模型檢索系統

研究成果報告(精簡版)

計 畫 類 別 : 個別型

計 畫 編 號 : NSC 99-2221-E-216-045-

執 行 期 間 : 99 年 08 月 01 日至 100 年 07 月 31 日 執 行 單 位 : 中華大學資訊工程學系

計 畫 主 持 人 : 石昭玲

共 同 主 持 人 : 李建興、周智勳

計畫參與人員: 碩士班研究生-兼任助理人員:洪雋彥 碩士班研究生-兼任助理人員:葉柏廷 碩士班研究生-兼任助理人員:張翔淵

報 告 附 件 : 出席國際會議研究心得報告及發表論文

處 理 方 式 : 本計畫可公開查詢

中 華 民 國 100 年 10 月 28 日

(2)

行政院國家科學委員會補助專題研究計畫 ■成果報告

□期中進度報告

整合三維頻率特徵及相關與非相關模型之自動選擇機制於 3D 模型 檢索系統

計畫類別:■個別型計畫 □整合型計畫 計畫編號:NSC 99-2221-E-216-045

執行期間:99 年 08 月 01 日至 100 年 07 月 31 日 執行機構及系所:中華大學資訊工程學系

計畫主持人:石昭玲

共同主持人:李建興、周智勳

計畫參與人員:洪雋彥、葉柏廷、張翔淵

成果報告類型(依經費核定清單規定繳交):■精簡報告 □完整報告

本計畫除繳交成果報告外,另須繳交以下出國心得報告:

□赴國外出差或研習心得報告

□赴大陸地區出差或研習心得報告

■出席國際學術會議心得報告

□國際合作研究計畫國外研究報告

處理方式:除列管計畫及下列情形者外,得立即公開查詢

□涉及專利或其他智慧財產權,□一年■二年後可公開查詢

中 華 民 國 100 年 10 月 25 日

(3)

摘要

關鍵詞:密度三維ART,三維小曲率轉換,三維傅立葉轉換

隨著電腦技術發展的日新月異,人類越來越想在電腦上模擬出真實世界的物體,而不僅 僅只是單純的相片、影像。也因為發展3D模型的工具和掃描技術的大幅發展,如AutoCAD、

3D Studio、Maya等開發軟體,使3D模型的製做變得相當容易。而網路的快速發展也凾不可沒,

它函速了資料的流通與獲取的管道。以前,往往只有機械工程師、動畫師等專業人士才能接 觸到大量的3D模型。所以在本計劃中,我們先結合Grid-based Principal Components Analysis (GPCA),Continuous Principal Component Analysis (CPCA)和PCA on the normals of the model’s faces (NPCA),將3D模型擺正,避免3D模型旋轉時所造成的誤差,接著結合了密度3D-ART (Density 3D-ART Descriptor)、三維小曲率轉換(3D-Discrete Curvelet Transform, 3D-DCT)和三 維傅立葉轉換(3D-Discrete Fourier Transform, 3D-DFT)來擷取特徵,更詳細的描述模型的特 徵。

一. 報告內容 1. 前言

近年來,3D 風潮如同旱地驚雷般地在所有領域颳起一陣旋風,諸如遊戲、動畫、網路、

機械、娛樂等,大量的 3D 模型應運而生。面對現今數量龐大的 3D 模型資料庫,在搜尋上將 產生相當大的問題。在過去,傳統的關鍵字搜尋方式不僅不直覺,且隨著每個人主觀的分類 不同,往往不能滿足我們在 3D 模型萃取上的需求。因此,如何有效率地搜尋出使用者所期 望的 3D 模型,儼然成為目前重要的研究課題。因此在本計劃中,我們藉由擷取 3D 模型的表 面曲率來函強表示出模型中的外部資訊,所以我們在本計劃是先結合 Grid-based Principal Components Analysis (GPCA) ,Continuous Principal Component Analysis (CPCA)和PCA on the normals of the model’s faces (NPCA),將 3D 模型擺正,避免 3D 模型旋轉時所造成的誤差,在 結合密度 3D-ART (Density 3D-ART Descriptor)、三維小曲率轉換(3D-Discrete Curvelet Transfo -rm, 3D-DCT)和三維傅立葉轉換(3D-Discrete Fourier Transform, 3D-DFT)來擷取特徵,並對特 徵進行比對。

2. 研究目的

基於這些外部及內部特徵,我們已可以粗略地描述 3D 模型,但是對於日趨複雜的 3D 模 型而言,我們希望能提出更精確的方法去描述它。因此本計畫結合密度 3D-ART、三維小曲 率轉換和三維傅立葉轉換擷取 3D 模型的特徵,使得 3D 模型檢索系統能夠更函的完善。

(4)

3. 文獻探討

隨著電腦技術的快速發展、電腦運算效能的大幅提升,人類在電腦螢幕的世界裡不再滿 足由圖片、影像為主構成的二維平面世界,而積極的追求由3D模型所構成的真實世界。然而,

現今製作3D模型的軟硬體操作越來越簡單,因此使用者可以更方便的製作出一個3D模型。也 因為製作3D模型趨於簡單化,所以要取得3D的模型也變得更為容易。

近年來,國內外已經有很多學術單位投入3D模型搜尋的研究,在網路上也有好幾個系統 供人使用,我們也建立了一個3D模型檢索系統(如圖一)。然而,對於日趨複雜的3D模型而言,

只用單用一種特徵擷取的方法是無法對全部的模型都有很好的檢索效果,我們希望能組合多 種特徵以達到更好的檢索效果,而且詴著對每個查詢模型,找到其最適用的特徵組合。因此 如何有效率地針對每一個查詢模型搜尋出使用者所期望的3D模型,儼然成為目前重要的研究 課題。

圖一 我們的 3D 模型檢索系統介面。

以下我們將針對國內外有關 3D 模型檢索的相關文獻分成三大類別介紹,分別為頻率特徵 (frequency descriptor)、二維投影特徵(2D view feature)和外形特徵(spatial shape descriptor),最 後再針對特徵整合及相關性回饋的相關文獻做介紹。

1)頻率特徵(frequency descriptor) :

Vranic 等人[1] 提出利用球型諧波來計算 3D 模型的特徵向量,但此方法必須先將 3D 模 型做 PCA 正規化才不會受旋轉的影響。因此 Funkhouser 等人[2,3] 即提出了即使不需將模 型先做正規化也依然可以利用球型諧波公式求出特徵向量。其主要概念是將 3D 模型的資料 轉換成頻率(frequency)的表示法,就有如 2D 上的傅立葉轉換(Fourier transform)一般。也就是

(5)

對不同半徑的同心球(concentric spheres)中的資料,使用球型諧波來求得 3D 模型的特徵向量,

這樣就能避免因旋轉而產生的問題。

Zhang 及 Chen [4] 提出一種有效率計算特徵的方法,首先將 3D 模型利用網格(mesh)切割 成一小塊一小塊的,而每一小塊就稱為 voxel。每個 voxel 可標為 1 或 0,視 voxel 為落在 3D 模型的內部或外部而定,由此可計算 3D 模型的體積,再利用模型中的三角片(mesh)對 3D 模 型取矩量(moments)和富立葉係數來當特徵。如此的觀念也可應用在 PCA 的正規化找尋主軸 上(如圖二),主要是利用對 3D 模型取矩量所得到的一個 3×3 的矩陣,計算出該矩陣的 3 個 eigenvectors,則這些 eigenvectors 即為該 3D 模型的 3 個主軸。

圖二 做 PCA 之前與之後的 3D 模型[4]。

Papadakis[5]等人提出基於球型諧波的理論下,使用兩種不同的 3D 模型擺正方法,並將 兩種結合為一。而擺正的方法分為,在點座標系統下進行 3D 模型的擺正(CPCA)以及使用該 模型上三角片的單位法向量做擺正的動作(NPCA)。做完擺正的動作以後,對於每個 3D 模型 的中心點,根據不同的角度可放射出與模型表面形成交集的射線,將交集與中心點之間的線 段,等距離補點。再對 CPCA 與 NPCA 兩種擺正方式,利用球型諧波針對已補點完的 3D 模 型,進行擷取特徵值的動作。最後,將兩種擺正方法所得到的特徵值組合起來,即為該 3D 模型的特徵值(如圖三)。

圖三 NPCA 和 CPCA 於特徵擷取和外形比對組合[5]。

2) 二維投影特徵(2D view feature) :

(6)

images)來描述一個 3D 模型,二維影像可從 3D 模型的邊界輪廓上以不同的視角所取得,然後 使用 2D 特徵來進行比對並找尋相似的 3D 模型。以下我們將針對幾個系統來介紹。

以 T. Funkhouser [6]提出之 3D 模型搜尋引擎為例,使用者可以任意畫出一個 3D 形狀(3D Sketch)去 3D 資料庫中做搜尋(如圖四),或者使用者可利用前視圖、側視圖、以及俯視圖來描 繪出一個 3D 形狀,並利用這三張影像來做搜尋,也可以用關鍵字進行搜尋,此類方法多半 是使用剪影圖形來進行比對並將比對結果回應給搜尋者。

圖四 3D 模型搜尋引擎[6]。

Super and Lu [7] 利用 2D 輪廓剪影來辨識 3D 物件。其先將 3D 物件擺正在 x-y 的平面上,

然後將 3D 物件旋轉 16 個角度,每次旋轉角度為 22.5o。藉此達到環繞整個 3D 模型,因此可 取得 16 張 2D 輪廓剪影(如圖五)。最後利用 scale-space 的方法擷取特徵。

圖五 利用 2D 輪廓剪影來辨識 3D 物件,利用十六個角度看恐龍,每個角度的區間為 22.5o[7]。

在三維模型的調準與檢索系統(A 3D Model Alignment and Retrieval System)[8]中 Chen 等人[9] 介紹一種光影描述(lightfield descriptor)來搜尋 3D 模型。光影描述特徵的計算是藉由 N 個不同角度觀察所獲得的 N 個剪影,接下來把這些 2D 剪影使用 ART(Angular Radial Transform)擷取 2D 形狀特徵來當作此 3D 模型的特徵向量。

我們在 94 年之國科會計專題研究計畫針對 3D 模型的檢索提出了一個六立面體的方法 [10]。此方法已投稿至 Patten Recognition 期凼,已於 2007 年 1 月發表。首先,一個 3D 模型 從六個不同的視角,產生六個不同的投影灰階平面(如圖六),我們稱之為立面圖。灰階值的 深淺代表模型在該立面圖的高度分佈資訊。接著將每一個立面利用同心圓擷取特徵,就可以

(7)

算出兩個 3D 模型的相似程度。

圖六 3D 模型的六個投影立面圖 [10]。

Chen-Tsung Kuo[11]提出了主要平面分析的方法,其目的是要改善傳統主軸分析的方法在 兩個相似的 3D 模型上因為外觀的些微差異而導致主軸的偏移。因此,將主軸分析的觀念沿 伸至主要平面分析,主平面的判斷是在 3D 模型中所有的點到某個平面距離之合最小,則該 平面為 3D 主要平面。

主平面分析的做法是將一個原始 3D 模型(如圖七(a)),將模型上所有的點投影到主要平面 使得 3D 模型轉至成 2D 影像(如圖七(b)),最後在此 2D 影像上取特徵。

(a) (b) (c)

圖七 主平面分析 (a)一個原始螞蟻模型,(b)投影至主平面的 2D 黑白影像,(c)和所切割出來的 最佳的三角形區域[11]。

我們在 96 年所提出之國科會專題研究計畫曾針對 3D 模型的檢索提出了將 3D 模型投影 到三個主平面的方法[12]。主要的作法為,對於每個 3D 模型,在空間中找到一個平面使得模 型上的所有點到平面的距離總合會最小,此平面稱為第一主平面 E1。根據 E1平面,我們可以 找出跟 E1平面垂直的第二主平面 E2及第三主平面 E(如圖八(b))。對於每個 3D 模型,投影到 三個主平面,可以得到三張黑白影像,再利用同心圓的方式針對三張黑白影像擷取特徵(如圖 八(d))。

(8)

(a) (b) (c) (d) 圖八 (a)3D 模型,(b)三個主平面 E1、E以及 E,(c) 3D 模型與投影到三個主平面所得到的黑 白影像,(d) 利用同心圓擷取黑白影像的特徵[12]。

Ricard[13]等人提出一個 3D 形狀特徵的描述方法,其主要做法為將 MPEG-7 中所提到的 2D Angular Radial Transform(2D-ART) 轉換到 3D 空間中,首先將每個 3D 模型用球面座標來 表示,接下來針對每個 3D 模型沿著 Z 軸方向做 Principal Components Analysis (PCA)的擺正。

最後,再做 3D-ART 來擷取特徵向量。

圖九 3D-ART 係數值中的實數部分[13]。

Dimitios Zarpalas[14]等人提出一個 3D 模型檢索系統。主要的做法為將一個 3D 模型切成 128×128×128 個網格,每 8 個 2×2×2 的網格就組合成一個巨型網格(coarser voxel),對於每個 3D 模型,均可切出 64×64×64 個巨型網格(如圖十(a))。在一個正二十面體中,找出通過 3D 模 型的中心點且與正二十面體上的十二個頂點形成切線的平面(如圖十(b))。每個平面使用灰階 影像來表示,影像中的灰階值代表單一巨型網格中所凿含有效網格的數量。而對於每個正二 十面體,再分成二十種不同的半徑,因此,對於每個 3D 模型,可用 240(12×20)張灰階影像 來表示。

(9)

(a) (b)

圖十 (a) 8 個小網格合成一個巨型網格,(b)在正二十面體上的十二個頂點中,兩個不同的頂點 所形成的切線平面。

Mohamed Chaouch[15]等人提出一個 3D 模型檢索系統,這套系統主要的方法是藉由 3D 模型投影到一個正十二面體的二十個頂點方向如圖十一(a)所示,所得到的二十張深度影像,

再對這些深度影像作特徵擷取的動作。對於每張深度影像,根據影像大小(N*N),分別在水平 以及垂直方向上劃出 N 條深度線,即每張影像可劃出 2*N 條深度線如圖十一(b)之上半部所 示。利用深度線來描述 3D 形狀的邊界輪廓比起其他使用 2D 形狀表示法來的更為精確。最後 再將深度線編碼完的序列,使用動態規劃演算法計算出兩個序列的相似度。

Assfalg[16-18]等人提出利用曲率投影進行 3D 模型檢索的方法,主要的做法為先對每個 3D 模型上的三角片做平滑處理(如圖十二)。再對於 3D 模型做變形處理以及曲率投影的動作 (如圖十三)。最後利用直方圖即可統計出整張影像的曲率分布資訊。

(a) (b)

圖十一 (a) 從不同的角度所投影出來的深度影像。(b) 賽車影像的深度線[15]。

圖十二 3D 模型做平滑處理的過程,(a)原來的 3D 模型,(b)做 Laplacian 運算,(c)做 Gaussian 運算,(d)結合 Laplacian 與 Gaussian 運算[16]。

(10)

(a) (b)

圖十三 (a)兩個相似的 3D 模型。(b)曲率投影所得到的影像以及三個最相近的區塊[16]。

You-Shin Park et al. [19]提出一個基於主軸分析法(PCA)的 3D 模型檢索系統。這方法的主 要想法就是,分別沿著 PCA 所得到的三個主軸,各自產生 2D 切片圖形影像的直方圖,並當 作形狀特徵,比較各個 3D 模型的直方圖進行測量相似度。對於每一個 3D 模型,三個主軸等 分切割出一百個垂直於主軸的平面,切出來的每一個平面是貫穿 3D 模型所產生的 2D 形狀切 片(sliced shape)影像(如圖十四(b)),而這些 2D 片影像就是具有 3D 模型橫切面輪廓。計算每 一個 2D 影像的中心點到橫切面輪廓的距離(如圖十四(c))並統計成直方圖,組合同一個主軸的 一百個直方圖成為一個新的特徵向量,最後可以分別獲得三個主軸的切片直方圖特徵(sliced histogram descriptor)來做相似度測量(如圖十四(d))。

(a) (b) (c) (d) 圖十四 (a) 以三個主軸分別產生的三個平面方程式。(b) 3D 汽車模型 x 軸的 2D 形狀切片。

(c) 計算原點到外形的距離。(d) 從三個主軸分別獲得的切片直方圖特徵[19]。

3) 形狀特徵(spatial shape descriptor) :

Osada et al. [20,21] 提出 3D 幾何形狀分佈 (3D shape distributions) 的方法。這幾何形狀函 式(shape function)有下列五種,A3、D1、D2、D3、D4(如圖十五),分別代表意思為:A3,在 3D 模型上亂數任取三個點所產生夾的角度。D1,固定中心點並在模型邊緣上亂數選取的點,

藉由固定點和選取點計算兩點間距離。D2,在 3D 模型邊緣上亂數選取任兩點並計算出兩點 之間的距離。D3,亂數選取三點形成面積並計算面積。D4,亂數選取四點形成體積並計算體 積。其中 D2 為最常用之方法。

(11)

(a) (b) (c) (d) (e) 圖十五 函式圖形(a) A3 (b) D1 (c) D2 (d) D3 (e) D4[20,21]。

MPEG-7 中擷取 3D 模型特徵的方法,其主要做法先把 3D 模型解析度統一為計算模型上 的每個面的曲率,然後統計每種曲率出現的頻率做成直方圖(histogram)當作檢索時之特徵向 量。其主要步驟介紹如下:先利用表面平滑細分演算法(Smooth Subdivision Surfaces)[22]。接 下來計算每一個平面的曲率(curvature),及其平均法向量(mean normal vector)。如此可求出該 模型的形狀索引(shape index)。計算出來的形狀索引值會因為曲面的曲率不同而有所改變。例 如曲面呈現下凹的半球型的話,則計算出來的形狀所以會趨近於 0;曲面呈現上击的半球型的 話,則計算出來的形狀會趨近於 1(如圖十六)。根據這些形狀索引,我們將可以詳細的描述 3D 模型的外型。

圖十六 MPEG-7 中擷取 3D 模型的形狀索引示意圖[23]。

4. 研究方法

在過去的3D 模型檢索系統中,常運用Principal Component Analysis(PCA)的方法,求得3D 模型的主軸,並以此擺正模型。傳統的PCA 做法,是利用模型中三角片的頂點座標們來計算 主軸 (Principal axes),但以圖十七為例,吉普車中的輪胎的部分非常複雜,須要用許多的三 角片來表示,如此三角片分佈不均的情況,會造成主軸計算時的偏差。Papadakis[5]提出兩種 不同的3D 模型擺正方法,並將兩種結合為一。而擺正的方法分為,在點座標系統下利用三角 片面積為權重值來計算主軸 (Continuous Principal Component Analysis, CPCA)以及使用該模 型上三角片的單位法向量來計算主軸 (the PCA on the normals of the model’s faces, NPCA)。再 對經CPCA與NPCA兩種擺正後的3D 模型,進行擷取特徵值的動作。最後,將兩種擺正方法 所得到的特徵值組合起來。

因此在去年已結案的國科會計畫提出了 Grid-based Principal Components Analysis (GPCA)可把 3D 模型切成網格,去過濾模型的細微變化,也可充分的表現出 3D 模型的外型。

(12)

每格網格都只會取得一個特徵參數來計算主軸,不會因為三角片分佈不均的問題來影響主軸 的精確度。但是因 3D 模型變化很大,無法用一種擺正的方法去滿足所有的 3D 模型,因此 我們在本年度的計畫中結合 Continuous Principal Components Analysis (CPCA)和 Normals Principal Components Analysis (NPCA) ,三種擺正的方法各有優點,利用三種擺正的方法,

希望能正確地擺正大部分的模型(如圖十八)。觀念如下:

假設查詢模型經三種擺正方式擺正後,分別求得之特徵向量如下:

N P C AQ

Q C P C A Q

G P C A

Q

S S S

S

, , ,

在資料庫的比對模型也經三種擺正方式擺正後,分別求得之特徵向量如下:

NPCADB

DB CPCA DB

GPCA

DB

S S S

S

, , ,

在兩兩比對之後,取之間最小的來當作最合適的擺正模型。

       

NPCADB

 

Q NPCA DB

CPCA Q

CPCA DB

GPCA Q

GPCA DB

Q

S L S S L S S L S S

S

D

,

min 1 , , 1 , , 1 ,

(a) (b) 圖十七 (a)吉普車的 3D 模型(b)吉普車的三角片分佈。

圖十八 GPCA、CPCA 和 NPCA 之間的擺正和比對。

將模型擺正之後,為了不受到模型大小所影響,須對模型大小在正規化一次。將模型切 割成 128×128×128 的網格,如圖二十一(b)所示,將 3D 模型的質量中心移動到(64, 64, 64)位 置,並縮放 3D 模型讓所有有效網格到達中心的平均距離為 32,如圖十九(c)所示。移動 3D 模型的質量重心到正立方體的中心。

z

x

y

z

x

y z

x

y z

x

y

z

x

y z

x

y z

x

y

z

x

y

GPCA

CPCA

NPCA

GPCA

CPCA

NPCA Matching

Matching

Matching

(13)

(a) (b) (c)

圖十九 對擺正後的 3D 模型做大小的正規化 (a)最小立方體凿圍住 3D 模型 (b)正規化 3D 模 型前 (c)正規化 3D 模型後。

針對頻率特徵,我們希望整合三種方法:

(1)密度 3D-ART(Density 3D-ART Descriptor)。

(2)3D 小曲率轉換(3D Discrete Curvelet Transform )。

(3)3D 傅立葉轉換(3D Fourier Transform)。

(1) 密度3D-ART(Density 3D-ART Descriptor):

在這次計畫中的密度 3D-ART 特徵(Density 3D-ART Descriptor)是針對原本的 3D-ART[13]

做改善。主要作法為將一個 3D 模型切成 128×128×128 的網格,如圖二十一所示,每 8 個 2×2×2 的微型網格(tiny voxel)就組合成一個巨型網格(coarser voxel),如圖二十所示,對於每個 3D 模 型,均可切出 64×64×64 個巨型網格,如圖二十(b)所示。在每格微型網格中若有 3D 模型多邊 型的面存在就將此網格視為 1,TinyVoxel(x,y,z) = 1,(代表此微型網格為有效網格);反之微型 網格中沒有 3D 模型存在則將它視為 0,TinyVoxel(x,y,z) = 0,(代表此微型網格為無效網格)。

每個巨型網格中有效微型網格的個數,即為這巨型網格的代表值,範圍為[ 0 ~ 8 ]。

(a) (b)

圖二十 3D 模型 (a)切成 128×128×128 的微型網格 (b)每 2×2×2 的微型網格,合併成一個巨型 網格,形成 64×64×64 的巨型網格。

圖二十一 2×2×2 的微型網格,合併成一個巨型網格。

對應的密度 3D-ART 係數

Fn

,

m

,

m

定義如下:

(14)

n m

m

 

V

      f      dddF   

02 0 nm m

1 0

* ,

, , , , ,

, , ( , , )

f   

為極座標上的強度,

V

nm m ( , , )

  

是密度 3D-ART 特徵的基底函式。基底函式是由 兩個角度以及一個徑度。

( , , ) ( ) ( ) ( ).

nm m m m n

V A A R

 

   

 

角度和徑度的基底函式分別定義如下:

 

jm

A

m exp2

2

1

    

 

jm

A

m exp2

2

1

   

, 0 0 , c o s 2

1

 

 

n n R

n

n

 

根據密度 3D-ART 特徵轉換得到

組係數,其中

Fn

,

m

,

m

是介於0

n

2,0

m

4且 4

0

m

(除了

n

0,

m

0,

m

0之外),最後密度 3D-ART 特徵定義如下:

vt3DART

[

vt

3DART(1),

vt

3DART(2),,

vt

3DART(

)]T

圖二十二 密度3D-ART的基底函式。

密度3D-ART特徵相似度比對:

這裡介紹密度3D-ART特徵的相似度比對。v3D-ART和u3D-ART分別表示為密度3D-ART特 徵中的查詢模型q和比對模型t的特徵向量。查詢模型和比對模型之間的距離就定義如下:

1

3 3

, 3

, ( ) ( )

k

ART D ART

D ART

D t

q

v k u k

Dis

(2) 3D小曲率轉換特徵擷取:

我們也希望能將3D小曲率轉換(3D Discrete Curvele Transform)[23,28]應用於3D模型檢 索,對一個3D模型

f

(

x

,

y

,

z

)做3D小曲率轉換後對應的係數

C

D(

j

,

l

,

k

)將被做為第二組特徵,

定義如下:

C

D(

j

,

l

,

k

):= ( , , ) ,, ( , , )

, ,2 3

1

z y x z

y x

f

Djlk

n n n

 

.

(15)

其中

j

,

lZ

,

k

(

k

1,

k

2,

k

3),

j

為長度、 l 為角度方向、 k 為空間座標、

f

(

x

,

y

,

z

)為3D模型,

範圍在,0

x

,

y

,

zn

。而基底函式

Dj,l,k

j

的位置被分成三種等級:

第一種用在內圈,切割網格較粗時(

jj

0),經由傅立葉轉換所獲得的基底函式計算如下:

~ ( ) exp[ 2 ( / / / )]

) ˆ (

0 0

0 0

0 0

0

0 1 1 1, 2 2 2, 3 3 3,

, 3 , 2 , 1

0 , ,

0

, j j j

j j j D j

k

j

i k L k L k L

L L L

U     

    

 

其中0

k

1

L

1,j0,0

k

2

L

2,j0,

,0

3

0

k

3

L

j 。頻率視窗(frequency window) ,0

0

~

U

j ,其定義如下:

~ ( ) )

~ (

0 0

0,

j

j

W

U

.

笛卡兒環狀(Cartesian coronae) ~ ( )

0

W

j ,其定義如下:

  

0

~

W

j =

  

j0

.

其中

j(

1,

2,

3)=

(2j

1)

 

(2j

2)

 

(2j

3).

第二種用在外圈,切割網格較細時(

j

0

jj

e)經由傅立葉轉換所獲得的基底函式計算如 下:

~ ( ) exp[ 2 ( / / / )]

)

ˆ ( 1 1 1, , 2 2 2, , 3 3 3, ,

, , 3 , , 2 , , 1

, ,

, jl jl jl

l j l j l j

l D j

k l

j

i k L k L k L

L L L

U     

    

 

.

其中0

k

1

L

1,j,l,0

k

2

L

2,j,l,0

k

3

L

3,j,l。頻率視窗(frequency window)

U

~j,l

,定義如下:

~ ( )

)

~ ( )

~ (

,

,l

j

jl

j

W V

U  

.

在 l 角度方向,(1,

l,

l)為在立方體中心線的方向的楔形立方體(wedge),如圖二十三(b),

角視窗(angular window) ~ ( )

,l

V

j 計算如下:



 

   

 

 

   

1 1 2 3

/

1 1 2 2

/

, ~ 2

~ 2 )

~ (

j

l j l

l

j

V V

V

笛卡兒環狀(Cartesian coronae)

W

~j(

),則定義如下:

W

~j

  

=

2j1()

 

2j(

).

其中

j(

1,

2,

3)=

(2j

1)

 

(2j

2)

 

(2j

3).

最後一種為用在最外圈時(

jj

e

log2(

n

/2)))經由傅立葉轉換所獲得的底函式計算如 下:

~ ( ) exp[ 2 ( / / / )]

)

ˆ ( 1 1 1, 2 2 2, 3 3 3,

, 3 , 2 , 1

0 , ,

0

, e e e

e e e

e

j j

j j

j j D j

k

j

i k L k L k L

L L L

U     

    

 

.

L L L n

e e

e j j

j

2,

3,

,

1 和0

k ,

1

k ,

2

k

3

n。頻率視窗(frequency window) ~ ,0

je

U

定義如下:

(16)

~ ( ) )

~ (

0

,

 

e

e j

j

W

U

.

笛卡兒環狀(Cartesian coronae)

W

~je(

),其定義如下:

  

je

W

~

=

  

je

.

其中

j(

1,

2,

3)=

(2j

1)

 

(2j

2)

 

(2j

3).

圖二十三 3D小曲率轉換(a)3D小曲率切割示意圖(b)(1,

l,

l)為在立方體中心線的方向的楔 形立方體(wedge),頻率域的方向立方體三軸分別為

1,

2,

3

根據3D-DCT特徵轉換得到

組係數,其中

C

D(

j

,

l

,

k

)是介於 3

3

 

k

,

  

23

l   

23

6

j

6 (除了

C

D(0,0,0)),最後3D-DCT特徵定義如下:

vt

3DD C T

[

vt

3DD C T(1),

vt

3DD C T(2),...,

vt

3DD C T(

)]T 3D小曲率轉換特徵相似度比對:

這裡介紹3D小曲率轉換的相似度比對。v3D-DCT和u3D-DCT分別表示為3D小曲率轉換特徵 中的查詢模型q和比對模型t的特徵向量。查詢模型和比對模型之間的距離就定義如下:

1

3 3

3

, ( ) ( )

k

D C T D D C T

D D C T

D t

q

v k u k

D i s

(3) 3D傅立葉轉換特徵擷取:

3D-DFT公式:

  

 

 

 

   

2 1

2 2 1

2 2 1

2 3

exp 2 ) , , 1 (

) , , (

N

i N N

k N N

l N

lw kv N iu

j z

y x f N

w v u

g

經由轉換輸出為 G :

G

{

g

(

u

,

v

,

w

)

g

(

u

,

v

,

w

)

C

,

N

/2

u

,

v

,

wN

/2}

Q

是所有像素(Voxel)的集合。把集合

Q

轉經由3D Discrete Fourier Transform(3D-DFT)轉換成 集合 G 。輸入為

Q

:

2

3

) , , 1

( 

l

l

1

~2j/2

~2j

(17)

Q

{

q

(

i

,

k

,

l

)

q

(

i

,

k

,

l

)

R

,

N

/2

i

,

k

,

lN

/2}

經過轉換,發現係數

g

(

u

,

v

,

w

)的絕對值中指數範圍

Ku

,

v

,

wK

(指的是最小頻率)。

除了係數

g

(0,0,0),其他選定的複數都共軛成對。因此,特徵向量由

 

2

K

1

3

1

/2的實數所

組成。藉由3D-DFT,要獲得較精準的模型空間數值,必須參數 N 值要夠大(也就是選定的立 體像素)。

根 據 3D-DFT 特 徵 轉 換 得 到

組 係 數 , 其 中

g

(

u

,

v

,

w

)是 介 於

2

u

,

v

,

w

2( 除 了 )

0 , 0 , 0 (

g

),最後3D-DFT特徵定義如下:

vt

3DD F T

[

vt

3DD F T(1),

vt

3DD F T(2),...,

vt

3DD F T(

)]T 3D傅立葉轉換特徵相似度比對:

這裡介紹3D傅立葉轉換的相似度比對。v3D-DFT和u3D-DFT分別表示為3D傅立葉轉換特徵 中的查詢模型q和比對模型t的特徵向量。查詢模型和比對模型之間的距離就定義如下:

1

3 3

3

, ( ) ( )

k

D F T D D F T

D D F T

D t

q

v k u k

D i s

5. 結果與討論

實驗中我們採用資的料庫是「普林斯頓資料庫(Princeton Shape Benchmark)」[24],如圖 二十四、二十五,此資料庫是提供給對 3D 模型檢索研究有需求的使用者免費使用,大部分 的 3D 模型特徵擷取都有用此資料庫來做檢索研究。普林斯頓資料庫含有 1814 個 3D 模型,

凿含 161 個不同的類別。分成 907 訓練模型(90 個類別)以及 907 測詴模型(92 個類別) ,如表 一所示。

實驗是將我們所提出三種 3D 模型特徵,密度 3D-ART (Density 3D-ART Descriptor)、三 維 小 曲 率 轉 換 (3D-Discrete Curvelet Transfom, 3D-DCT) 和 三 維 傅 立 葉 轉 換 (3D-Discrete Fourier Transform, 3D-DFT)和把三種特徵合併後於資料庫中做檢索。表二為三種不同特徵和 合併後的特徵於普林斯頓大學 3D 模型資料庫檢索正確率。表三為其他特徵 shell grid descriptor(SGD)[25]、Grid D2(GD2)[26]、Beta/distance histogram(BD)[28]、Extended Gaussian images(EGI) [30]、depth buffer image(DBI) [33]、density-based framework(DBF) [29]、concrete radicalized spherical projection(CRSP)[31]、spherical harmonic representation of the Gaussian Euclidean distance transform(SH-GEDT)[32]、light-field descriptor(LFD)[9]、hybrid descriptor of DBI, SIL, and Ray-Based spherical harmonic(DSR)[33]、spherical wavelet descriptor(SWD)[34]、

rotation invariant spherical harmonic(RISH)[32]、shape histograms(SHIST)[35]、silhouette based feature vector(SIL)[33]、3D Hough transform(3DHT)[36]、cord and angle histogram(CAH)[37]、

(18)

radicalized extent function(REXT)[38]和 adaptive views clustering(AVC)[39]於普林斯頓大學 3D 模型資料庫檢索正確率。

根據資料庫中每個類別的3D模型數量不一樣,實驗裡使用的量測標準為DCG(Discounted Cumulative Gain,DCG)[29],定義如下:

 

 

1 ,

2 ),

( l o g D C G

= D C G

1

2 1

k L

k k L

k

k k

其中當第k 個檢索模型與查詢模型來自同一個類別,則 Lk = 1,反之 Lk = 0 而查詢模型 q 整 體的 DCG 定義為DCG ,

kmax ,其中 kmax = Ns是資料庫中模型的總數,從 DCG 的定義來看,當 跟模型在相同類別的比對模型排名總是在前頭時,將會獲得一個較大的 DCG 值,如圖二十六。

從實驗結果我們發現這個計畫中所實驗之三種內部特徵,密度 3D-ART (Density 3D-ART Descriptor)、三維小曲率轉換(3D-Discrete Curvelet Transfom, 3D-DCT)和三維傅立葉轉換 (3D-Discrete Fourier Transform, 3D-DFT)的個別正確率都高於以往 3D 模型常用之三種內部特 徵 shell grid descriptor(SGD)[25]、Grid D2(GD2)[26]、Beta/distance histogram(BD)[28]等內部特 徵。如果再將此三種內部特徵密度 3D-ART (Density 3D-ART Descriptor)、三維小曲率轉換 (3D-Discrete Curvelet Transfom, 3D-DCT)和三維傅立葉轉換(3D-Discrete Fourier Transform, 3D-DFT)合併,則可更進一步將 DCG 提高至 70.16%。未來我們將可把這些新的內部特徵與 過去正確率較高之外部特徵如 ART-based elevation descriptor (AED)[25]與 principal plane descriptor (PPD)[12]等合併,去提升整個 3D 模型檢索系統之正確率。

三. 計畫成果自評

本計劃中我們提出了三種內部特徵,密度 3D-ART (Density 3D-ART Descriptor)、三維小 曲率轉換(3D-Discrete Curvelet Transfom, 3D-DCT)和三維傅立葉轉換(3D-Discrete Fourier Transform, 3D-DFT),並函以合併,檢索完結果發現合併後新的內部特徵超越了其他內部特徵 shell grid descriptor(SGD)[25]、Grid D2(GD2)[26]、Beta/distance histogram(BD)[28]的正確率,

未來我們將可把這些新的內部特徵與過去正確率較高之外部特徵如 ART-based elevation descriptor (AED)[25]與 principal plane descriptor (PPD)[12]等合併,去提升整個 3D 模型檢索系 統之正確率。

(19)

圖二十四 普林斯頓資料庫中的模型類別。

(20)

圖二十五 普林斯頓資料庫中直升機類別的模型。

圖二十六 DCG5 值計算之範例解說。

) ( DCG log

DCG

2

1

k

L

k

k

k

   

) 6 ( log DCG 1 DCG

2 5

6

3.0615+0.3865

6

DCG

3.4483

DCGq1

DCG

1



DCG

907

6.367868

(21)

表一 普林斯頓資料庫內 92 個不同類別模型, |Nc|表示類別裡模型的個數。

Category name |Nc| Category name |Nc| Category name |Nc| Category name |Nc|

Biplane 14 Book 4 Vase 11 Flying_bird 14

Commercial 11 Barn 5 Mailbox 7 School_desk 4

Fighter_jet 50 Church 4 Electrical_guitar 13 Staircase 7

Glider 19 Gazebo 5 Newtonian_toy 4 Standing_bird 7

Stealth_bomber 5 One_story_home 14 Bush 9 Bench 11

Hot_air_balloon 9 Skyscraper 5 Flowers 4 Hammer 4

Helicopter 18 One_peak_tent 4 Potted_plant 26 Dog 7

Enterprise_like 11 Two_story_home 10 Barren 11 Dining_chair 11

Flying_saucer 13 Chess_set 9 Conical 10 Shovel 6

Satellite 7 City 10 Satellite_dish 4 Horse 6

Tie_fighter 5 Desktop 11 Large_sail_boat 6 Desk_chair 15

Ant 5 Computer_monitor 13 Ship 11 Umbrella 6

Butterfly 7 Door 18 Submarine 9 Rabbit 4

Human 50 Eyeglasses 7 Billboard 4 Shelves 13

Human_arms_out 20 Fireplace 6 Sink 4 Race_car 14

Walking 8 Cabinet 9 Slot_machine 4 Snake 4

Rectangular 25 Sedan 10 Fish 17 Single_leg 6

Covered_wagon 5 Sea_turtle 6 Geographic_map 12 Motorcycle 6

Axe 4 Handgun 10 Monster_tuck 5 Knife 7

Hat 6 Semi 7 Sword 16 Hourglass 6

Jeep 5 Face 16 Ladder 4 Train_car 5

Hand 17 Streetlight 8 Wheel 4 Head 16

Glass_with_stem 9 Gear 9 Skull 6 Pail 4

表二 在本計畫所提出之特徵在普林斯頓資料庫正確率比較結果 特徵 DCG(%)

密度 3D-ART 64.18 3D-Fourier 64.05 3D-Curvelet 65.32 合併三種特徵 70.16

(22)

表三 在其他特徵在普林斯頓資料庫正確率比較結果,其中有標記*的是引用 Akgule [29] 論 文中的數據。

特徵 DCG(%) AED[25] 71.83 SGD[25] 58.65 PPD[12] 65.62 GD2[26] 61.34 BD[28] 58.70 EGI[30] 43.80 CRSF[31] 66.80 LF[9] 64.30 SH-GEDT[32] 58.40 DBI[33]* 66.30 DSR[33]* 66.50 DBF[29] 65.90 DSR+DBF[29] 70.20 SWD[34]* 65.40 RISH[32]* 58.40 SHIST[35]* 54.50 SIL[33]* 59.70 3DHT[36]* 57.70 CAH[37]* 43.30 REXT[38]* 60.10 AVC[39] 60.20

(23)

二. 參考文獻

[1] D. V. Vranic, D. Saupe, J. RICHTER, "Tools for 3D-object retrieval : Karhunen-Loeve transform and spherical harmonics",Proceedings of the IEEE Workshop on Multimedia Signal

Processing, pp. 293-298, 2001.

[2] T. Funkhouser, P. Min, M. Kazhdan, J. Chan, A. Halderman, D. Dobkin, D. Jacobs, "A search engine for 3D models", ACM Trans. Graphics 22 (1), pp. 83-105, 2003.

[3] M. Kazhdan, T. Funkhouser, S. Rusinkiewicz, "Rotation invariant spherical harmonic represent -ation of 3D shape descriptors",Symposium on Geometry Processing, 2003.

[4] C. Zhang and T. Chen, ”Efficient feature extraction for 2D/3D objects in mesh representation”, Proceedings of IEEE International Conference on Image Processing(ICIP), Thessaloniki, Greece, pp. 935-938, 2001.

[5] P. Papadakis, I. Pratikakis, S. Perantonis and T. Theoharis, “Efficient 3D shape matching and retrieval using a concrete radialized spherical projection representation”. Pattern Recognition, Vol. 40, pp. 2437-2452, 2007.

[6] T. Funkhouser, P. Min, M. Kazhdan, J. Chan, A. Halderman, D. Dobkin, D. Jacobs, "A search engine for 3D models", ACM Trans. Graphics 22 (1), pp. 83-105, 2003.

[7] B. J. Super, H. Lu, "Evaluation of a hypothesizer for silhouette-based 3-D object recognition", Pattern Recognition, Vol. 36,pp. 69-78, 2003.

[8] D. Y. Chen and M. Ouhyoung, "A 3D Model Alignment and Retrieval System", Proc. of International Computer Symposium,Workshop on Multimedia Technologies, Vol. 2, pp.

1436-1443, Hualien, Taiwan, Dec. 2002.

[9] D. Y. Chen, X. P. Tian, Y. T. Shen, and M. Ouhyoung, "On visual similarity based 3D model retrieval", Computer Graphics Forum 22 (3), pp. 223-232, 2003.

[10] J. L. Shih, C. H. Lee, and J. T. Wang, “A New 3D Model Retrieval Approach Based on the Elevation Descriptor”, Pattern Recognition , Vol. 40,No.1, pp. 283-295, Jan 2007.

[11] C. T. Kuo and S. C. Cheng, "3D model retrieval using principal plane analysis and dynamic programming", Pattern Recognition, Vol 40, Issue: 2, pp. 742-755, Feb, 2007.

[12] J.-L. Shih and W.-C.Wang “A 3D Model Retrieval Approach based on The Principal Plane Descriptor” , Proceedings of The 10 Second International Conference on Innovative Computing, Information and Control (ICICIC 2007).

[13] J. Ricard, D. Coeurjolly and A. Baskurt “ART Extension for Description, Indexing and Retrieval of 3D Objects”. Pattern Recognition, Vol. 3, pp.79-82, 2004.

[14] D. Zarpalas, P. Daras, A. Axenopoulos, D. Tzovaras and M. G. Strintzis, “3D model search and retrieval using the spherical trace transform”, EURASIP Journal on Applied Signal

(24)

Processing, Vol. 2007, pp. 207-207, 2007.

[15] M. Chaouch and A. Verroust-Blondet, “A New Descriptor for 2D Depth Image Indexing and 3D Model Retrieval”, in Proc.of IEEE International Conference on Image Processing (ICIP 2007), Vol. 6, pp. 373-376, 2007.

[16] J. Assfalg, A.D. Bimbo, and P. Pala, “Content-based retrieval of 3D models through curvature maps: a CBR approach exploiting media conversion”, Proceedings of Multimedia Tools and Applications, Vol. 31, No. 1, pp. 29-50, 2006.

[17] J. Assfalg, A.D. Bimbo, and P. Pala, “Curvature maps for 3D CBR”, Proceedings of Multimedia and Expo, Vol. 02, pp. 301-304, 2003.

[18] J. Assfalg, A.D. Bimbo, and P. Pala, “Retrieval of 3D objects using Curvature Maps and Weighted Walkthroughs”,Proceedings of Image Analysis and Processing, pp. 348-353, 2003.

[19] You-Shin Park, Yong-In Yun, Jong-Soo Choi, “A New Shape Descriptor using Sliced Image Histogram for 3D Model Retrieval”, IEEE Transactions on Consumer Electronics, Vol. 55, No.

1, pp.240-247, Feb. 2009.

[20] R. Osada, T. Funkhouser, B. Chazelle, D. Dobkin, "Shape distributions", ACM Trans. on Graphics 21 (4), pp. 807-832, 2002.

[21] R. Osada, T. Funkhouser, B. Chazelle, and D. Dobkin, "Matching 3D models with shape distributions", Shape Modeling International, pp. 154–166, May. 2001.

[22] C. T. Loop, "Smooth Subdivision Surfaces Based on Triangles", Master’s Thesis, Department of Mathematics, University of Utah, Salt Lake City, Utah, USA, 1987.

[23] Lexing Ying, Laurent Demanet, Emmanuel Candes, “3D discrete curvelet transform”, Wavelets XI, Vol. 5914, No. 1, 591413, Sep 2005.

[24] P. Shilane, P. Min, M. Kazhdan, and T. Funkhouser, “The Princeton shape benchmark,” in

Proc. Shape Modeling Applications, 2004, pp. 167-178.

[25] Jau-Ling Shih* and Hong-Yu Chen, “A 3D model retrieval approach using the interior and exterior 3D shape information”, Multimedia Tools and Applications, Vol. 43, No. 1, pp.45-62, May 2009.

[26] J.-L. Shih, C.-H. Lee, J.T. Wang, "3D object retrieval system based on grid D2", Electronics Letters 41 (4), pp. 23-24, 2005.

[27] Sloven DUBOIS, Renaud PE´TERI and Michel ME´NARD, “A 3D discrete curvelet based method for segmenting dynamictextures”, IEEE ICIP, 2009.

[28] M. Reisert and H. Burkhardt “Second order 3D shape features: an exhaustive study,” Comput.

& Graph., vol. 30, no. 2, pp. 197-206, Apr. 2006

[29] C. B. Akgul, B. Sankur, Y. Yemez, and F. Schmitt, “3D model retrieval using probability densit y-based shape descriptors,” IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 31, no. 6, pp. 1117-1133, June 2009.

(25)

[30] B. K. P. Horn, “Extended Gaussian images,” Proc. IEEE, vol. 72, no. 12, pp. 1671-1686, Dec.

1984.

[31] P. Papadakis, I. Pratikakis, S. Perantonis, T. Theoharis, “Efficient 3D shape matching and retrieval using a concrete radicalized spherical projection representation,” Pattern Recognition, vol. 40, no. 9, pp. 2437-2452, Sep. 2007.

[32] M. Kazhdan, T. Funkhouser, and S. Rusinkiewicz, “Rotation invariant spherical harmonic representation of 3D shape descriptors,” Proc. Eurographics/ACM SIGGRAPH symp.

Geometry process., pp. 156-164, 2003.

[33] D. V. Vranic, “3D model retrieval,” Ph.D. Dissertation, University of Leipzig, Department of Computer Science, 2004.

[34] H. Laga, H. Takahashi, and M. Nakajima, “Spherical wavelet descriptors for content-based 3D model retrieval,” Proc. IEEE Int. Conf. Shape Modeling and Applicat., 2006.

[35] M. Ankerst, G. Kastenmüller, H. P. Kriegel, and T. Seidl, “3D shape histograms for similarity search and classification in spatial databases,” Proc. 6th Int. Symp. Advances in Spatial

Databases, pp. 207-226, 1999.

[36] T. Zaharia and F. J. Preteux, “Shape-based retrieval of 3D mesh models,” Proc. IEEE Int’l

Conf. Multimedia and Expo, vol. 1, pp. 437-440, 2002.

[37] E. Paquet and M. Rioux, “Nefertiti: A Query by Content Software for Three-Dimensional Models Databases Management,” Proc. Int. Conf. Recent Advances in 3D Digital Imaging and

Modeling, pp. 345-352, 1997.

[38] D. V. Vranic, “An Improvement of Rotation Invariant 3D Shape Descriptor Based on Functions on Concentric Spheres,” Proc. IEEE Int. Conf. Image Process., pp. 757-760, Sept.

2003.

[39] T. F. Ansary, M. Daoudi, and J. P. Vandeborre, “3D model retrieval based on adaptive views clustering,” in Proc. Third Int. Conf. on Advances in Pattern Recognition, pp. 473-483, 2005.

(26)

行政院國家科學委員會補助國內專家學者出席國際學術會議報告

99 年 11 月 10 日 報告人姓名

周智勳

服務機構

及職稱 中華大學資訊工程系

時間 會議 地點

2010/11/4~2010/11/6 日本-福岡

本會核定 補助文號

計劃編號:

NSC 99-2221-E-216-045-

會議 名稱

(中文)

( 英 文 ) FIFTH INTERNATIONAL CONFERENCE ON BROADBAND AND WIRELESS COMPUTING, COMMUNICATION AND APPLICATIONS / FIFTH INTERNATIONAL CONFERENCE ON P2P, PARALLEL, GRID, CLOUD AND INTERNET COMPUTING

(BWCCA 2010 / 3PGCIC 2010)

發表 論文 題目

(中文)

(英文) A 3D Model Retrieval System Based On The Cylindrical Projection Descriptor

附 件 三

(27)

報告內容應包括下列各項:

一、 參加會議經過

此次會議地點位於日本九州北部的福岡,離台灣不到兩小時的飛行時間,是國人常去的旅遊景 點,之前也曾經因為參加會議造訪此地。

我是在會議前一天晚上來到福岡,下榻於福岡 JR 站旁的飯店,飯店有通道直達捷運車站,相 當方便。會議地點位於福岡西北方的福岡工業大學,必須搭 JR 線火車前往,還好學校在車站附近,

沒有找尋上的困擾。

此次會議有相當多的 workshops 同時進行,session rooms 分布於不同的建築物間,因此感覺 上人數比較稀疏,比較缺乏一群人共同研討的感覺。我所屬的 session 是在會議的第二天中午,這 個 workshop 是由台灣學者所主持,可能是多個 sessions 同時進行,來聆聽的人數並不多,發問情 況倒是不少。

圖一 會場-福岡工業大學 圖二 會場報到處

(28)

晚宴的地點不在福岡工業大學,而是在福岡市區的一個飯店內。晚宴內容採自助式方式以方便 學者間的交流,參加的學者人數不少,坐滿了整個會場。晚宴中除了介紹工作人員、頒發論文獎及 介紹下屆主辦單位地點之例行流程外,並穿插了日本傳統技藝表演。

圖三 晚宴會場 圖四 晚宴之表演

二、 與會心得

1. 會場的佈置不像國內辦研討會會花不少心思在會場佈置上,感覺比較沒有那麼個氣氛。

2. 會場至晚宴的飯店沒有提供交通車,較為不便。也許是因為日本人自認捷運交通工具十分發達,

自行前往即可。

3. 國內方面出國留學的學生日漸減少,政府與學校單位鼓勵碩博士生出國參加會議是值得稱許的。

三、 考察參觀活動(無是項活動者省略)

自己參觀了福岡近郊的”日本孔廟”太宰府天滿宮。

四、 建議

1. 國內也常舉辦國際性研討會,可於議程中安排半日遊,讓外國學者增加認識台灣的機會,或於 晚宴時安排有代表性的表演,如此對推展觀光也許有一些幫助。

2. 相關資訊的提供,包括會場地圖,搭車方式,飯店位置等,算是充足的,值得學習。

五、 攜回資料名稱及內容

Proceedings of the 2010 International Workshop on Intelligent Sensors and Smart Environments.

六、 其他

1. 日本的 JR 火車真準時。

2. 日本人民有禮貌,街道乾淨。想要發展服務業,提昇觀光產業的台灣,這些是值得學習的。不 過,台灣的物價比日本便宜,這是相對有利點之一。

3. 感謝國科會工程處的補助。

(29)

論文被接受之證明文件:

We are pleased to inform you that your paper:

A 3D Model Retrieval System Based On The Cylindrical Projection Descriptor has been accepted for presentation at ISSE-2010.

We would like to kindly remind you the following important issues:

Please follow EXACTLY the online Submission Guidelines

(http://isse2010.yuntech.edu.tw/), provided by the Conference Publishing Services of the IEEE Computer Society and us, in the preparation of your camera-ready copies. Please upload your camera-ready copies via the online submission system (http://www.easychair.org/conferences/?conf=isse2010) by July 23, 2010. In the submission system, you can use the item [Submit a new version] to upload your camera-ready copies.

As a prerequisite of having your papers included in the proceedings, conference registration is due by July 30, 2010.

Congratulations on this fine achievement! We are looking forward to seeing you in Fukuoka in November 2010.

Sincerely,

Chien-Cheng Lee, PC chair ISSE-2010

參考文獻

相關文件

Thus, the proposed approach is a feasible and effective method for process parameter optimization in MIMO plastic injection molding and can result in significant quality and

The final results of experiment show that the performance of DBR system declines when labor utilization increases and the CCR-WIP dispatching rule facilitate to

(1995), Land Mosaics: The Ecology of Landscape Ecology and Regions, Cambridge: Cambridge University Press. Weaver.(1979),Territory

二、 本計畫已將部分研究結果整理,發表於國際研討會(Chan, Y.-H., Lin, S.-P., (2010/7), A new model for service improvement design, The 2010 International Conference

This project is the optical electro-mechanic integration design and manufacturing research of high magnifications miniaturized size zoom lens and novel active high accuracy laser

Florida, R.,2002, The Rise of the Creative Class and How It's Transforming Work, Leisure, Community and Everyday Life, Basic Books, New York. (Ed), Toward Scientific

Some efficient communication scheduling methods for the Block-Cyclic redistribution had been proposed which can help reduce the data transmission cost.. The previous work [9,

With the advancement in information technology and personal digital mobile device upgrade, RFID technology is also increasingly common use of the situation, but for