• 沒有找到結果。

利用材質合成演算法之快速物體摘除系統 - 政大學術集成

N/A
N/A
Protected

Academic year: 2021

Share "利用材質合成演算法之快速物體摘除系統 - 政大學術集成"

Copied!
6
0
0

加載中.... (立即查看全文)

全文

(1)

利用材質合成演算法之快速物體摘除系統

Fast Object Removal System Using Texture Synthesis Algorithm

李俊賢

1

陳英豪

2

何佩璇

2

Jiunn-Shyan Lee Ying-Hao Chen Pei-Syuan He

修平技術學院

1

資訊傳播系

2

資訊管理系

jslee@mail.hit.edu.tw BF92035@mail.hit.edu.tw BF92020@mail.hit.edu.tw

摘要

本研究主旨在發展一套有效的、快速的、自動 化物體摘除系統,搭配現今主流市場上最多人使用 的視訊剪輯軟體VirtualDub,設計成一個專門給自 由軟體使用的外掛模組,不但可強化應用系統之附 加價值,更可滿足一般使用者對於物體摘除工具的 迫切需求。我們打算利用材質合成技術來做為物體 摘除的解決工具。首先我們採用以區塊為基礎的材 質合成法,根據一張較小的範本材質,將每一塊被 挑選出的來源區塊以予部份覆疊,進而產生出較大 張且具有相同紋理特性的新材質。然後我們擴大材 質合成的用途實施到限制性材質合成,在我們所設 計的雛型系統裡,使用者只需提供來源與遮罩輸入 影像,然後系統便可自動利用相鄰的有效紋理進行 填補遮罩所指示的空洞。 關鍵詞:範本為基礎的、限制性材質合成、視訊剪 輯與處理。

1. 前言

在影像處理的編輯工具裡或是影片的後製剪 輯作業中,想辦法去摘除影像的部份缺陷是一項非 常重要的工作,例如:老舊的相片可能會有刮痕或 斑駁的現象;掃描進來的影像可能會有摺痕出現; 拍攝的照片也可能會出現其他遊客。一般人會藉由 影像處理軟體所提供的編輯工具,如雲彩筆(clone brush),先選擇相近的色塊,再去不斷的塗抹於要 移除的區域。這種擾人、重覆性與容易出錯的工 作,通常需要經驗老道有技巧的設計師,不斷操作 才能達成令人滿意的修正效果。 材質影像一般都可由真實世界中透過數位化 方式擷取出來,然而從真實世界中所擷取到的材質 影像往往具有若干缺陷,例如被前景物體所遮掩或 陽光投射後,所產生之高亮點與陰影等瑕疵。材質 合成演算法[6, 9]已將這些缺陷予以消除或使之視 覺上很難察覺。因此我們將利用材質合成技術來自 動填補移除前景物體時所遺留下之空隙。 綜觀國內外當前視訊剪輯或影像處理軟體的 主要功能,當下之急似乎需要一套能有效提供物體 摘除或雜訊修復方面的工具。雖然現今相關影像修 補的技術已被廣泛的研究,但通常還停留在影像 (image)而非影片(video),同時開放源碼做為免費使 用且效果令人滿意的系統,似乎付之闕如,於是興 起我們去設計發展一套簡單、好用又有效的物體摘 除應用軟體之念頭。我們的實作系統將設計成一個 專門給VirtualDub [14]使用的外掛工具,如此可發 揮 此 實 作 系 統 的 最 大 成 效 , 並 擴 充 自 由 軟 體 VirtualDub 的強大附加價值。 影像補繪(Image Inpainting)[2, 3]技術能夠還 原裂痕,修復小塊的缺陷,就像是被劃傷的舊相片 或沾有污漬等瑕疵;材質合成(Texture Synthesis)[4, 6, 9]技術能夠填補較大塊的缺陷,適合內容為一致 性、規律性與結構性的材質紋理。通常被前景物體 所遮掩的未知背景,其影像內容千變萬化,任何情 況都有可能[8],只能利用有限的已知線索來臆測 未知背景,所以物體摘除技術的發展仍是一個值得 深入研究的挑戰課題。

2. 背景知識

電腦圖學應用領域中,將一張材質影像貼附於 三度空間物體的表面,是一項被廣泛採用的技巧, 此種技術被統稱為材質貼圖(Texture Mapping)。材 * 本 研 究 承 蒙 國 科 會 工 程 處 專 題 研 究 計 畫 之 經 費 補 助 (NSC94-2218-E-164-001),謹向國科會工程處致謝。

(2)

質貼圖不僅可提升成圖後圖像之視覺效果,亦可降 低成圖所需之龐大計算時間。然而,由於場景中各 物體表面大小不一,但材質影像卻為固定大小,故 雖然我們可以利用重複連續貼圖的方式來覆蓋物 體的表面;但是,此舉也導致物體表面的材質具有 太多的重複性,相對的也產生不佳的視覺效果。有 鑑於此,研究學者乃轉而研究材質合成演算法 [12]。此類演算法主要探討如何利用一張固定大 小、低解析度的輸入材質圖像,來產生出具有任意 解析度、類似於原始輸入材質之圖像。 材質合成演算法只需輸入一張範本材質,就能 夠依據此材質紋理內容來輸出任意大小的新材 質,並且對人類的直接觀察而言是類似的、相差無 幾的。此演算法是建築在馬可夫隨機場(Markov Random Fields)的模型上,可以不必去建構完整或 明確的機率函數,而改採用一個較為決定性的來源 上面做搜尋。文獻研究已從像素為基礎(pixel-based) 的合成[6, 9, 12]轉移到區塊為基礎(patch-based)的 合成方法[7, 10],主要原因為區塊為主的合成法較 像素為主的合成法快上許多倍,並且可成功的套用 到多種類材質,包含隨機性紋理(如礫石、草地)與 規則性紋理(如磚牆、門窗)。 經過實驗證實,材質合成演算法也能用來修護 圖片睱疵,特別是毀壞的區域原本內容就是屬於結 構性的紋理;而影像補繪演算法則互補了材質合成 法 , 可 以 拿 來 解 決 顏 色 或 強 度 漸 層 的 問 題 。 Bertalmio [2]模擬專業修復者的技法,從外圍邊界 逐漸向內進行平滑的資訊傳遞,利用此影像補繪法 來填補影像的遺漏區域,此法比較適合面積相對 小、內容平順與非紋理的區域。最近,Bertalmio [3] 結合影像補繪與材質合成之技術,把影像分解成兩 種不同的組成成份,影像補繪方法被套用到影像的 基本結構,而材質合成方法則被實施到影像的細 節,最後再合成兩種組成。針對遺漏區域面積相對 較大、包含紋理與大型結構體的填補,Drori [5]提 出了影像完成(Image Completion)的全新技術,疊 代方式處理要摘除的物體,其使用簡單的平滑內插 來近似估計遺漏區域,並且根據最頻繁的與最相似 的範本來逐步加入細節。

3. 系統架構

在本章節中首先我們將描述材質合成演算法 的基礎作法,材質合成意謂根據一張較小的範本材 質,進而產生出較大張且具有相同紋理特性的新材 質。材質合成的用途之一為可進一步擴展成具限制 性材質合成的應用,例如空洞填補(hole filling)與物 體摘除(object removal)等。我們所提出的新方法是 採用以區塊為基礎(patch-based)的合成方式,不管 在計算速度或輸出品質上均佔有優勢,詳細系統實 作架構依序敘述於以下各小節。 3.1 材質擴張 我們所提出的材質合成方法係啟發自Efros [7] 與Liang [10]的研究論文,兩者皆使用以區塊為基 礎的合成取樣法,其為將每一塊被挑選出的來源區 塊以予部份覆疊,以形成另一個新的大張輸出材 質,如此作法浮現出兩個問題,一個是如何挑選下 一區塊,另一個是如何處理覆疊(overlap)邊界之問 題。與他們方法較大不同點在於我們提出一個整合 的 覆 疊 技 術 , 此 新 技 術 整 合 動 態 規 化(dynamic programming)與加權羽化融合(weighted feathering) 的優點來處理覆疊邊界,促使達成平滑過渡。 首先,輸入的範本材質本身成就了一系列的候 選區塊Bs,我們的演算方法係採用下到上、左到 右的掃描線處理方式,對於每一個要被合成的目的 區塊Bt(i),它的覆疊邊界區域其像素值早已得 知,會被拿來跟所有的候選區塊Bs的相同位置像 素進行比對,通常L2 norm 距離會被採用以作為評 估兩個相互比較區塊的相似度,如方程式(1)所示 為計算兩重疊邊界區域S 與 T 的距離,然後一個(或 多個)最佳配對(best-matched)的來源區塊Bs( j),其 擁有最短距離因而被挑選中,會被貼附於目的區塊 ) (i Bt 的原始位置,其中中心區域直接複製,而邊 界區域因有重疊需要進一步處理。 ∑ ∈ − + − + − = O k 2 T S 2 T S 2 T S(k) r(k)) (g(k) g (k)) (b(k) b (k)) ] (r [ T) D(S, (1)

(3)

從上述的演算流程中得知其最主要的步驟為 覆疊邊界的比較搜尋,於是我們必需在所有的來源 候選區塊中找出與目的區塊擁有最小差距的區 塊,我們將此動作歸類為高維度(high-dimensional) 的最接近鄰居搜尋(nearest neighbors search)問題。

當有n 個要被比對的來源候選區塊,且每一個含有 m 個向量成份,其暴力(brute force)搜尋法的複雜度 將高達Ο(mn),假若改由 kd-tree 的技術輔助,其 平均搜尋與最差搜尋時間之複雜度將可有效降低 到Ο(log n) [1],但是建構 kd-tree 的前處理時間與 空間是必需花費的成本。所以在進行合成的搜尋 前,我們會將所有來源候選區塊的邊界區域組成一 個個特徵向量,依此特徵向量建築一個kd-tree,以 利後續的最佳配對搜尋操作。 要 是 只 針 對 材 質 擴 張 的 訴 求 而 言 , 使 用 L-shaped 重疊邊界也就足夠,然而對於較特定的應 用 如 可 貼 磚 材 質(tiling texture) 與 限 制 性 合 成 (constrained synthesis)等,就要再進一步的設計, 在 Liang [7] 的 系 統 中 其 建 立 了 四 種 不 同 型 的 kd-tree 以合乎各種邊界情況要求,而我們是採用如 下圖1 所示的區塊架構,其包含一個中心區域與包 圍它的四個邊界區域,對於一般的材質合成採用簡 化的 L-shaped 即可,而針對具有限制性的材質合 成我們將採用 O-shaped 區塊,而去避免建置多棵 kd-tree。 圖1 O-shaped 區塊的設計架構圖 此外,對於合成結果輸出品質最有顯著影響的 是重疊邊界的處理方式,如圖2 所示為我們新提出 的整合技術說明,以求有效達成兩相鄰區塊在重疊 邊界上的一致性與平滑連貫性,第一步驟我們先採 用動態規劃演算法求得一條最短路徑,第二步驟採 行加權的羽化融合技術來合併兩重疊像素。 圖2 整合的覆疊邊界處理技術 讓B1 與 B2 表兩個有相同 m×n 大小的覆疊邊 界區域,對於每個位於位置(i, j)的距離權重(weight) 為ei,j,如方程式(2)所示,然後我們將找到一條最 短路徑從列0 出發走到列 m-1,而方程式(3)為從列 i=m-1 遊走到列 i=0 時的計算過程,Ei,j表示從位 置(i, j)到終點列 m-1 為止所發現的最短距離值。 2 j i, j i, 2 j i, j i, 2 j i, j i, 2 j i, j i, j i, (B1 B2 ) (r1 r2 ) (g1 g2 ) (b1 b2 ) e = − = − + − + − (2)    = + = = + + + − + ,E ,E ) for i 0..m-2 min(E e 1 -m i for e E 1 j 1, i j 1, i 1 j 1, i j i, j i, j i, (3) 一 旦 求 出 最 短 路 徑 我 們 接 著 套 用 混 合 (blending)的技術,也就是線性內插的方式融合重 疊在一起的兩像素點,讓C0 C1表示兩個重疊在 一起即將要被混合的兩像素點,其線性內插所求得 的輸出 C,式子為CC1+(1−α)C0。對於最短路 徑通過的位置其權重α是 0.5,並且兩左右邊界端 點分別為最低0 與最高 1,其權重計算函數如方程 式(4)所示,其中 p 表於該列最短路徑所經過位置。       > + ≤ − = = = p k if 1/2 p) -1 -p)/2(n -(k p k if k/(2p) 1 n p if 0 0 p if 1 α : row same the in 1 -0..n column in k pixel each for (4) 3.2 物體摘除 材質合成技術也可被用來成為解決某些特定 問題的工具,舉例來說,老舊的相片可能會有刮痕 或斑駁的現象;掃描進來的影像可能會有摺痕出 現;拍攝的照片也可能會出現其他遊客,因此我們 提出的技術能用來掩蓋回復這些另人不悅的缺陷。

(4)

在我們所設計的系統裡,使用者只需事前準備 好四張輸入影像,其分別為:來源(source)影像、 來源遮罩(source mask)影像、目的(target)影像與目 的遮罩(target mask)影像。然後系統即可自動利用 相鄰的有效材質進行填補遮罩所指示的空洞,並可 在極短的時間內計算合成完畢。在來源遮罩影像的 白色像素區域代表了可作為使用的有效候選區 塊,而在目的遮罩影像的黑色像素區域則指示了那 些區塊需要進一步被重新合成,所以兩者放在相同 一張並不起衝突。利用來源與目的遮罩影像,我們 雛型系統將可快速的合成限制性材質(constrained texture),而完全不需要藉助任何的人工干涉。 3.3 軟體之外掛工具設計

VirtualDub 在 Free Software 與 Open Source 社 群是一套享有盛名的專業等級軟體,簡單來說它是 一個高效能、高品質的非線性剪輯軟體工具。其支 援 現 今 所 有 主 流 影 片 與 圖 片 的 壓 縮 格 式( 如 MPEG-2、MPEG-4),於是它常被用為不同壓縮格 式影片的轉換工具。此外它也提供各式各樣的影像 處理濾鏡功能(如色彩、亮度、對比調整、平滑、 銳化、浮雕等),當添加濾鏡效果輸出後可視為一 般的影像處理軟體之用,而且就算是影像處理濾鏡 用途不符合需求,更可自行發展或修改外掛濾鏡程 式,可說是直逼商業化高價位影片剪輯軟體水準。 在本系統發展考量上,優先考慮各種可能影響 系統架構的可能因素,考量是否採用自行研發的封 閉系統或開放軟體的外掛工具設計架構。 z 方案一:自行研發的封閉系統 通常要完成一個高效能、高品質的非線性剪輯 軟體工具,所花的時間與人力是龐大的,在有限的 時間與人力的研究與實作過程當中,通常只能完成 初步的材質合成模組與簡易的實驗執行界面。此外 對於使用者的操作訓練學習過程也是耗時辛苦的。 z 方案二:開放軟體的外掛工具 外掛(plug-in)程式通常是指針對某一套應用軟 體,設計出可整合加入的程式模組,可進一步提升 程式附加價值與彌補原應用軟體之不足,於是我們 可考慮採用 VirtualDub 軟體的外掛方式發展系 統,如此可發揮此實作系統的最大成效。 由各項比較得知,為發揮實作系統的最大效用 與實踐自由軟體之精神與美意,我們偏向採用目前 較多人充份使用的主流軟體VirtualDub,利用其外 掛程式庫來整合發展物體摘除系統,以完成其外掛 工具的方式做為最終目標。是故系統設計將採用 [方案二:開放軟體的外掛工具]為解決方案。目前 系統執行可快速得到如圖3 所示之合成計算結果。 圖3 系統執行結果之畫面

4. 結果與討論

4.1 實驗結果 如圖4 所示為我們的實驗結果,從圖中可以顯 示出系統有不錯的初步成效,的確可成功的實現物 體摘除。系統是執行在Pentium 4 - 2.6 GHz 及 512M RAM 的個人電腦上,其總共合成時間包含訓練與 合成階段如表 1 所示都能夠在很短的時間內完 成,結果堪稱理想,但是虛擬記憶體的需求用量較 大,這是未來可加以改進之處。 表1 物體摘除之執行時間統計(單位:秒) 訓練階段 合成階段 總合時間 Hollywood 22.662 2.524 25.186 Pigeon 9.347 2.034 11.381 Railroad 0.054 0.592 0.646 Caption 0.009 0.034 0.043 Lincon 5.454 2.421 7.875 經由實驗結果顯示出我們的初步系統可達成 令人滿意的合成結果,但仍有其進一步修正處與擴

(5)

充性。材質合成填補技術適合較大塊、結構性材質 紋理的填補(如 Hollywood, Pigeon, Railroad),但卻 不易消除較小塊之影像雜訊與裂痕(如 Lincon),相 對的影像補繪填補技術則無法對付結構性的材質 紋理,卻可成功修補小塊之影像雜訊與裂痕,於是 未來可考量設計材質合成與影像補繪兩種修補技 術相互結合的新修補方法。 4.2 分析討論 如圖1 所示我們設計了一個 O-shaped 的區塊 (patch),其包含四個將作為比較的邊界,該區塊的 所有參數設定是可彈性調整的。當系統在作配對搜 尋 的 階 段 , 這 些 重 疊 的 邊 界 被 視 為 特 徵 向 量 (feature vector)處理,成為比對搜尋上的統計限制 (statistical constraint)。區塊中心區域的大小(cw×ch) 選擇是使用者所指定的,通常仰賴所給定材質的特 性,其大小必需滿足材質所展現的紋理結構,也就 是要比材質的內容元素大。一個較小區塊中心的使 用會導致較弱的統計限制,相反的一個較大區塊中 心的使用會造成龐大的計算量與 kd-tree 的空間花 費。特別值得一提,只要經過適當的設定,要將 O-shaped 區塊轉型成 L-shaped 區塊也輕而易舉, 此外要是不打算實施區塊合成而要實行像素合 成,也不必大費周張重修改程式。 對於邊界大小(lw-dh-rw-uh)的選擇也是一種 交換取捨(tradeoff),通常是要足夠大才能避免流失 紋理特性或形成邊界不連續,一個較大的邊界選擇 會有較佳的統計限制,但同時也造成了合成時的 kd-tree 空間與時間的大量花費。我們還採用了一個 簡單的加速策略,對於連續相臨的 R 個候選區塊 不必全部加入到 kd-tree 中,我們只挑選其中一個 成為候選區塊,如此以降低來源區塊的數量,但R 值的挑選也是一種對於速度與品質間的交換取捨。

5. 結論與未來工作

5.1 結論 本研究主旨在發展一套有效的、快速的、自動 化物體摘除系統,實用上可作為影片上商標與字幕 的摘除工具,我們的實作系統被設計成一個專門給 自由軟體VirtualDub 使用的外掛模組,可當成影像 濾鏡來用,主要功能為摘除任何不要的物體,例如 在影片中隨手可見的電臺標誌、字幕、跑馬燈與時 間郵戳等。 對於靜態影像由於沒有任何資訊,所以不知道 這些不透明物件背後所隱藏的真正影像內容為 何,我們只好根據材質合成的技術原理來重繪物體 被拿掉後所遺留的空缺。為了達成自動化合成,我 們用可見的部份當成訓練資料集合去填補未知的 區域,產生出一個完整、效果佳與一致性的填補結 果,例如利用周圍相鄰的區域像素值與紋理內容。 系統設計目標為半自動化工具,不需要煩人的 操作過程,只要簡單的幾個步驟就能自動完成物體 摘除與填補修復。例如,給定一張輸入來源影像與 其對應的填補遮罩,其用於定義摘除區域,系統會 根據現有的已知區域去完成填補未知區域。 5.2 未來展望 影像補繪是一種以內插手法,利用遺失區塊邊 界資訊,以由外往內方式平滑地填滿遺失的影像資 訊。此類技術適用於較小、較平滑且非材質類背景 之區域或影像雜訊。一般而言,進行修補的操作, 除了顏色的傳遞或擴充外,物件線條的回復也是影 像修補技術中需要被考慮的[11]。當要被修補的區 域很大時,無論是形狀上或顏色的分布上都很難從 周圍取得足夠的資訊來做漸進式的填補,例如當磚 瓦的一角被污損一大塊時,影像補繪之修補技術都 無法有效解決。此時可改用材質合成之填補技術, 但是相反的材質合成技術則不易消除較細微之影 像雜訊,於是新的修補方法將是著重在於材質合成 與影像補繪兩種修補技術的結合[3, 5, 13],這是我 們未來進一步設計改良時的另一思考方向。 摘除物體的修補可利用與填補區域有相關的 資訊來進行修補,其資訊來源可能是鄰近區域的像 素、影像內的全域資料、或是連續影片中相鄰的畫 面,皆可供作搜尋使用的實用資訊。若是針對多張 相似影像或動態影片進行修補的行為,我們就可以 從其他影像或是連續的影片畫面裡,找尋一樣的物

(6)

體,然後以它為參考資訊,找尋可作為來源區塊的 資訊,進而進行填補的合成計算。

參考文獻

[1] S. Arya, D. M. Mount, N. S. Netanyahu, R. Silverman, and A. Y. Wu, “An Optimal Algorithm for Approximate Nearest Neighbor Searching in Fixed Dimensions,” Journal of the

ACM, 45(6), pp. 891-923, 1998.

[2] M. Bertalmio, G. Sapiro, V. Caselles, and C. Ballester, “Image Inpainting,” in Proceedings of

SIGGRAPH 2000, pp. 417-424, 2000.

[3] M. Bertalmio, L. Vese, G. Sapiro, and S. Osher, “Simultaneous Structure and Texture Image Inpainting,” IEEE Transactions on Image

Processing, 12(8), pp. 882-889, 2003.

[4] A. Criminisi, P. Perez, and K. Toyama, “Object Removal by Exemplar-Based Inpainting,” in

Proceedings of International Conference on Computer Vision and Pattern Recognition, pp.

721-728, 2003.

[5] I. Drori, D. Cohen-Or, and H. Yeshurun, “Fragment-Based Image Completion,” in

Proceedings of SIGGRAPH 2003, pp. 303-312,

2003.

[6] A. Efros and T. Leung, “Texture Synthesis by Non-Parametric Sampling,” in Proceedings of

International Conference on Computer Vision,

pp. 1033-1038, 1999.

[7] A. Efros and W. T. Freeman, “Image Quilting for Texture Synthesis and Transfer,” in

Proceedings of SIGGRAPH 2001, pp. 341-346,

2001.

[8] W. T. Freeman, T. R. Jones, and E. C. Pasztor, “Example-Based Super-Resolution,” IEEE

Computer Graphics and Applications, 22(2), pp.

56-65, 2002.

[9] P. Harrison, “A Non-hierarchical Procedure for Re-synthesis of Complex Textures,” in

Proceedings of Central Europe on Computer Graphics, Visualization and Computer Vision,

pp. 190-197, 2001.

[10] L. Liang, C. Liu, Y. Q. Xu, B. Guo, and H. Y. Shum, “Real-Time Texture Synthesis by Patch-Based Sampling,” ACM Transactions on

Graphics, 20(3), pp. 127-150, 2001.

[11] J. Sun, L. Yuan, J. Jia, and H. Y. Shum, “Image Completion with Structure Propagation,” in

Proceedings of SIGGRAPH 2005, pp. 861-868,

2005.

[12] L. Y. Wei and M. Levoy, “Fast Texture Synthesis Using Tree-structured Vector Quantization,” in Proceedings of SIGGRAPH

2000, pp. 479-488, 2000.

[13] H. Yamauchi, J. Haber, and H. Seidel, “Image Restoration using Multiresolution Texture Synthesis and Image Inpainting,” in

Proceedings of Computer Graphics International, pp. 120-125, 2003.

[14] “VirtualDub.org,” http://www.virtualdub.org.

Hollywood Pigeon Railroad Caption Lincon

數據

圖 4  物體摘除之執行結果。第一列為來源影像,第二列為合成結果影像,第三列為遮罩影像。

參考文獻

相關文件

 Retrieval performance of different texture features according to the number of relevant images retrieved at various scopes using Corel Photo galleries. # of top

• It is a plus if you have background knowledge on computer vision, image processing and computer graphics.. • It is a plus if you have access to digital cameras

These images are the results of relighting the synthesized target object under Lambertian model (left column) and Phong model (right column) with different light directions ....

• Detlef Ruprecht, Heinrich Muller, Image Warping with Scattered Data Interpolation, IEEE Computer Graphics and Applications, March 1995, pp37-43. • Seung-Yong Lee, Kyung-Yong

• Detlef Ruprecht, Heinrich Muller, Image Warping with Scattered Data Interpolation, IEEE Computer Graphics and Applications, March 1995 pp37-43. March 1995,

• Given a finite sample of some texture, the goal is to synthesize other samples from that same is to synthesize other samples from that same texture...

Lance Williams: Brute Force in image space (shadow maps in 1978, but other similar ideas like Z buffer, bump mapping using textures and so on).. Completely

• Detlef Ruprecht, Heinrich Muller, Image Warping with Scattered Data Interpolation, IEEE Computer Graphics and Applications, March 1995 pp37-43. March 1995,