• 沒有找到結果。

輪式機器人智慧型視覺導引控制技術研究

N/A
N/A
Protected

Academic year: 2021

Share "輪式機器人智慧型視覺導引控制技術研究"

Copied!
17
0
0

加載中.... (立即查看全文)

全文

(1)

行政院國家科學委員會專題研究計畫 成果報告

輪式機器人智慧型視覺導引控制技術研究 研究成果報告(精簡版)

計 畫 類 別 : 個別型

計 畫 編 號 : NSC 99-2221-E-011-023-

執 行 期 間 : 99 年 08 月 01 日至 100 年 07 月 31 日 執 行 單 位 : 國立臺灣科技大學機械工程系

計 畫 主 持 人 : 黃緒哲

計畫參與人員: 碩士班研究生-兼任助理人員:林于崴 碩士班研究生-兼任助理人員:吳俊錫 碩士班研究生-兼任助理人員:張巍瀚

處 理 方 式 : 本計畫可公開查詢

中 華 民 國 100 年 08 月 01 日

(2)

行政院國家科學委員會專題研究計畫 成果報告

輪式機器人智慧型視覺導引控制技術研究

計畫類別: 個別型計畫

計畫編號: NSC99-2221-E-011-023-

執行期間: 99 年 08 月01 日至 100 年 07 月31 日 執行單位: 國立臺灣科技大學機械工程系(所)

計畫主持人: 黃緒哲

計畫參與人員: 林于崴,吳俊錫,張巍瀚

報告類型: 完整報告

處理方式: 本計畫可公開查詢

中 華 民 國 100 年 8 月 1 日

(3)

行政院國家科學委員會補助專題研究計畫

■ 成 果 報 告

□期中進度報告

輪式機器人智慧型視覺導引控制技術研究

計畫類別:■ 個別型計畫 □ 整合型計畫 計畫編號:NSC 99-2221-E-011-023-

執行期間: 99 年 8 月 1 日至 100 年 7 月 31 日

計畫主持人:黃緒哲教授

計畫參與人員: 林于崴 , 吳俊錫, 張巍瀚

成果報告類型(依經費核定清單規定繳交):□精簡報告 ■完整報告

本成果報告包括以下應繳交之附件:

□赴國外出差或研習心得報告一份

□赴大陸地區出差或研習心得報告一份

□出席國際學術會議心得報告及發表之論文各一份

□國際合作研究計畫國外研究報告書一份

處理方式:除產學合作研究計畫、提升產業技術及人才培育研究計畫、

列管計畫及下列情形者外,得立即公開查詢

□涉及專利或其他智慧財產權,□一年□二年後可公開查詢

執行單位:國立台灣科技大學 機械系(所)

中 華 民 國 100 年 8 月 1 日

(4)

輪是機器人智慧型視覺導引控制技術研究

計劃編號:NSC 99-2221-E-011-023-

執行期限:99 年 8 月 1 日到 100 年 7 月31 日 主持人:黃緒哲教授 國立台灣科技大學機械工程系(所)

計畫參與人員:林于崴,吳俊錫,張巍瀚 國立台灣科技大學機械工程系(所) 一、中文摘要

本研究計畫之目標在研發一台可依 據影像系統資訊回饋之自走式輪型智慧 型控制仿人行雙臂機器人系統。去年之 計畫已自行完成設計製作一台具有雙臂 人型機器人且具有可移動之四輪平台的 仿人型機器人系統,並利用Altera Nios II 之SOPC發展版來規劃on-board控制架 構,搭配自製驅動器與硬體電路設計,

再整合個人實驗室多年發展之智慧型控 制系統,以實現可在平面上自由移動之 整合性輪式仿人型機器人系統之軟硬體 控制架構。

二、前言

影像處理的技術發展與應用近年來 也是非常熱門的議題,許多相關的研究 也陸續被提出,而影像處理多以機器視 覺的型態應用於工業界,而且主要所扮 演的角色多為檢測、量測與判別,目的 在於取代人為操作,減少人為疏失並降 低生產成本,並且提高更精確的量測性 能。機器視覺主要應用於以下三方面:

(1) 用視覺進行產品檢驗,代替人的目 視檢驗。如形狀檢驗、缺陷檢驗、齊全 檢驗。

(2) 在機器人進行裝配、搬運等工作 時,用視覺系統對一組需裝配的零、配 件逐個進行識別,並確定它在空間的位 置和方向,引導機器手臂準確地抓取所 需的零件,並放到指定位置,完成分類、

搬運和裝配任務。

本年度計畫目標在建立視覺導引之此 項輪式仿人型機器人系統之智慧型控制 技術 ,與相關立體影像處理技術,首先 對去年所完成的輪式仿人型機器人系統 加入立體影像模組於機器人之頭部,並 於載台加入DSP影像處理系統,透過詳細 的I/O規劃、硬體電路設計、時序模擬、

驗證等步驟完成影像信號處理與輪式仿 人型機器人系統之運動控制整合,完成 一台立體視覺導引之伺服控制器的整合 性設計,並操控機器人在環境複雜之實 驗室進行視覺導引避障與人其他機器人 或人互動之相關運動控制研究。

(3) 為移動機器人進行導航。利用視覺 系統來提供移動機器人所在環境的外部 信息,使機器人能自主地規劃它的行進 路線,迴避障礙物,安全到達目的地,

並完成指令的工作任務。為發展出在隨 機環境變化時,機器人能夠獨立完成或 兩台合作完成產品檢驗、裝配與搬運工 作。

以上應用之影像系統大半是 2D 之平面 目標物偵測與檢驗,然而,單側影像感 測器之偵測並沒有深度方面的資訊,因 此,需要利用影像感測器對來進行立體 視覺演算。

關鍵字:立體視覺、視差圖、移動式機 器人、雙臂仿人型機器人、物體偵測

立體視覺最基本的架構就是模仿人

(5)

類雙眼的架構,人類之所以可以分辨出 遠近,是因為兩隻眼睛所得到的畫面視 差,透過大腦轉換成深度資訊,因此,

立體視覺影像系統多使用兩台或以上的 攝影機來模仿雙眼構成立體視覺系統,

文獻【1】【2】【3】,皆是利用兩台攝影 機同時取得影像,然後利用演算法來重 現大腦計算視差的過程;透過計算出左 右 兩 張 畫 面 的 平 方 誤 差 和 ( Sum of Squared Differences, SSD),即可以轉換 出影像中物件的深度資訊

三、研究目的

本研究將探討的是雙眼立體視覺的 演算,包含立體對應以及影像深度估計 的演算法,並且利用實驗來進行影像感 測對校正,以及各項參數的量測,最後 估算出物體三維立體座標。首先針對雙 眼視覺的左右影像之目標物體做"立體 對應"(Stereo Matching),所謂立體 對應就是在左右兩張影像中,對同一個 目標點做出定位,立體對應分為主動式 以及被動式,主動式的立體對應是在目 標物上偵測特定的特徵影像,像是利用 雷射光點打在目標物上,立體對應時只 要在兩張畫面中搜尋雷射光點的位置即 可達到立體對應。而被動式立體對應的 方法,是直接利用左右影像的特徵點做 比對,像是直接對應法、區塊灰階比較 法,邊界法,投影法,重心法等,其中,

本研究將採用邊界法以及直接對應法。

當移動目標物被找到,並且完成立體對 應之後,作估測目標物體的景深,與三 維座標之計算。

本研究所發展之立體影像系統將與 第一年之研發成果輪式仿人型雙臂機器 人進行所有訊號與控制器溝通整合,以 達成可利用影像資訊來導引仿人型機器 人之運動控制功能。以開發出雙臂機器 人之雙臂可互助合作、亦可利用視覺回 饋與運動位置回饋的訊號來達成互動式

運動控制之智慧型機器人控制技術。

四、文獻探討

在視覺結合仿人型機器人做辨識或 互動方面,文獻【4】【5】利用色彩為基 礎的對物件做即時辨識並應用於人形機 器人上,並對人招手有互動反應,然而 物體顏色必須事先設定,否則無法辨 識,【6】則是將立體視覺應用於移動式 機器上對障礙物進行避障動作,然而其 並未與人型機器人做結合,並且在標定 障礙物方式是先採用邊緣偵測,將物體 圖面區塊框選出後再進行立體對應求出 其座標,然而邊緣偵測對複雜環境有很 大的敏感度,在複雜環境下標定物體有 很大的困難,【7】則是移動式機器人上 架設一小型低自由度機械手臂,並利用 立體視覺取出特定物體之距離並抓取 之。文獻【8】成功將立體視覺結合仿人 型雙足機器人上,建立視差圖利用霍夫 轉換(Hough transform)找出地板平面 並取得其表面曲面,避障功能則是利用 避開曲面高處來達成,然而從文獻中可 得知該演算法並無法知道障礙物之資 訊,【9】則是建立一完整系統利用 DSP 做為運算台台之接球機器人,【10】將立 體視覺與移動式輪型機器人做結合,並 建立一套視覺伺服控制系統,利用視覺 做回授來控制機械手臂,並使用 PD 控 制器來控制機械手臂達成移動物追蹤功 能,然而文中並未提到當移動式機器人 移動的同時系統適用與否。

五、立體視覺系統

本研究之視覺系統運作流程,如圖 5.1 所示,參考本實驗室既有研究成果,

採用 TMS320C6416T DSK(以下簡稱 DSP)配合 2 個 CMOS 影像感測器建立

(6)

Initial CMOS setting

CMOS Generate Image RAW DATA

DSP receive Image RAW DATA

DSP do Image Preprocessing

Capture one Image

Hardware Process

Software Process

DSP do whole Image process

Send Data to Conotrller

3D 立體視覺系統,DSP 以 IIC 通訊介面 透過影像擷取及傳輸電路對 CMOS 影像 感測器進行初始設定(Initial Setting),

包含 CMOS 影像資料輸出頻率、曝光時 間與畫面大小等重要設定,以 CMOS 將 透過感光陣列所取得之影像資料轉為 RAW DATA,再透過影像擷取及傳輸電 路同步寫入 DSP 內部記憶體空間,接著 進行前處理(Image Preprocessing),如 修補、色彩還原等程序後即完成單張影 像擷取動作,之後經過 DSP 內所設定之 體影像解析處理後,由影像擷取及傳輸 電路透過 UART 介面將所需空間位置資 訊傳至運動控制器進行運動控制。

圖 5.2 影像座標系統還原 為了解此種擺設方式 CMOS 影像感 測器對之重疊視野之大小,經由實驗實 際量測如圖 5.3 所示,量測方式為利用 於地面擺放四根桿件,並配和影像感測 器傳回之左右影像對,並將橫桿擺設組 合成左桿件於右影像左邊界處,右桿件 於左影像左邊界處即可找出地面之重疊 視野大小,而該重疊視野高度亦使用同 樣方式,於最遠和最近處分別擺設一物 體,並配合影像找出其高度邊界。

圖 5.3 重疊視野地面大小量測

圖 5.4 重疊視野高度量測 圖 5.1 視覺系統影像擷取流程

量測後實際尺寸由圖 5.5 所示。

為簡化系統複雜度且兼顧可用性,

CMOS 影像感測器為看到前方地面故有 向下轉一角度,也就是說影像座標系統 與地面夾一角度,如圖 5.2 所示。

圖 5.5 重疊視野 3D 示意圖

X

Y Z Y' θ Z'

θ Z'

Z

Y Y' CMOS

Robot CMOS原點

真實旋轉中心

地面

(7)

本研究所提出之未知環境偵測物體 之影像處理演算法流程如圖 5.6 所示:

本研究所提出之未知環境偵測物體 之影像處理演算法流程如圖 5.6 所示:

Original Image from DSP

Object Exists?

Image preprocessing

Locate Image Block Inpainting Detection unknown Object in view

Is Better then

Stereo match

Calculate Depth of Field

No Yes

Send data to Controller No

Yes

圖5.6 影像處理演算法流程 圖5.6 影像處理演算法流程 自 CMOS 影像感測器取得左右影像 後,必須對接收回來之影像資料進行校 正修補以避免影像歪斜扭曲,考慮到後 續影像處理繁多,為加快系統處理速度 因此進行降維(Downsize),對最後修補 後之影像資料進行色彩內差還原(Color Interpolation Recodes)成彩色圖片,並

自 CMOS 影像感測器取得左右影像 後,必須對接收回來之影像資料進行校 正修補以避免影像歪斜扭曲,考慮到後 續影像處理繁多,為加快系統處理速度 因此進行降維(Downsize),對最後修補 後之影像資料進行色彩內差還原(Color Interpolation Recodes)成彩色圖片,並 進行灰階化(Gray-Scale Processing),以 完成影像前處理動作(Image

Preprocessing)。

前處理後之影像資料,利用雙眼立 體視覺之特性找出相對於右邊 CMOS 之 視差圖(Disparity Map),以求得雙眼重 疊視野中所有東西相對於視覺系統之相 對距離,並設定本研究中所在關心之相 對距離做為門檻值做為二值化

(Binarization)之依據,由於對環境以 及目標物無特定條件限制,因此為降低 雜訊與增加後續框選目標物之運算速

度,接著利用區塊門檻值二值化濾波

(Part Threshold Binarization)以濾除二 值化後之視差圖中所出現之雜訊,以期 將目標物所在位置突顯出來,再利用投 影法(Projection Algorithm)框選出目標 物所在圖面位置,完成偵測視野內未知 物體步驟(Detection unknown Object in view)。若無框選到任何東西或所框選到 之圖面座標不符合所需,則再重新抓取 左右影像後重新進行該步驟。

假設利用投影法有框選出目標物之 圖面座標,為確保座標準確性以利後續 進行立體對應(Stereo Match)與景深估 測(Depth Estimation),會針對已框選圖 面座標區域內進行修補動作(Locate Image Block Inpainting)以期能增加框選 座標之正確率。在修補框選目標物圖面 座標後,進行左右影像立體對應以找出 左眼影像相對於右邊之圖面位置,之後 利用光學幾何關係估測該目標物之景深 以完成偵測程序。

六、結果與討論

本研究於第一年度使用系統晶片實 現移動式仿人型機器人影像伺服系統,

以下分別進行多項實驗以驗證本文所設 計架構之正確性。在影像分析實驗大致 分為視野內有單物體及多物體情況,並 檢驗其座標與大小誤差等;而影像整合 運動控制實驗則是設計幾種 Case 利用 此影像演算與仿人型機器人來執行動作 並驗證之。

本節首先進行本研究所提出之演算 法中各個必須執行步驟之效能分析,如 表 6.1 所示,在修補框選區域與立體對 應、景深估測等由於不同物體大小以及 物體多寡會造成處理時間有很大的差 距,因此沒辦法列出數據,從每次必須 步驟中可看出,視差圖之建立佔了幾乎

(8)

全部的處理速度,其他影像處理部份花 費時間則相對很少。

表 6.1 固定所需步驟之效能分析

Image

preprocessing(ms)

14.279

‧Fix Image pair 8.109

‧Downsize 2.84

‧Color Interpolation Restore & Gray Level

3.33

Detection unknown Object in view(ms)

108.467

‧Disparity Map 104.41

‧Part Threshold Downsize

0.697

‧Morphological Processing

3.16

‧Locate Unknown Object

0.2 Inpainting Locate

Region of Object

Depend on Case, the Size and Number of Object

Stereo match Depend on Case, the Size and Number of Object

Calculate Depth of Field

Depend on Case, but very small

Total Spend time(ms) >122.746(ms)

圖 6.2 物體一影像演算法結果圖 表 6.3 物體一估算與實際量測數

據比較

Spend time 243.1243(ms) Image Coordinate R (32,

65)~(80, 113)

Image Coordinate L

(58, 65)~(106,115)

3D

Coordinate(Estimate / Actual)

X: 464.65 / 480 (mm)

Y: -671.92 / -700 (mm)

Z: 38.41 / 40 (mm)

Error of 3D Coordinate(Error / Rate)

X:

14.35(mm) /

0.0319(%) Y:

28.08(mm) / 0.0401(%)

Z: 1.59(mm) / 0.0396(%)

Size(Estimate / Actual)

Height:

123 / 250 (mm)

Width: 189 / 270 (mm)

Length: 253 / 270 (mm)

Error of Size(Error / Rate)

127(mm) / 0.5080(%)

81(mm) / 0.3000(%)

17(mm) / 0.0629(%) Pixel

Resolution(mm/Pixel) 5.625

其次以三種不同物體做實驗,並對 照其估算值與實際上量測數據之差異。

物體一:

物體一為一矩形紙箱,由於物體形 狀較公整因此在實驗上較容易抓到完整 圖面座標,如表 7.3 示,在座標估測部 份具有 5%以內的精度誤差,然而在大小 估測上則只有長度(Length)有較佳的 精確度。

(9)

物體二:

圖 6.4 物體二影像演算法結果圖 表 6.5 物體二估算與實際量測數據比

Spend time 154.8860 (ms) Image Coordinate

R

(72, 53)~(112, 86)

Image Coordina te L

(99, 54)~(139,8 7) 3D

Coordinate(Estima te / Actual)

X: 388.87 / 410 (mm)

Y: -701.17 / -730 (mm)

Z: -130.70 / -140 (mm)

Error of 3D Coordinate(Error / Rate)

X:

21.13(m m) / 0.0515(%

)

Y:

28.83(mm ) / 0.0395(%)

Z: 9.3(mm) / 0.0664(%)

Size(Estimate / Actual)

Height:

181 / 300 (mm)

Width:

125 / 250 (mm)

Length:

180 / 200 (mm) Error of Size(Error

/ Rate)

119(mm) /

125(mm) / 0.5000(%)

20(mm) / 0.1000(%)

0.3967(%

) Pixel

Resolution(mm/Pix el)

5

物體二為一圓柱形罐子上面放一頂 安全帽,由圖 6.4(a)與(h)對照可發現修 正後物體與原圖有些許差距,但仍然可 抓取大部份物體所在圖面座標,因此在 三維座標估算部份還是有一定的精確度 在。

物體三:

圖 6.6 物體三影像演算法結果圖

(10)

表 6.7 物體三估算與實際量測數據比 較

Spend time 136.1572 (ms) Image Coordinate R (59,

77)~(115, 110)

Image Coordinat e L

(84, 78)~(140, 111) 3D

Coordinate(Estimate / Actual)

X: 526.98 / 600 (mm)

Y:

-693.44 / -700 (mm)

Z: -90.28 / -110 (mm)

Error 3D

Coordinate(Error/Ra te)

X:

73.02(m m) / 0.8783(%

)

Y:

6.56(mm) / 0.0094(%

)

Z:

19.72(m m) / 0.1793(%

) Size(Estimate /

Actual)

Height:

87 / 150 (mm)

Width:

135 / 170 (mm)

Length:

273 / 320 (mm) Error of

Size(Error/Rate)

63(mm) / 0.4200(%

)

35(mm) / 0.2059(%

)

47(mm) / 0.1469(%

) Pixel

Resolution(mm/Pixel)

5.7143

物體三為一軟性布料隨意放置於地 上, 由圖 6.6(h)可看出修補後影像可明 顯看出物體所在位置,框選後圖面座標 也頗為正確,因此在座標推算上也有不 錯的精度。

為驗證本理論適合未知環境中有各 種狀況之應用,以增加本理論之實用性 與適應性,接著進行多未知物體偵測實 驗,實驗結果如圖 6.8 所示,在多物體 情況下,本演算法同樣可框選出兩個獨 立物體並估算出其三維座標與大小,然 而此實驗可以看出幾個問題,由圖 6.8(f) 可看出當環境越複雜時,所建立之視差 圖經過二值化後所產生的雜訊越多,此 外由於框選物體受到投影法的限制,物 體與物體間不能有交錯投影情況,而相 隔距離若太小則有機會將之視為同一物 體。在演算法處理時間上,對照單一物 體可得知處理時間與物體之大小以及多 寡成正比,但由單一及複數靜態物體偵 測實驗可證明本演算法之實用性。

圖 6.8 複數物體影像演算法結果圖 表 6.9 複數物體估算與實際量測數據

比較

Total Spend time 265.61932 (ms) Object 1.

Image Coordinate R (5, 61)~(45, 120)

Image Coordinat e L

(31, 62)~(71, 121) 3D

Coordinate(Estimate / Actual)

X: 490.68 / 470 (mm)

Y: -674.44 / -710 (mm)

Z:

201.7693 / -230 (mm) Error 3D

Coordinate(Error/Ra te)

X:

20.68(m m) / 0.044(%)

Y:

35.56(mm ) / 0.050(%)

Z:

28.23(m m) / 0.1227(%

)

(11)

Size(Estimate / Actual)

Height:

150 / 270 (mm)

Width:

232 / 150 (mm)

Length:

187 / 170 (mm) Error of

Size(Error/Rate)

120(mm) / 0.444(%)

82(mm) / 0.5467(%)

17(mm) / 0.1 (%)

Pixel

Resolution(mm/Pixel )

4.25

Object 2.

Image Coordinate R (85, 43)~(119, 91)

Image Coordinat e L

(110, 44)~(144, 92) 3D

Coordinate(Estimate / Actual)

X: 420.60 / 500 (mm)

Y: -762.58 / -880 (mm)

Z:

-163.48 / -210 (mm) Error 3D

Coordinate(Error/Ra te)

X:

79.4(mm) / 0.1588(%

)

Y:

117.42(m m) / 0.13(%)

Z:

46.52(m m) / 0.2215(%

) Size(Estimate /

Actual)

Height:

127 / 270 (mm)

Width:

196 / 150 (mm)

Length:

165 / 170 (mm) Error of

Size(Error/Rate)

143(mm) / 0.5296(%

)

46(mm) / 0.3367(%)

5(mm) / 0.0294(%

)

Pixel

Resolution(mm/Pixel )

5.7143

七、參考文獻

【1】 Takeo Kanade, Atsushi Yoshida, Kazuo Oda, Hiroshi Kano and Masaya Tanaka, “A Stereo Machine for Video-rate Dense Depth Mapping and Its New Applications,” Proceedings of the 15th Computer Vision and Pattern Recognition Conference (ICVPR '96), June, pp. 196-202, 1996.

【2】 Kurt Konolige, “Small Vision Systems: Hardware and Implementation,” In Proceedings

of the 8th International Symposium in Robotic Research, pp. 203–212. Springer-Verlag, 1997.

【3】 Masatoshi Okutomi and Takeo Kanade, “A Multiple-Baseline Stereo,” IEEE Trans. on Pattern Analysis and Machine Intelligence, Vol. 15, No. 4, April, pp. 353-363, 1993.

【4】 張維軒, “以色彩為基礎的即時 物件辨識系統應用於人形機器 人視覺 ”, 碩士論文, 淡江大學 電機工程學系碩士班, 2007.

【5】 陳浥菁, “自走車 DSP 嵌入式影 像系統之研究”, 碩士論文, 國 立 成 功 大 學 工 程 科 學 研 究 所 , 2003.

【6】 翟必君, “基於立體視覺之行動 機器人的室內環境避障”, 碩士 論文, 國立臺灣科技大學資訊工 程研究所, 2007.

【7】 任紹棟, “具立體視覺測距之移 動機器人”, 碩士論文,國立臺灣 科技大學電機工程系, 2004.

【8】 Kohtaro Sabe*, Masaki Fukuchi**, Jens-Steffen Gutmann**, Takeshi Ohashi**,

Kenta Kawamoto*, and Takayuki

Yoshigahara***, “Obstacle Avoidance and Path Planning for Humanoid Robots using Stereo Vision”, * Life Dynamics Laboratory Preparatory Office, **

Networked CE Development Laboratories, *** Broadband Applications Laboratories, Sony

(12)

Corporation, Tokyo, Japan, FTocedlngs ofthe 2004 IEEE, Intunatlonal Conhnnm on RoboUa a AutOmatlon, New Orleans, LPI - Aprll2004.

【9】 Chyi-Yeu Lin, Yi-Pin Chiu, “The DSP Based Catcher Robot System with Stereo Vision”, Proeedings of the 2008 IEEE/ASME International Conference on

Advanced Intelligent Mechatronics July 2 - 5, 2008,

Xi'an, China.

【10】 Dong Min Kim, Ho Jin Choi, Jeong Seob Kim, Woon Kyu Lee, Duck Hui Song, “Tracking Control of a Moving Object for Robokers with Stereo Visual Feedback”, Proceedings of the 2007 IEEE International Conference on Integration Technology March 20 - 24, 2007, Shenzhen, China.

(13)

國科會補助計畫衍生研發成果推廣資料表

日期:2011/08/01

國科會補助計畫

計畫名稱: 輪式機器人智慧型視覺導引控制技術研究 計畫主持人: 黃緒哲

計畫編號: 99-2221-E-011-023- 學門領域: 機器人學及應用

無研發成果推廣資料

(14)

99 年度專題研究計畫研究成果彙整表

計畫主持人:黃緒哲 計畫編號:99-2221-E-011-023- 計畫名稱:輪式機器人智慧型視覺導引控制技術研究

量化

成果項目 實際已達成

數(被接受 或已發表)

預期總達成 數(含實際已

達成數)

本計畫實 際貢獻百

分比

單位

備 註 ( 質 化 說 明:如 數 個 計 畫 共 同 成 果、成 果 列 為 該 期 刊 之 封 面 故 事 ...

等) 期刊論文 0 0 100%

研究報告/技術報告 1 1 100%

研討會論文 1 1 100%

論文著作 篇

專書 0 0 100%

申請中件數 0 0 100%

專利 已獲得件數 0 0 100% 件

件數 0 0 100% 件

技術移轉

權利金 0 0 100% 千元

碩士生 3 3 100%

博士生 0 0 100%

博士後研究員 0 0 100%

國內

參與計畫人力

(本國籍)

專任助理 0 0 100%

人次

期刊論文 0 0 100%

研究報告/技術報告 0 0 100%

研討會論文 1 1 100%

論文著作 篇

專書 0 0 100% 章/本 申請中件數 0 0 100%

專利 已獲得件數 0 0 100% 件

件數 0 0 100% 件

技術移轉

權利金 0 0 100% 千元

碩士生 0 0 100%

博士生 0 0 100%

博士後研究員 0 0 100%

國外

參與計畫人力

(外國籍)

專任助理 0 0 100%

人次

(15)

其他成果

(

無法以量化表達之成 果如辦理學術活動、獲 得獎項、重要國際合 作、研究成果國際影響 力及其他協助產業技 術發展之具體效益事 項等,請以文字敘述填 列。)

基於近兩年之研究成果表現 今年七月獲得 WSEAS 學會邀請為再希臘科芙島舉 行之第十五屆 WSEAS 國際性電路、系統、通訊與電腦學國際研討會,以及第四 屆 WSEAS 國際性工程力學、結構與都市計劃聯合研討會之 Plenary Lecture Speaker 所發表之 研究成果獲得他人好評

成果項目 量化 名稱或內容性質簡述

測驗工具(含質性與量性) 0

課程/模組 0

電腦及網路系統或工具 0

教材 0

舉辦之活動/競賽 0

研討會/工作坊 0

電子報、網站 0

目 計畫成果推廣之參與(閱聽)人數 0

(16)
(17)

國科會補助專題研究計畫成果報告自評表

請就研究內容與原計畫相符程度、達成預期目標情況、研究成果之學術或應用價 值(簡要敘述成果所代表之意義、價值、影響或進一步發展之可能性) 、是否適 合在學術期刊發表或申請專利、主要發現或其他有關價值等,作一綜合評估。

1. 請就研究內容與原計畫相符程度、達成預期目標情況作一綜合評估

■達成目標

□未達成目標(請說明,以 100 字為限)

□實驗失敗

□因故實驗中斷

□其他原因 說明:

2. 研究成果在學術期刊發表或申請專利等情形:

論文:□已發表 □未發表之文稿 ■撰寫中 □無 專利:□已獲得 □申請中 ■無

技轉:□已技轉 □洽談中 ■無 其他:(以 100 字為限)

目前研究成果已發表一篇國際研討會論文 將找時間整理成期刊論文

3. 請依學術成就、技術創新、社會影響等方面,評估研究成果之學術或應用價 值(簡要敘述成果所代表之意義、價值、影響或進一步發展之可能性)(以 500 字為限)

本計畫研發成果貢獻度在建立視覺導引之輪式仿人型機器人系統之智慧型控制技術 ,與 相關立體影像處理技術,首先對去年所完成的輪式仿人型機器人系統加入立體影像模組於 機器人之頭部,並於載台加入 DSP 影像處理系統,透過詳細的 I/O 規劃、硬體電路設計、

時序模擬、驗證等步驟完成影像信號處理與輪式仿人型機器人系統之運動控制整合,完成 一台立體視覺導引之伺服控制器的整合性設計,並操控機器人在環境複雜之實驗室進行視 覺導引避障與人其他機器人或人互動之相關運動控制研究。

數據

圖 6.2  物體一影像演算法結果圖  表 6.3  物體一估算與實際量測數 據比較  Spend time  243.1243(ms)  Image Coordinate R  (32,  65)~(80,  113)  Image  Coordinate  L  (58,  65)~(106,115) 3D  Coordinate(Estimate  / Actual)  X: 464.65 / 480 (mm)  Y: -671.92 / -700 (mm)  Z: 38.41 / 40 (mm)
表 6.7  物體三估算與實際量測數據比 較  Spend time  136.1572 (ms)  Image Coordinate R  (59,  77)~(115,  110)  Image  Coordinate L  (84,  78)~(140, 111)  3D  Coordinate(Estimate  / Actual)    X: 526.98 / 600 (mm)  Y:  -693.44 / -700  (mm)  Z: -90.28 / -110 (mm)  Error 3D

參考文獻

相關文件

本系已於 2013 年購置精密之三維掃描影像儀器(RIEGL

倒傳遞神經網路的演算法使 SPOT 假色影像轉換到 SPOT 自然色影 像。影像的結果。(3)以不同天的 SPOT 假色影像進行網路回想,產 生

隨著影像壓縮技術之進步、半導體科技之快速發展、無線通訊技術與數位傳送輸技術

Mutual information is a good method widely used in image registration, so that we use the mutual information to register images.. Single-threaded program would cost

[7]Jerome M .Shapiro “Embedded Image Using Zerotree of Wavelet Coefficients”IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL,41,NO.12,DECEMBER 1993. [8 ]Amir Said Willam

It allows a much wider range of algorithms to be applied to the input data and can avoid problems such as the build-up of noise and signal distortion during processing.. Since

本研究計畫之目的是要以 MPEG-7 之 ART

第一、文中利用直方圖(Histogram)與高頻影像亮度資訊圖來作資料量的比 較,觀察直方圖可以了解差影像與原高解析層級高頻影像的值域分佈情形,舉例 來說,圖-4.3 為 Test Sample