• 沒有找到結果。

類神經網路應用於房地產估價之研究

N/A
N/A
Protected

Academic year: 2021

Share "類神經網路應用於房地產估價之研究"

Copied!
20
0
0

加載中.... (立即查看全文)

全文

(1)

類神經網路應用於房地產估價之研究

蔡瑞煌1 高明志 2 張金鶚3

摘要

由於房地產市場為一不完全市場,消費者在購屋的同時常因資訊的不健全 而遭受不必要之損失,因此如何更精確的獲得房地產估價資訊實為健全台灣房地 產市場之要務。本研究探討如何有效地應用類神經網路於房地產估價上。類神經 網路與房地產估價結合之研究在國內仍未有相關文獻發表,然近年來在國外已有 不少相關研究相繼發表。為了解探討如何有效地應用類神經網路於房地產估價 上,本研究設計了四個實驗,分別對不同的資料型態進行測試,並比較倒傳遞類 神經網路(BP)、理解倒傳遞類神經網路(RNBP)與迴歸方式特徵價格法三種 模式於估價精確度上之差異,以為未來改進房地產估價輔助系統之參考。研究結 果顯示類神經網路透過適當的樣本學習,的確能獲得較好的估價結果,其中又以 RNBP 較 BP 為佳。相較於傳統迴歸方式特徵價格法,類神經網路未來應可拓展 於房地產估價上。* 關鍵詞:房地產估價、特徵價格法、倒傳遞類神經網路、理解倒傳遞類神經網 路 1. 國立政治大學資訊管理系副教授 2. 國立政治大學地政系碩士 3. 國立政治大學地政系教授 *若有任何問題請與政大地政系張金鶚聯絡。

(2)

一、前言

房地產一向是國人投資保值之最佳選擇,其價格昂貴,多數購屋者其一生 可能僅有少數購買機會,而由於國內房地產市場的資訊並不完全,致使有些購屋 者無法掌握適當價格。另外,金融機構為辦理抵押貸款,精確的房地產估價更顯 重要。以往估價方法大多由專業人士或民間自行成立之估價公司進行估價,在估 價標準眾多分歧、估價師制度仍未完備、估價從業人員良莠不齊之下,致所估之 價格懸殊頗大,頻生困擾。 過去估價常用之方法不外乎市場比較法、收益還原法、成本法與特徵價格 法;前述三項方法之缺點在於在估價過程中個人主觀因素占極大之比例,而一般 消費者並不具備足夠之專業知識進行估價;特徵價格法(迴歸模式)雖具客觀性, 但其需要收集大量的資料來建立特徵價格模式,且未能將房地產價格之非線性函 數現象表現出來1。如再加上資料的不健全,恐難估出令人信服之價格。

類神經網路(Artificial Neural Networks)之應用是近年來相當熱門的課題。類 神經網路之應用幾乎都是偏重在預測上,而且應用類神經網路的問題範疇都是一 些非線性、動態或非結構化的問題。這些問題背後的理論仍不完整,尚待學者研 究,而且大多數現有的統計分析模型無法有效地分析這些問題。類神經網路之所 以吸引人可從 Kuan & White(1994)之論述而知:「…從經濟學的觀點,類神經網 路是一種特殊的非線性參數模型,而網路系統之學習相當於是在進行模型參數的 統計估計」。 本研究探討如何有效地應用類神經網路於房地產估價上。類神經網路與房 地估價結合之研究在國內仍未有相關文獻發表,然而在國外已有不少相關研究相 繼發表。為了了解探討如何有效地應用類神經網路於房地產估價上,本研究設計 了四個實驗,分別對不同的資料型態進行測試。此外,本研究還比較倒傳遞類神 經網路(Back Propagation Neural Networks,以下簡稱 BP)(Rumelhart, Hinton, & Williams, 1986) 、理解倒傳遞類神經網路 (Reasoning & Back Propagation Neural Networks,以下簡稱 RNBP)(Tsaih, Chen & Lin, 1998)與迴歸方式特徵價格法 (Hedonic Pricing Method)三種模式於估價精確度上之差異,以為未來改進估價 系統之參考。 本文共分五節,第二節回顧類神經網路及房地產估價之相關理論文獻;第 三節針對實驗設計內容作一說明;第四節為實驗結果分析;最後為本文結論。 1 例如樓層別對房地產價格之關係乃呈一 U 字型之非線性函數。

(3)

二、相關理論文獻回顧

(一)類神經網路

基本上,網路系統在運作上分學習及執行兩個階段。在學習階段時,網路系 統會執行其學習演算法,並參考訓練樣本2 ,而調整各結點間連接上的加權值 (Weights,亦稱為連接強度值),以使得網路系統能實現訓練樣本裡所呈現的輸

入資訊與輸出結果之間的明確對應關係(explicit input/output relationship)。連接 強度值就是所謂的模型參數。而在執行階段時,各結點間連接的加權值不會被改 變。實現訓練樣本裡所呈現的輸入資訊與輸出結果的明確對應關係是一般記憶功 能要求;而關聯性記憶功能,或稱為歸納推廣功能(generalization),意指著網 路系統也能對未曾處理過的輸入資訊產生一輸出結果。應用類神經網路的重點不 是在網路系統能對所有訓練樣本的反應,而是在能對未曾處理過的輸入資訊適當 地反應。3 類神經網路最吸引人注意的是,網路系統可透過學習而找出訓練樣本裡所規 範的輸入資訊與輸出結果之間的(隱含)對應關係。類神經網路的學習乃意指著, 應用者要提供一些訓練樣本,以供神經網路學習;以及一個學習演算法,以指導 類神經網路學得訓練樣本裡所規範的對應關係。因此,應用者若要成功地應用類 神經網路需注意到兩個要點: 1. 所提供的訓練樣本要具有代表性,以確保訓練樣本之間所規範的隱含對應關 係之正確性; 2. 所使用的學習演算法要能有效地找出訓練樣本所隱含的對應關係。 第一項要點意謂著,輸入資訊所含之變數要能充分地解釋輸出結果,而且訓 練樣本之數量及分佈要涵蓋完整。目前應用類神經網路時,就第一項要點之實現 而言,一般的做法是,提供歷史資料作為訓練樣本,並用統計工具來驗證這些訓 練樣本是否具有代表性。 而就第二項要點之實現而言,一般的做法是套用目前被廣為利用的類神經網 路,並假設此類神經網路能有效地找出訓練樣本所規範的隱含對應關係。可是, 如此的假設通常是不對的。舉目前最被廣為利用的 BP 為例來說明。 BP 是在 Rumelhart 等(1986)所提出的一種具有隱藏層的網路系統。BP 設有隱 藏結點以及採用平滑可微分且非遞減型(non-decreasing)之半線性(semi-linear) 激發函數於隱藏結點上,使得網路系統能對輸入資訊做非線性的再編碼表示;此 2

訓練樣本即所期望的輸入資訊與輸出結果配對(The desired input/output Pairs)。

3

當輸入資訊與輸出結果之間的對應關係是未知時,在評估類神經網路這樣的分析模型之優劣 時,一般的做法是以其對歷史資料之反應來衡量。

(4)

非線性的再編碼表示為網路系統對輸入資訊的內在表示(internal

representation)。也因此,理論上,BP 能呈現非線性對應關係。

BP 是執行廣義誤差學習法則(generalized delta rule)來調整各連接加權值, 以使得系統輸出結果與期望的系統輸出結果之間的差異為零。不過,此學習演算 法能否學會所有非線性對應關係仍有待商榷;這是因為 BP 在學習階段有下列之 系統困擾:

1. 需先設定網路系統的隱藏結點之個數。然而,實無一法則可告知如何因應不 同的應用問題,而設定適當的隱藏結點個數;

2. 廣義誤差學習法則的本質是執行梯度下降法(steepest descent method),因此

網路系統在學習過程中有可能陷入到局部最佳學習值(relatively optimal learning result)裡,無法保證能收斂至全局最佳學習值(globally optimal learning result);

3. 學習過程很有可能是冗長的。

如何解決這些系統困擾是學者還在進行之研究課題。目前應用 BP 時,針對這些 系統困擾之做法如下:

1. 就第 1 項困擾之解決而言,一般的做法是,以實驗的方式來求得適當的隱藏 結點個數(Yoon, Swales & Margavio, 1993),或是用輸入結點個數與輸出結點 個數的算術平均值(葉怡成,1993)。 2. 就第 2、3 項困擾之解決而言,一般的做法是,將網路系統之學習終止於某一 訓練次數(例如十萬次)之後,然後依網路系統之學習績效4 ,而決定是否要 接受此網路系統或重新學習。 上述的作法是有瑕疵的,因為它們不能確保 BP 可以完全學習(即學好所有訓練 樣本)。一個不能夠完全學習的學習演算法是令人相當質疑於它能否學得有用的 隱含對應關係。可是 BP 卻仍被廣為應用,這是因為很多實驗顯示 BP 的運作績 效仍比現有的統計分析模型好。

理解神經網路(Reasoning Neural Networks,以下簡稱 RN)是為了解決 BP 的 系統困擾而開發出來的網路系統(Tsaih, 1993;Tsaih, 1994;Tsaih, 1996;Tsaih, 1997)。RN 的網路結構與 BP 的網路結構很相似:它具有隱藏層,也採用半線性 激發函數於隱藏結點上。因此,RN 擁有 BP 之非線性再編碼表示的功能。RN 在 學習階段會自行增減隱藏結點的個數、進而調整連結強度值,直至每一輸出結點 皆滿足線性分割條件(linearly separating condition)。林修葳等人(1997)與 Tsaih et. al(1998)的實驗結果顯示 RN 的運作效果比 BP 佳。以下的說明可以解釋為何 RN 可解決 BP 的系統困擾:

4

(5)

1. RN 之學習演算法是屬於調整連接加權值與網路架構 (weight-and-structure-change)型態;網路系統在學習一開始時,只需設一個 隱藏結點,而軟性學習程序在學習過程中,除了會調整連接加權值外,也會依 學習狀況,自行增減隱藏結點。因此,RN 能自行處理 BP 所面臨的第 1 項困擾。 2. RN 之學習演算法利用「有效地增加多個隱藏結點」的方式,處理陷入到局部 最佳學習值之困境5 ,因此,RN 能解決 BP 所面臨的第 2 項困擾,即 RN 可達 到完全學習之效果6 。 3. RN 採用軟性學習程序之觀念,再加上採用線性分割條件為其學習停止準則 (stopping criterion),而非 BP 所採用的「當目標函數值或目標函數值的減少量 小於某一極小值時」7 ,因此,RN 的學習速度比 BP 快。 不過,目前所開發出來的 RN 都是針對 2 類別分類(2-classes categorization) 應用問題,即網路系統的每個輸出結點要分辨輸入資訊是屬於第一類別或第二類 別,所以一切輸出變數都需轉化為 1 或-1 的分類(categorical)變數。Tsaih(1993) 所提出的 RN 主要是針對於每個輸入資訊值是 1 或-1,而輸出結點是一個的情 形;Tsaih(1994,1997)所提出的 RN 是針對於每個輸入資訊值是 1 或-1,而輸出結 點可為多個的情形;而 Tsaih(1996)所提出的 RN 是針對於每個輸入資訊值是實數 值,而輸出結點可為多個的情形。 RNBP 神經網路主要是針對於每個輸入資訊值是實數值,而輸出結點可為 多個的情形,而且輸出值為一實數值(real value) 的情形。由於 BP 之隱藏結點個 數固定,且各連結強度值之初始值為一隨機分派數值,導致其學習不易得到全局 最小值,而且可能需經一段漫長的時間。而 RN 則會自我增減隱藏結點個數,而 將資料進行線性分割8,且保證得到學習之全局最小值。但是 RN 之輸出值為一 二元值(binary value),然實際上,所需的輸出值可能為一實數值,因此 RNBP 結 合 RN 及 BP 二網路系統。即 RNBP 之隱藏結點個數及連結強度值則是由 RN 之 學習所得而定,然後利用 BP 之學習演算法調整連結強度值,如此可使 BP 較易 得到學習之全局最小值9 5 有關理論證明之部份,可參考 Tsaih(1993)、Tsaih(1994)及 Tsaih(1996)。 6

邱奕德、劉曦敏、蔡瑞煌(1996)、林修葳、蔡瑞煌、紀如龍(1997)及 Tsaih, Hsu & Lai(1998) 的 實驗結果亦證明 RN 可達到完全學習之效果。 7 令 E(Z)是學習過程中所使用的目標函數,則學習過程的目標是減小 E(Z)值。BP 所採用的學習 停止準據是:「E(Z)小於某一極小值」或「||∇E(Z)|| 小於某一極小值」。 8 就本研究而言,即將所有輸入之資料區分成較高價位及較低價位之房價。 9

(6)

(二)類神經網路應用在房地產估價方面

由於迴歸模式受制於本身函數型態之固定,使得其模式在房地產估價上並 不是很適當(Brunson et al., 1994; Do & Grudnitski, 1992)。因此類神經網路模式便 相繼的應用在估價上。類神經網路與房地估價結合之研究在國內仍未有相關文獻 探討,然近年來在國外已有不少相關研究相繼發表(Lewis et al., 1997; Lenk et al., 1997; Adair et al., 1996; Worzala et al., 1995; Brunson et al., 1994; Borst, 1992; Do & Grudnitski, 1992; Tay & Ho, 1992; Evans et al., 1991)。在這些研究中,有將類神 經網路分別與市場比較法及多元迴歸模式進行比較,如 Brunson,(1994); Do & Grudnitski(1992); Tay & Ho(1992); Evans et al.,(1991)。另外 Lewis et al.,(1997)根據 Adair et al.,(1996)假設一同質性較高的市場(次市場)藉由將市場進行分層而來之 理論,由柯后能類神經網路(Kohonen networks)將房地產市場估區隔,其結論亦 顯示同質性較高的房地產市場,能使類神經網路有較好的學習效果。 這些國外研究大多以 BP 為主要的探討對象,資料大多是同一地區同質性較 高的資料,多以同一地區之住宅價格為研究對象,且多為 5 年以內所成交之價格 為主。而所得之平均誤差並不盡相同,這也說明不同地區之房地產市場特性會使 類神經網路有不同的學習效果。另外,這些國外研究結果並非皆是支持類神經網 路較優於迴歸模式在房地產估價上(Worzala et al., 1995; Lenk et al., 1997)。

三、實驗設計

(一)實驗設計與資料

本研究所使用之資料是以信義房屋於民國 79 年~82 年在台北市實際成交之 房屋資料為主,雖跨越四個年度,然由於在民國 79~82 年之房地產景氣波動並不 明顯,因此將所得之資料視為橫斷面資料。主要針對僅供居住使用之住宅進行估 價。而此處所指之住宅是包含了土地及其地上建築物。【表 1】為本文實証分析 之住宅交易筆數。 由於各國房地產特性皆不同,所選取的變數亦有所差異,因此本研究採用 國內探討影響房地產或住宅屬性之相關研究為參考,並探討不同的資料型態及範 圍是否有不同的學習效果,以期了解如何有效地應用類神經網路於台灣之房地產 估價上。因此本研究進行了下列四種實驗設計。

(7)

【表 1】本研究所採之成交案例筆數 79 年 80 年 81 年 82 年 總計 中正區 2 37 47 57 143 大同區 1 3 1 6 11 中山區 3 23 45 59 130 松山區 28 94 126 108 356 大安區 38 153 189 171 551 萬華區 0 3 1 7 11 信義區 7 33 88 107 235 士林區 19 88 80 86 273 北投區 16 49 73 75 213 內湖區 20 80 124 148 372 南港區 4 15 12 15 46 文山區 24 118 120 184 446 總計 162 696 906 1023 2787 資料來源:信義房屋

【實驗設計一】以殘差大小分組

此實驗設計目的在了解資料變異程度的大小是否會影響學習效果,在未來 如欲進行估價時,是否應將樣本限制於某一變異程度之下,而變異程度限制的範 圍又大約為多少才可得出較精確的估價結果。 變異程度是以資料之價格殘差值為分組依據。即先對所有資料(以半對數模 式)進行迴歸測試,再將迴歸預測價格與實際價格相減,擷取各筆資料之價格殘 差項。再對所有之價格殘差項進行平均數、標準差的試算。假設所得價格殘差值 之平均數為μ,而其標準差為σ。依變異程度大小將資料形成 3 組,分組說明如 下10: 【分組一】:其價格殘差值範圍為μ±0.5σ之內的資料樣本。 【分組二】:其價格殘差值範圍為μ±1σ之內的資料樣本。 【分組三】:全部的資料樣本。 本實驗隨機選取 100 筆資料做為訓練樣本,並分別進行隨機抽樣 5 次。為 避免在抽樣時某區位之資料筆數過少或甚至沒納入訓練樣本內,致訓練樣本有所 偏頗的情況下,選取樣本標準乃依都市發展程度區位11內之筆數多寡比例分別進 行隨機抽樣。取樣方式如下: 10 本研究曾分別對±0.25σ、±0.5σ、±0.75σ、±1σ之標準差進行測試,因所得之測試結果及趨 勢大致相同,因此在不違反實驗設計目的之原則下,乃採±0.5σ及±1σ的標準範圍進行五次的隨 機取樣。 11 在此將台北市依各區發展程度進行分區:(1)都市發展軸核心區域:大安區、信義區、中正區, (2)都市次發展商業區:中山區、松山區,(3)都市老舊區:萬華區、大同區,(4)都市邊緣區:北 投區、南港區、內湖區,(5)都市外圍核心區:士林區、文山區。

(8)

N= T N i i ×

= 5 1 2787 (1) 其中 i 表區位,T 表第i i 個區位之資料筆數,N 表訓練樣本數。 分組 分組樣本內之測試樣本 (1164 筆) 總測試樣本 (2687 筆) 分組樣本外之測試樣本 (1523 筆) 【圖 1】標準差為 0.5、訓練樣本為 100 筆之測試樣本說明圖 測試樣本則有:1. 分組樣本內之測試樣本,此為在所選取訓練樣本範圍內 之其它樣本; 2. 分組樣本外之測試樣本,此為在所選取訓練樣本範圍外之其它樣 本; 3. 總測試樣本,此為扣除訓練樣本之後所得之所有測試樣本。【圖 1】為以 0.5 個標準差及選取 100 個訓練樣本之測試樣本說明。

【實驗設計二】改變訓練樣本數

此實驗設計探討是否不同的訓練筆數對於類神經網路或迴歸有著不同的學 習及預測效果。【實驗設計一】已對 100 筆訓練樣本進行測試,因此此實驗分別 從上述之三組資料中隨機抽取 50 筆訓練樣本12,並重複隨機抽取 5 次。

【實驗設計三】以資料樣本之範圍分組

由於過去在外國所作之研究大多以同一地區且同質性高之資料進行模式的 學習與測試,且在實際的估價過程中,亦會對欲估價之標的物先行區分,而區分 標準又多以行政區之範圍為主。唯不同的地區有著不同的房地產特質,故此實驗 設計之目的在比較分區與不分區兩種資料型態,何種較適合類神經網路的學習。 分區方式有以下兩種: 1. 以行政區為分區範圍 基於變數顯著水準及資料代表性的考量,本研究以文山區及大安區二行政區之 資料為實驗對象。 12 由於本研究想探討於小樣本的情況下類神經網路是否較迴歸有較佳的表現,而並非在求取所 能接受之最小樣本數,因此並未一一將各種樣本數作測試。 訓練樣本(100筆) ±0.5σ (1264 筆)

(9)

2. 以都市發展程度為分區範圍 將資料範圍擴大至都市發展程度相同之的範圍,以了解隨著房地產異質性的增 加是否會導致網路學習效果的不同。由於行政區中之文山區屬於都市發展區中 外圍核心區,大安區則屬於發展軸核心區,因此為避免混淆,而在進行迴歸變 數之顯著性分析後,以及考慮在不與行政區有範圍重疊的情況下,乃選取都市 邊緣區作為此分區之測試資料。 此實驗乃擷取 50 筆訓練樣本13,僅隨機抽樣一次,而測試樣本則為總測試 樣本。

【實驗設計四】以異常點刪除與否分組

國外相關研究顯示在異常點資料刪除後,類神經網路會有較佳的效果。唯國 內房地產特色與國外迥然不同,此結果如何,有待進一步釐清。而且異常點刪除 準則乃以迴歸線性模式的角度來設定,此是否有助於類神經網路之學習更是有待 進一步探討。此實驗設計目的則在了解是否異常點的刪除將使類神經網路有較佳 的學習效果。我們採用 DFFITS 法來作為異常點篩選的準則14。【表 2】為各區 異常點刪除前後之資料筆數。 【表 2】異常點刪除前後之各區資料樣本數 未刪除異常點 刪除異常點 都市發展軸核心區域 929 850 都市次發展商業區 486 444 都市老舊區 22 19 都市邊緣區域 631 577 都市外圍核心區 719 664 由於【實驗設計三】與【實驗設計一】所得之結果比較顯示分區後所得之誤 差較不分區為好,故【實驗設計四】之資料是以【實驗設計三】之資料為藍本。 此實驗不對資料進行殘差標準差範圍的分組,而是從異常點刪除後之資料抽取訓 練樣本,並分別將選取之文山區、大安區及都市邊緣區之測試結果與第七、八、 九組做比較,並分別進行統計檢定。 上述四種實驗設計共得 12 組資料樣本,茲將各組資料內容整理於【表 3】。 13 【實驗設計二】之結果顯示,訓練樣本為 50 筆與 100 筆有相似的學習效果。 14

DFFITS 法在林秋瑾等(1994)研究中表現較佳,其他尚有 RSTUDENT 法、COVRATIO 法、 COOK’D 法等。

(10)

【表 3】各組實驗設計內容 實驗 設計 資料組別 殘差範圍 訓練樣本數 異常點刪除 與否 資料是否分區 樣本母體 數 第一組 ±0.5σ 100 否 否(台北市) 1264 第二組 ±1σ 100 否 否(台北市) 2103 實驗 設計 一 第三組 全部資料 100 否 否(台北市) 2787 第四組 ±0.5σ 50 否 否(台北市) 1264 第五組 ±1σ 50 否 否(台北市) 2103 實驗 設計 二 第六組 全部資料 50 否 否(台北市) 2787 第七組 — 50 否 是(文山區) 446 第八組 — 50 否 是(大安區) 551 實驗 設計 三 第九組 50 是(都市邊緣區) 631 第十組 — 50 是 是(文山區) 411 第十一組 — 50 是 是(大安區) 506 實驗 設計 四 第十二組 — 50 是 是(都市邊緣區) 577 我們有對這十二組資料樣本進行基本統計分析,並與國外文獻所選之房地 產資料相比較,發現其中國外之訓練樣本的標準差與平均價格之比例大約為 1: 4,至於本研究則大約為 1:2.5。而在最小值與最大值之比例上,在國外則大約 為 1:3,但在國內則約為 1:9。此乃顯示國內與國外估價資料有相當差異,這 對類神經網路應用於房地產估價的影響有待進一步的檢測。

(二)模式設計與建立

1. 特徵價格迴歸模式之建立 在本研究之文獻回顧中,發現多數研究採用半對數模式作為特徵價格模型 之函數15,因此本研究之模式乃以半對數形式為主。分別將分區與不分區之模式 說明於下: (1)不分區之迴歸模式 在此模式下,本研究以虛擬變數來作為區位變數值之依據,其中以都市 區展軸核心區域(價格最高價)為基礎,而將其它四個區域分別設Di1~D 四個i4 虛擬變數,其模式如下: ∑ ∑ = = + + = 4 1 5 1 b ) d ln( k k i ik ik ik ik i α D β φ (2) 其中di為第 i 筆成交住宅價格; D 為第ik i 筆成交住宅之第 k 個區位虛擬變數 (例如D 表是否為都市次發展核心區:如果是則為i1 1,不是則為 0); bik為第 i 筆成交住宅的第 k 個住宅特徵變數16 (扣除區位外之其它五個變數,包含衛浴 設備套數、地上總樓層數、所在樓層別、屋齡、登記總面積); αik為各區位虛 15 有關特徵價格模型函數,請參見張金鶚(1995),pp. 16-21。 16 有關住宅特徵價格變數之選取,請參見張金鶚(1995),pp. 43-87。

(11)

擬變數之係數; βik為各住宅特徵變數之迴歸係數,即特徵價格之向量值。 (2)分區之迴歸模式 由於資料已進行分區,故可將區位變數剔除,其模式如下: ∑ = + = 5 1 b ) d ln( k i ik ik i β φ (3) 2. 類神經網路系統之建立 依照常用之公式,隱藏結點個數=(輸入結點個數+輸出結點個數)/2,BP 採 用 4 個隱藏結點。RNBP 所用的隱藏結點個數則是網路系統自行決定。除了隱藏 結點個數之考量,尚有下列之考量: (1)區位值 類神經網路之輸入與輸出變數與迴歸模式之自變數與應變數大致相 同,唯在迴歸中之區位變數以虛擬變數來代表。在類神經網路中,如果虛擬 變數表示區位,則變數將多達九個,可能造成網路學習速度緩慢;如果以各 區房價高低做為區位起始值,將會與應變數重疊,而有自我相關的情況。因 此本研究先將全部資料進行迴歸分析,而以(2)式裡的αik值做為區位值。 由【表 4】可知,所得之區位值變數符號皆顯著,其中都市發展中心區 之值為 0,其次為發展商業區為-0.07087,至於最小值則是都市邊緣區域。此 參數值就統計觀點意謂著,如果位於核心區則對房地產價格不產生影響,如 果位於次發展商業區,則會對房地產價格產生-0.07087 的影響。以此類推, 此結果顯示區位值之分派還算合理。 【表 4】各區區位值 區位 都市發展軸 核心區域 都市次發展商 業區 都市老舊區 都市邊緣區域 都市外圍核心 區 區位值 0 -0.07087 -0.28197 -0.29041 -0.23458 順序 1 2 4 5 3 符號 負號 負號 負號 負號 P-值 0.000 0.0001 0.0001 0.0001 0.0001 資料來源:本研究實証結果 (2)輸入及輸出變數之標準化 為使類神經網路能有較好的學習效果及較快的學習速度,我們將輸出及 輸入之變數值標準化至 1 與-1 之間。因實際上我們並無法得知抽樣母體之情 況,因此只能先對所得到之訓練樣本予以標準化,而測試樣本之標準化基底 則需與訓練樣本之基底相同。標準化之步驟如下17:先求取各變數(含輸入變 17 其中區位變數其值已介於 1 和-1 之間,因此並不需要進行標準化。

(12)

數及輸出變數)之最大值;再將各個值分別除以其變數之最大值的 1.5 倍18 還有,RN 的輸出值型態為分類性的離散資料,因此我們須將輸出變數 值轉成 1 或-1 方能供 RN 學習和預測。我們乃以訓練樣本之平均房價為區分 標準,即當資料之房價超過平均房價時則 RN 的輸出值為 1,反之則為-1。

(三)評估指標

本研究所用之模式評估指標主要有二種: 1. 集中趨勢量測:主要在了解輸出值與實際值之間可能存在的偏差程度。本研 究以平均相對誤差率(AMRE)、平均絕對誤差(AAE)做為評估指標。當 AMRE 或 AAE 越低時,表示整體模式的預測偏差度越小,其預測結果較佳。 AMRE= N N i i i i ∑ = − 1 d / ) d o ( (4) AAE= N N i i i ∑ = − 1 d o (5) 其中oi為第 i 筆成交住宅的預估價格。 2. 離勢量測:主要在表現一群數值的散佈範圍,亦可反映出平均數代表性的大 小。在此是指網路預測值與目標值之間的差距不超過一事先訂定的誤差容忍 (Error Tolerance)範圍。本研究乃採相對誤差率小於 5%之百分比(PLF)及相對 誤差率大於 20%之百分比(PGT)兩項指標做為評判標準。 PLF=相對誤差率小於 5%之樣本個數/總測試樣本數 (6) PGT=相對誤差率大於 20%之樣本個數/總測試樣本數 (7) 另外本研究分別對迴歸、BP 與 RNBP 進行評估指標的檢定。所採用之檢定 方法主要為獨立兩樣本平均數的 t 檢定。其中又分成兩相同樣本數及兩不同之樣 本數。在進行 t 檢定之前,必須檢定實證資料是否符合 T 檢定之前提假設。 1. 樣本符合常態分配:本研究以 W 檢定統計量(W-test statistic)來檢定本研究之 實證資料是否符合常態分配,當 Prob<W 越接近 0 時,該資料非屬於常態分配, 此時必須改用與 T 檢定功能相同之 Wilcoxon signed-rank test 進行檢定。 2. 對於檢定兩組觀察體所代表的母體,其變異數必須相同。若此假設成立,則 藉由 SAS 可算出 t 值與其統計的顯著程度。若此假設不成立,則 SAS 將會算 出 t 的近似值與其近似的自由度。 18 此標準化之基底值並無一定論,而經本研究測試後以最大值的 1.5 倍較好。

(13)

四、實驗結果與討論

(一)【實設設計一】

【表 5】、【表 6】、【表 7】分別為【實設設計一】之實際測試結果。【表 5】與【表 6】顯示三種模式在總測試樣本之 AMRE 中,迴歸和 BP 減少,RNBP 則是增加;而就分組樣本外的測試結果顯示,不論是 AMRE 或 AAE,RNBP 之 測試結果較迴歸及 BP 好。 就 PLF 來看,在第一組至第三組中,RNBP 皆為最好,並且隨著訓練樣本 範圍的縮小而有上升的傾向,而此說明 RNBP 對於極端值預測的能力有不錯之表 現。而在 PGT 中,各組則在伯仲之間,並無太大之差異。 另外就標準差而言,隨著抽樣母體範圍的擴大,各模式之標準差也隨著增 加。RNBP 及 BP 皆較迴歸為小。此說明由於迴歸是一線性函數,因此對極端值 並無法有效地學習,所產生之變異則相對的較 BP 及 RNBP 大。反觀類神經網路 能對極端值有效地學習,使得極端值所產生之變異相對地較迴歸為小。 第二組之最大誤差值與第一組大致相同,唯在此組中,BP 之最大誤差值較 RNBP 為好。由三組之最小誤差值來看,大致上在第二組及第三組樣本之最小誤 差值相距不大,而在第一組樣本中,RNBP 最小誤差值較 BP 及 RNBP 為小,此 也說明 RNBP 之學習能力確實較其他兩組模式為好。 因此我們可以了解 RNBP 對於資料敏感度相當大。即好的訓練樣本能使 RNBP 有更佳的學習效果,但不好的訓練樣本對 RNBP 而言,則相對較迴歸及 BP 得出較不穩定的結果。這是因為 RN 對於任何的訓練樣本(包含極端值在內) 皆會學習完全,因此在當資料樣本數小而變異程度大的時候,RNBP 較迴歸及 BP 易受極端值影響。但此亦意謂 RNBP 之學習潛力較好,只要是資料型態是較 為正常,則其學習效果必較 BP 及迴歸模式佳。 綜合第一組至第三組之結果,大致可歸納出下列幾點結論: 1. 類神經網路對於變異程度較小的資料有不錯的表現。 2. 由第一、二組之結果較第三組為好的情況下,我們可得出,如能使抽樣母體 之變異程度縮小,將會使類神經網路有較好的學習效果。 3. 第一組中之 RNBP 在 AMRE 和 AAE 之表現較其他兩模式為佳,而在第二、 三組 RNBP 之優勢則無第一組來得明顯。因此,訓練樣本中最好不要包含異 常點或極端值,這樣會使類神經網路受影響,特別是 RNBP。 4. RNBP 有一趨勢,即最大誤差值乃隨著訓練樣本變異程度的增大而增大,而 BP 則無此傾向。

(14)

【表 5】迴歸、BP 及 RNBP 於第一組之誤差測試結果 模式 迴歸模式 BP RNBP 測試範圍 分組樣本 內 分組樣本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 AMRE 0.0623 0.2691 0.1795 0.0620 0.2627 0.1757 0.0704 0.2596 0.1776 AAE 48.12 229.9 151.15 46.67 210.25* 139.38* 51.216 200.75* 135.961* PGT 0.0052* 0.5772 0.3294 0.0069* 0.5706 0.3263 0.05 0.5361* 0.3255 PLF 0.4479 0.0056 0.1972 0.4369 0.0062 0.1928 0.4847* 0.0608* 0.2445* 標準差 45.055 346.841 277.831 41.982 202.062 174.645 56.739 202.554 173.933 最大誤差值 501.3 6557.5 6557.5 507.4 2074.2 2074.2 676 2064.9 2064.9 最小誤差值 0.04 18.1316 0.04 0.0257 6.0317 0.0257 0.0092 0.2253 0.0092 *表 5%顯著水準。 【表 6】迴歸模式、BP 及 RNBP 於第二組之誤差測試結果 模式 迴歸模式 BP RNBP 測試範圍 分 組 樣 本 內 分 組 樣 本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 AMRE 0.1063 0.3803 0.1762 0.1082 0.3681 0.1742* 0.1242 0.3545 0.1827 AAE 81.751 360.374 152.792 80.834 312.525* 139.715* 94.677 297.219* 146.112 PGT 0.1068* 0.9450 0.3202 0.1176* 0.9247 0.3223 0.1837 0.7845 0.3359 PLF 0.2667 0.0029 0.1996 0.2644 0.0029 0.1981 0.283 0.0341 0.22 標準差 73.601 486.543 281.414 69.467 258.076 175.267 108.91 269.41 189.144 最大誤差值 603.2 6375.2 6375.2 592.76 2002.47 2002.47 1170.6 2302.9 2302.9 最小誤差值 0.0489 20.7996 0.0489 0.0411 10.5978 0.0411 0.0389 1.922 0.0389 *表 5%顯著水準。 【表 7】迴歸、BP 及 RNBP 於第三組之誤差測試結果 模式 迴歸模式 BP RNBP AMRE 0.1864* 0.2179* 0.2305 AAE 169.288 169.785 179.283 PGT 0.3567 0.4131 0.4213 PLF 0.1811 0.1656 0.1905 標準差 365.839 209.5 220.463 最大誤差值 9956.4 2437.6 2451.8 最小誤差值 0.0972 0.0532 0.0512 *表 5%顯著水準。

(二)【實驗設計二】

在 AMRE 方面,【表 8】與【表 5】之比較顯示第四組與第一組之結果所 差不多,而【表 9】與【表 6】以及【表 10】與【表 7】之比較顯示在訓練樣本 為 100 筆時,BP 及迴歸顯著為佳,但在訓練樣本為 50 筆時,則皆不顯著。此外, RNBP 在第三組與第六組之 AMRE 較迴歸及 BP 之變動為小。在 AAE 方面,除 了第五組之總測試樣本之結果與第二組不同外,其他皆相同。我們亦可看出迴歸 於 AMRE 及 AAE 於訓練樣本為 50 筆及 100 筆時有較大的變化,而此也說明迴 歸需要較大量的樣本數來進行模式的建立。

(15)

【表 8】迴歸模式、BP 及 RNBP 於第四組之誤差測試結果 模式 迴歸模式 BP RNBP 測試範圍 分 組 樣 本 內 分 組 樣 本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 分組樣本 內 分組樣本 外 總樣本 AMRE 0.073 0.2669 0.1809 0.0671 0.2634 0.176 0.0628 0.2625 0.1736 AAE 58.557 229.799 153.844 50.49 201.128* 134.099* 47.004 200.737* 132.323* PGT 0.0357 0.5639 0.3296 0.0273 0.5688 0.3277 0.0164 0.5714 0.3232 PLF 0.4183 0.0211 0.1973 0.4353 0.0171 0.2033 0.4346 0.0098 0.2029 標準差 67.368 347.394 277.264 49.161 179.987 157.274 43.602 178.482 156.39 最大誤差值 723.7 6287.9 6287.9 529.1 2021 2021 512.7 2004 2004 最小誤差值 0.0502 3.8526 0.0502 0.0904 1.3865 0.0904 0.0695 3.1947 0.0695 *表 5%顯著水準。 【表 9】迴歸模式、BP 及 RNBP 於第五組之誤差測試結果 模式 迴歸模式 BP RNBP 測試範圍 分 組 樣 本內 分 組 樣 本外 總樣本 分 組 樣 本內 分 組 樣 本外 總樣本 分 組 樣 本內 分 組 樣 本外 總樣本 AMRE 0.1115 0.3806 0.1787 0.1140 0.3304 0.1678 0.121 0.356 0.181 AAE 87.929 379.804 160.871 88.876 301.083* 141.671* 91.167 302.266* 143.733* PGT 0.1392 0.8959 0.3283 0.1412 0.8594 0.3201 0.166 0.81 0.326 PLF 0.2618 0.0058 0.1978 0.2495 0.0282* 0.1944 0.263 0.051* 0.21 標準差 87.743 614.388 341.321 85.75 251.503 172.337 95.205 273.542 185.209 最大誤差值 991.8 8815.3 8815.3 1027.24 1981 1981 911.11 2233.268 2233.268 最小誤差值 0.0458 12.4493 0.0458 0.0373 1.1077 0.0373 0.021 5.267 0.021 *表 5%顯著水準。 【表 10】迴歸模式、BP 及 RNBP 於第六組之誤差測試結果 模式 迴歸模式 BP RNBP AMRE 0.1864* 0.2179* 0.2305 AAE 169.288 169.785 179.283 PGT 0.3567 0.4131 0.4213 PLF 0.1811 0.1656 0.1905 標準差 365.839 209.5 220.463 最大誤差值 9956.4 2437.6 2451.8 最小誤差值 0.0972 0.0532 0.0512 *表 5%顯著水準。 在 PGT 及 PLF 兩項指標中,除了第五組分組樣本外之 PLF 為 RNBP、BP 顯著較佳外,其他皆不顯著。此可說明類神經網路(特別是 RNBP)對於準確性預 測指標乃隨著訓練樣本數的增加而會有較準確的預估能力。 由此實驗結果可知在訓練樣本為 50 筆及 100 筆時,RNBP 和 BP 之表現大 致上並無差異,而迴歸則有差異。不過,各模式在統計檢定上並無差異。

(16)

(三)【實驗設計三】

由於此實驗並無對所選取之資料進行殘差標準差範圍的分組,所以將與第 六組做進行統計檢定比較。【表 11】顯示資料在進行分區後,各模式有較好的 預測效果19 【表 11】第七~九組之測試結果 第七組(文山區) 第八組(大安區) 第九組(邊緣區) 模式 迴歸 BP RNBP 迴歸 BP RNBP 迴歸 BP RNBP 隱藏結點數 4 21 4 19 4 16 AMRE 0.172* 0.177* 0.265 0.171* 0.178* 0.178* 0.175* 0.199* 0.215* AAE 115.505* 108.121* 155.317* 200.090 169.905 176.813 117.293* 118.122* 129.596* PGT 0.316 0.311 0.419 0.325 0.352 0.372 0.299 0.343 0.432 PLF 0.182 0.207 0.321 0.214 0.202 0.229 0.208 0.183 0.244 標準差 296.85 149.121 229.246 320.596 162.075 178.795 179.732 132.673 154.17 最大誤差值 5418.667 1411.483 2028.649 3400.956 1056.25 1190.187 2544.843 1017.012 858.611 最小誤差值 0.144 0.254 0.000 0.176 1.957 0.058 0.295 0.125 0.06 *表在 5%顯著水準下,此測試結果較第六組顯著為佳

(四)【實驗設計四】

【表 12】顯示在 AMRE、AAE、PGT 及 PLF 方面,除了第十二組(都市邊 緣區)是類神經網路表現較好外,第十、十一組皆是迴歸有較好的表現,但這是 由於樣本未經處理(限制樣本於某一特定殘差標準差範圍之內)。當然,在第七組 至第十二組中僅抽出 50 筆訓練樣本作學習,因此差距並不顯著,也有可能此組 之非線性程度並不明顯的關係所致。 【表 12】第十~十二組之測試結果 第十組(文山區) 第十一組(大安區) 第十二組(邊緣區) 模式 迴歸 BP RNBP 迴歸 BP RNBP 迴歸 BP RNBP 隱藏結點數 4 10 4 13 4 12 AMRE 0.138* 0.142* 0.214* 0.146* 0.182 0.196 0.134* 0.132* 0.13* AAE 80.292* 84* 119.031* 142.364 168.596 161.039 81.514* 75.863* 75.063* PGT 0.258 0.313 0.447 0.289 0.353 0.349 0.23 0.225 0.243 PLF 0.233 0.185 0.286 0.235 0.173 0.186 0.226 0.271 0.363 標準差 72.362 89.761 128.143 127.677 145.172 168.77 73.275 72.792 82.951 最大誤差值 414.043 515.667 754.04 719.378 936.25 1186.83 429.448 492.29 452.029 最小誤差值 0.005 0.346 0.029 0.001 0.12 0.393 0.037 0.116 0.053 *表在 5%顯著水準 由於迴歸並不受限於訓練樣本的變異程度,因其只要大部分的樣本分佈均 勻,則迴歸線自然會出現在樣本點的中間。當然這樣的模式雖然對訓練樣本有較 19 此乃根據 AMRE 結果。由於第七組至第九組測試樣本之平均房價與第六組不同,因此若比較 AAE 則會有所偏失,

(17)

小的限制,但其預估的精確度亦無法提高。【表 12】亦顯示第十一組之 BP 及 RNBP 的 AMRE 並無較第八組為佳,而在 AAE 方面,則除了第十一組與第八組 無差異之外,第十、十二組乃較第七、九組顯著為佳。

(五)實驗總結

由第一~六組之實證結果得知訓練樣本之殘差標準差範圍限制在±0.5σ與±1σ之 間能使類神經網路有較佳的學習效果。我們又再分別選取大安區及都市邊緣區20 以了解是否變異程度不同的資料應抽取不同殘差標準差範圍的訓練樣本。此實驗 資料選取之過程如下: 1. 殘差標準差範圍則分別為±0.5σ、±0.65σ、±0.8σ、±1σ四組進行測試。 2. 對資料進行異常點刪除。 3. 訓練樣本數為 100 筆。 4. 將異常點刪除後之大安區訓練樣本房價限制在 500 – 1300 萬元之間,而都市 邊緣區則限制在 300-800 萬元之間。 經過實證分析結果顯示,BP 在都市邊緣區之資料範圍以殘差標準差±0.8σ 為佳,而 RNBP 則為±0.65σ為佳。在大安區則皆是±0.5σ較佳。此顯示由於 RNBP 較 BP 對資料來得敏感,因此在資料分佈較均勻的都市邊緣區中,±0.65σ之範 圍即可有較佳之預估效果,而 BP 則是在±0.8σ之範圍。至於大安區,由於變異 程度大,且資料分佈較不均勻21,使得類神經網路之學習並不如都市邊緣區的佳。 【表 13】資料經選樣後之 BP 及 RNBP 測試結果 都市邊緣區 大安區 網路系統 BP RNBP BP RNBP 隱藏結點數 4 14 4 15 AMRE 0.126* 0.124* 0.141 0.138 AAE 70.277* 68.601* 130.364 123.702 PGT 0.216 0.221 0.239899 0.242 PLF 0.295 0.297 0.214646 0.277 標準差 59.574 59.341 108.166 111.859 最大誤差值 307.814 289.987 644.477 644.257 最小誤差值 0.088 0.030 0.012 0.228 註:*表在 5%顯著水準下,此結果較迴歸為佳 由【表 13】可得知不論是都市邊緣區或大安區,BP 及 RNBP 之預估效果皆 較迴歸顯著的佳,但兩者之間則並不顯著。我們亦可看出 BP 及 RNBP 在都市邊 緣區與迴歸相差的程度大於大安區,此顯示大安區由於變異程度大,使得類神經 網路相對上無絕對的優勢。 綜合上述實驗結果,我們得出下列結論: 20 其中大安區之抽樣母體標準差較大,而都市邊緣區之抽樣母體標準差較小。 21 雖然已刪除異常點,都市邊緣區房價之全距為 500 萬元,而大安區為 800 萬元。而且刪除準 則乃以線性為主。因此對類神經網路而言,異常點或極端值仍有存在的可能。

(18)

1. 迴歸對於資料之型態並不敏感,只要資料分佈大致均勻,則其表現則無相差 太遠。實證亦顯示迴歸對於房價之預估能力就 AMRE 及 AAE 來看,其大都 呈平穩狀態,並不會過好或過壞;而在變異程度上則對於極端值有預測能力 偏低的情況。雖然迴歸模式對於資料型態較無限制,且操作方便,但似乎無 法達到估價高精確度的要求。 2. 在資料樣本變異程度較小時,BP 表現較迴歸為佳,但較 RNBP 為差;而在 資料樣本變異程度較大時,在有限的訓練樣本下,BP 較迴歸差,但較 RNBP 為佳。故 BP 對於資料之學習能力介於迴歸及 RNBP 之間,但其對於訓練樣 本之限制並不如 RNBP 來得嚴格,且操作較 RNBP 簡便。 3. 訓練樣本數為 100 筆或 50 筆時,對於類神經網路之學習能力並無影響,但 對迴歸來說,則影響頗大。 4. RNBP 於選取樣本(即樣本具代表性)之 AMRE 及 AAE 是所有資料組別中表 現最佳的,而在不分區的資料中,RNBP 表現亦多是最佳的。在資料進行殘 差標準差分組後,於±0.5σ範圍之抽樣母體中,RNBP 之表現的確較其他兩 模式為佳,而訓練樣本的增多更使得 RNBP 顯著較佳。此外,當訓練樣本之 最大值較大時,RNBP 會受其影響而產生預估錯誤,此說明 RNBP 對極端值之 敏感度較大。 5. 在抽樣母體之標準差較小的範圍內,類神經網路有較好的表現;類神經網路 在全距較大的抽樣母體中,對於過小值之預測能力較差;資料在分區後,類 神經網路會有好的表現;另外訓練樣本中之極大值與極小值對類神經網路有 影響。

五、 結論

由於類神經網路無需先假設母體分配、能自我調整函數、可處理非線性問 題,並且可藉由訓練樣本來達到學習效果,對於無一定規則可循且異質性頗大的 房地產價格而言,實為一有效的輔助工具。故本研究乃探討如何有效地應用類神 經網路於房地產估價上。研究結果顯示類神經網路透過適當的樣本學習,的確能 獲得較好的估價結果,其中又以 RNBP 較 BP 為佳。相較於傳統迴歸方式特徵價 格法,類神經網路未來應可拓展於房地產估價上。研究結論歸納如下: 1. 所提供的訓練樣本要具有代表性,而所使用的學習演算法要能有效地找出訓 練樣本所隱含的對應關係。本研究建議,未來在類神經網路學習時,應先將 資料分區後,依價格高低分組,再剔除異常點,所得出之類神經網路會較佳, 而 RNBP 較 BP 為佳。

(19)

2. 應了解真正的輸入資訊與輸出結果之對應關係是模糊、非有定論的,而且目 前已開發之類神經網路仍不能(透過學習階段)有效地找出我們想要得到的 輸入資訊與輸出結果之對應關係。 3. 類神經網路隨著資料型態的不同,而有不同的預估能力。類神經網路雖能較 迴歸有較佳的學習能力,但操作複雜煩冗。另外,若訓練樣本數不足,則會 有學習過度配適(overfitting)的現象。 類神經網路應用於房地產估價上之進階研究還有解讀類神經網路所學得的 隱含對應關係,和研究類神經網路所學得的隱含對應關係與訓練樣本們的對應關 係之差異。如此才能從類神經網路所學得的隱含對應關係判斷相關房地產理論之 合理性,拉近理論與實際的距離。

參考文獻

[中文部份] 林修葳、蔡瑞煌、紀如龍(1997),神經網路與向量誤差修正模型對國內債券價格 之預測績效,證券市場發展季刊,第九卷,第一期,pp. 63-113。 林秋瑾、黃佩玲(1994),穩健性住宅租金模式之探討---異常點之分析,中華民國 住宅學會第三屆年會學術研討會。 邱奕德、劉曦敏、蔡瑞煌(1996),應用理解神經網路系統與台灣股價指數之分析 及預測,經濟研究,34:2,171-200。 葉怡成(1993),類神經網路模式應用與實作,儒林圖書公司,台北。 蔡瑞煌(1995),類神經網路概論,三民書局,台北。 張金鶚(1995),台灣地區住宅價格指數之研究,行政院經濟建設委員會委託研究。 [英文部份]

Adair, A. & McGreal, S. (1987), The Application of Multiple Regression Analysis in Property Valuation, Journal of Valuation, 6 : 57-67

Borst, R. (1992), Artificial Neural Networks. The Next Modelling/Calibration Tech-nology for the Assessment Community, Property Tax Journal, Vol. 10, No. 1, pp. 69-94.

Brunson, A., Buttimer, R. & Rutherford, R. (1994), Neural Networks, Nonlinear Specifications, and Industrial Property Values, Working Paper Series, pp. 94-102, University of Texas at Arlington.

Do, Q. & Grudnitski, G. (1992), A Neural Network Approach to Residential Property Appraisal, The Real Estate Appraiser, December, pp. 38-45.

Evans, A., James, H. & Collins, A. (1991), Artificial Neural Networks: and Applica-tion to Residential ValuaApplica-tion in the UK, Journal of Property ValuaApplica-tion & Investment, Vol. 11, No. 2, pp. 195-204.

(20)

Econometric Reviews, 13(1), 1-91.

Lenk, M., Worzala E. & Silva, A. (1997), High-Tech Valuation: Should Artificial Neural Networks Bypass the Human Valuer?, Journal of Property Valuation &

Investment, Vol.15 pp8-26.

Lewis, Ware, & Jenkins (1997), A Novel Neural Network Technique for the Valuation of Residential Property, Neural Computing & Application, 5:224-229.

Rumelhart, D., G. Hinton, & R. William (1986). Learning Internal Representations by Error Propagation. In Rumelhart, D. & J. McClelland (Eds.), Parallel Distributed

Processing: Explorations in the Microstructure of Cognition, vol. 1, MIT Press, Cambridge, MA, pp. 318-362.

Tay, D. & Ho, D. (1992), Artificial Intelligence and the Mass Appraisal of Residential Apartments, Journal of Property Valuation & Investment, Vol. 10 NO. 2, pp.520-40. Tsaih, R. (1993), The Softening Learning Procedure, Mathematical and Computer

Modelling, Vol. 18, No. 8, pp. 61-64.

Tsaih, R. (1994), The Softening Learning Procedure for the Networks with Multiple Output Nodes, 資管評論,第四期,pp. 89-93。

Tsaih, R. (1996), Learning Procedure that Guarantees Obtaining the Desired Solution of the 2-classes Categorization Learning Problem, Proceedings of The First

Asia-Pacific Conference on Simulated Evolution and Learning, Taejon, Korea, pp. 446-453.

Tsaih, R. (1997), The Reasoning Neural Networks, In Ellacott S., J. Mason & I. Anderson (Eds.). Mathematics of Neural Networks: Models, Algorithms and

Ap-plications, Kluwer Academic Publishers, London, pp. 366-371.

Tsaih, R. (1998), An Explanation of Reasoning Neural Networks, Mathematical and

Computer Modelling, Vol. 28, No. 2, pp. 37-44.

Tsaih, R., Chen, W. & Lin, Y. (1998). Application of Reasoning Neural Networks to Financial Swaps, Journal of Computational Intelligence in Finance, Vol. 6, No. 3, pp. 27-37.

Tsaih, R., Hsu, Y. & Lai, C. (1998), Forecasting S&P 500 Stock Index Futures with the Hybrid AI system, Decision Support Systems, Vol. 23, No. 2, pp. 161-174. Worzala, E., Lenk, M. & Silva, A. (1995), An Exploration of Neural Networks and its

Application to Real Estate Valuation, Journal of Real Estate Research, Vol. 10, No. 2, pp. 185-202.

Yoon, Y., Guimaraes, T. & Swale, G. (1994), Integration Artificial Neural Networks With Rule-Based Expert System, Decision Support Systems, 11, pp. 497-507.

參考文獻

相關文件

 1932 年提出李克特量表( Likert Scale ),是一種 心理測量量表,通常用於問卷設計,為目前最受調查 研究者廣泛使用的測量方法.

1.概估 2.設計估價 3.競爭估價 4.明細估價 5.實費精算估價 6.雇工估價

進而能自行分析、設計與裝配各 種控制電路,並能應用本班已符 合機電整合術科技能檢定的實習 設備進行實務上的實習。本課程 可習得習得氣壓-機構連結控制

事前事後比較((前測 前測 前測 前測 前測//後測 前測 前測 前測 後測 後測 後測 後測 後測 後測 後測))研究設計 研究設計 研究設計 研究設計 研究設計

因此在表 5-4 評估次項目中,統計結果顯示政治穩定度、房產政 策、官僚政治以及景氣是接受度最高的,可以顯示政局安定以及當局

表 2.1 停車場經營管理模型之之實證應用相關文獻整理 學者 內容 研究方法 結論

針對 WPAN 802.15.3 系統之適應性柵狀碼調變/解調,我們以此 DSP/FPGA 硬體實現與模擬測試平台進行效能模擬、以及硬體電路設計、實現與測試,其測 試平台如圖 5.1、圖

圖 2-13 顯示本天線反射損耗 Return Loss 的實際測量與模擬圖,使用安捷倫公司 E5071B 網路分析儀來測量。因為模擬時並無加入 SMA