• 沒有找到結果。

1. 序論

1.2 研究架構

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

7

1.2 研究架構

本文的研究架構:第二章針對金融市場價格變動預測的主題,蒐集並 整理國內、外相關文獻;第三章對於本文所建立的預測模型,其所運用的 EEMD 與 ANN 方法作詳細的說明;第四章以台股加權指數的日內每分鐘 交易資料作為實證對象,並將本文的預測模型績效表現結果與 Buy and Hold 策略績效作比較;第五章本文結論。

研究架構流程如下:

文獻探討

EEMD 方法

ANN 方法

實證研究及結果

結論

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

8

2. 文獻回顧

Yu , Wang , Lai(2008)將 West Texas Intermediate(WTI)與 Brent 輕原油現 貨價格的時間序列資料分割成有限條 Intrinsic Mode Functions(IMFs),利用 three-layer 前饋式類神經網路(Feed-forward Neural Network, FNN)模型化 每一條 IMF,並精確地預測出這些 IMF 的長期趨勢,最後將這些 IMF 利 用 Adaptive Linear Neural Network(ALNN)線性組合輸出輕原油價格序列,

再與 GARCH 模型的 RMSE 作比較,驗證出 EMD-FNN-ALNN 模型的 RMSE 最小。

Zhang , Lai , Wang (2008)提到針對非線性與非定態的時間序列資料,

Empirical Mode Decomposition(EMD)是一個新穎的數值分析方法,從一個 較新的觀點去解釋時間序列資料的產生,Ensemble EMD(EEMD)則是改善 了 EMD 的 mode mix 問題,將 white noise 加入原始時間序列資料,進而更 有效地拆解資料所隱含的資訊,此篇文章利用 EEMD 對輕原油價格作分 析,認為拆解出來的 IMFs 從高頻到低頻,以經濟層面的角度來看,可分 為三個部分,第一部分為由供需不均衡或一些市場活動所造成的短期波動 (高頻),其次為不可預期與顯著事件衝擊影響(低頻),最後為長期趨勢 (Trend)。

Wu , Huang(2009)在探討 EEMD 這個新的數值分析方法,以聲波與氣 候數據做為 EEMD 拆解的輸入資料,除了增加 white noise 外,還加入重覆 拆解成 IMF 的次數,並將其平均,這個次數(ensemble number)並沒有任何 準則可依循,認為可把所有可能的 IMF 結果考慮進去,因此所得出的 IMF 更具有實質的意義,改善了原始 EMD 的缺點,是一個真實地

NADA(Noise-Assisted Data Analysis)方法。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

9

Hamid , Iqbal(2004)利用 ANN 預測 S&P500 指數期貨的波動度,並與 美式選擇權評價模型的隱含波動度作比較,探討 ANN 最適的神經層層數 為 3~4 層,超過 4 層績效未必好且增加 ANN 的訓練時間;第 2 層神經元 個數為輸入變數的 0.5 倍至 2 倍較好,結果證實 ANN 預測的波動度相較於 隱含波動度,較接近真實的波動度。

Lin , Yu(2009)運用 ANN 來預測台股加權指數(Taiwan Weighted Index) 與 S&P500 指數,以 Forward-calculated %K(FK) Indicator 作為買賣交易訊 號的依據,並與傳統的移動平均法(Moving Average)、買進持有策略

(Buy-and-Hold)的交易績效比較,發現利用 ANN 預測出走勢,再轉換成 FK Indicator 作為買賣交易的策略,其績效明顯優於其他兩者。

Irina, Lelis(2008)以預測通訊網路連結(如:IP、電話等)強度為對象,

探討 Neural Network 的資料輸入前處理程序,可以考慮 Neural Network 的 神經元間網路連結特性,來增加預測的精確度與可信性,減少 Neural Network 的模擬訓練時間,尤其是輸入資料量很大時,減少訓練學習時間 將是非常重要的,而網路中各層神經元個數如何配置是影響 Neural Network 的執行效率與預測精確度的重要因素。

Chan , Wong , Lam(2000)多層 Neural Network 已逐漸被應用在時間序 列預測,又以倒傳遞類神經網路(Back-Propagation Network, BPN)學習演算 法較受歡迎,此篇論文還提出了另一個 Gradient 學習演算法,且普遍使用 的隨機配適權重值不能保證能夠產生接近最適的權重值,也會導致緩慢收 斂,本文也提出了多元線性迴歸(Multiple Linear Regression, MLR),與前者 相互比較,以上海股票交易所(Shanghai Stock Exchange)上市公司的日交易 資料為標的,結果發現 Neural Network 模組化時間序列資料跑出的預測效 果較佳。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

10

Chena , Leungb , Daouk(2003)利用 Probabilistic Neural Network(PNN) 預測台股加權指數報酬率的方向,將 PNN 預測效果與 Kalman 的

Generalized methods of Moments(GMM)作比較,更進一步,以 PNN 預測出 的結果搭配數種交易策略並與買進持有策略(Buy and Hold)及 GMM 搭配 同樣的交易策略作比較,實證結果發現以 PNN 為主的交易策略績效表現 優於其它兩者。

Quaha , Srinivasan(1999)ANN 在證券市場應用越來越普遍,本篇文章 利用 Artificial Neural Network(ANN)的結果作為選擇股票的標準,以 Credit Lyonnais Securities(Singapore)所提供的證券市場資訊為對象,ANN 能夠從 股票績效表現的歷史資料作推測,股票的績效反應該公司的獲利能力與管 理者的素質,這類資訊會反應在財務變數與技術分析變數,以這兩類變數 作為 ANN 的輸入資料,輸出則為該公司股票未來的績效表現,實證結果 指出 ANN 確實有能力推測出公司股票的未來表現,更進一步的話,可以 在 ANN 的內部結構作多次調整與實證,找出最適的 ANN 結講。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

11

3. 研究方法

3.1 Empirical Mode Decomposition (EMD)

EMD 是一個對非線性、非定態資料的分析方法,由黃鍔(Hilbert Huang) 博士於 1998 年所發表的,他認為在複雜的時間序列資料中,存在許多不 同的振動模式,而 EMD 利用資料本身的極值特性,可以取出這些內含在 原始時間序列資料中的振動模式(Intrinsic Mode Function ,IMF),EMD 的演 算法如下:

(1) 找出時間序列資料 X(t)的極大值與極小值

(2) 利用 cubic-spline 內差法,產生上緣(極大值)包絡線 emax(t)與下緣(極小 值)包絡線 emin(t)

【圖 3-1】上下緣(極值)包絡線1 (3) 計算上下緣包絡線的平均值,產生均值包絡線 m11(t)

【圖 3-2】均值包絡線2

1 圖 3-1 的參考資料來源:謝志敏-希爾伯特黃轉換簡介(Hilbert Huang Transform),2007

2 圖 3-2 的參考資料來源:謝志敏-希爾伯特黃轉換簡介(Hilbert Huang Transform),2007

2

)) ( )

( ) (

( min max

1 1

t e t t e

m

 emax(t)

emin(t) X(t)

m11(t)

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

12

(4) 求出 h11(t)=X(t)-m11(t),即均值包絡線與原始資料之差值

【圖 3-3】原始資料與均值包絡線之差值曲線3 (5) 檢查 h11(t)是否為 IMF:

a. 若 h11(t)為 IMF,則將 h11(t)視為 C1(t),C1(t)為 EMD 拆解的第 1 條 IMF,而第 2 條 IMF 的初始序列資料改為 r1(t),r1(t)=X(t)-C1(t),

以此類推至第 n 條 IMF

b. 若 h11(t)不為 IMF,則將 X(t)換成 h11(t),即 h11-m12=h12,重覆(1)~(5) 的步驟,直到滿足 stopping criterion,即為 IMF(h1k=C1,重覆 k 次) 上述為 EMD 演算法的流程,而利用 EMD 拆解成多條 IMF 的過程,如【表 3-1】所示:

IMF1 IMF2 IMF3 … IMFn

X(t) X(t)-C1=r1 r1-C2=r2 … rn-1-Cn=rn 1 X(t)-m11=h11 r1-m21=h21 r2-m31=h31 … rn-mn1=hn1 2 h11-m12=h12 h21-m22=h22 h31-m32=h32 … hn1-mn2=hn2 3 h12-m13=h13 h22-m23=h23 h32-m33=h33 … hn2-mn3=hn3 4 h13-m14=h14 h23-m24=h24 h33-m34=h34 … hn3-mn4=hn4

: : : : … :

k h1(k-1)-m1k=h1k h2(k-1)-m2k=h2k h3(k-1)-m3k=h3k … hn(k-1)-mnk=hnk IMF h1k=C1 h2k=C2 h3k=C3 … hnk=Cn

【表 3-1】原始資料 X(t)拆解成多條 IMF 的過程

3 圖 3-3 的參考資料來源:謝志敏-希爾伯特黃轉換簡介(Hilbert Huang Transform),2007

h11(t)

Huang 提出了關於求得一條 IMF,其 stopping criterion 有如下幾點:

a. 通過零點的次數與極值的個數相差不得大於 1 在 Huang and Wu(2009)文中所分析的自然現象數據,就不是平均週期越 長、振幅越大的結果。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

14

利用 EMD 數值分析方法將隱含在序列資料內不同頻率的擺動模式拆解出 來,但 EMD 方法存在了一個 mode mixing 的問題,mode mixing 是指在一 條 IMF 中同時存在低頻振動模式與高頻週期性波形(如【圖 3-4】中的 C1),

使高頻與低頻的 IMFs 間存在了相關性,亦即不具有獨立性。

【圖 3-4】EMD 拆解 Input 的結果4

在數值拆解方法中,獨立性是基本條件,因 EMD 拆解存在這個令人 困擾的問題,所以 Huang and Wu(2009)提出了一個新的數值分析方法 Ensemble-EMD(EEMD),改善了 EMD 的 mode mixing 問題。

3.2 Ensemble Empirical Mode Decomposition (EEMD)

Huang and Wu(2009)提到序列資料本身就同時存在真實訊號 (true signal)與 white noise 兩個部分,其公式表示如下:

4 圖 3-4 的參考資料來源:Ensemble Empirical Mode Decomposition :A Noise-Assisted Data Analysis Method, Huang and Wu, 2009

取出真實訊號,提高數值分析方法的精確度,而 Huang and Wu(2009)這篇 文章所提出的 EEMD 方法有效地將真實訊號拆解出來,且排除了 EMD 方 法所造成的 mode mixing 問題,EEMD 與 EMD 方法上的差異在於前者將 white noise 加入原始序列資料後,才做 EMD 的拆解,在拆解的過程中,

還增加了一個參數 ensemble number,其公式表示如下:

zs

從公式(3)中可看出,ensemble number 即為 s 的值,定義為運行 EEMD 時,添加 white noise 的次數,並且會計算出 j 組的 IMF 結果再進行平均,

其目的是為了將 white noise 排除掉,因加入 white noise 的本意是要排除 mode mixing 問題,但其本身對原始資料來說是雜訊,需要被排除;添加 的 white noise 為 Signal-Noise Ratio 乘標準常態分配的隨機亂數值,以下為 EEMD 方法的步驟: number。

(2)

(3)

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

16

【圖 3-5】EEMD 拆解 Input 的結果5

【圖 3-5】為同樣的 Input 經由 EEMD 拆解後的 IMFs 結果,可看出 EEMD 比 EMD 更有效地拆解出隱含在 Input Data 內的高頻振動模式,解 決了 mode mixing 問題,而 Zhang, Lai, Wang(2008)這篇文章利用 EEMD 方 法分析輕原油價格走勢,有提到在實證中,ensemble number 的值都設為 100,signal-noise ratio 的值都設為 0.1 或 0.2,本文就引用此篇論文的參數 設定值來拆解台股加權指數的走勢。

3.3 Artificial Neural Network (ANN)

類神經網路是一種計算系統,由許許多多的人工神經元聯結所組成 的,而人工神經元則是最基本的類神經網路單元,又可稱它為處理單元

5 圖 3-5 的參考資料來源:Ensemble Empirical Mode Decomposition :A Noise-Assisted Data Analysis Method, Huang and Wu, 2009

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

17

(processing element)或節點 (node),用來處理資訊並對外部的輸入以網路 動態來回應。

類神經網路具有三層:輸入層、隱藏層、輸出層,如下圖所示,每一 個節點都是獨立地進行運作,可視為一個單獨的處理器,而且這些處理器 都是以並行方式運作的。

【圖 3-6】類神經網路架構圖6

類神經網路可視為一個黑盒子,經由輸入層的所有節點來輸入訊號,

透過層與層之間各節點的相互聯接關係(權重連結)來作訊號的處理,而且 整個處理過程對我們而言是隱藏的,且將最終處理結果由輸出層傳出,【表 3-2】列出各層的功能:

6 圖 3-6 的參考資料來源:類神經網路 – MATLAB 的應用,羅華強編著(2005)

處理單元或節點

輸入 輸出

輸入層 隱藏層 輸出層

權重連結

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

18

功 能

輸入層 從外面接受訊號並將此訊號輸入類神經網路中,以方便進行訊 號處理

隱藏層 接受輸入層的訊號,對訊號進行處理,然而整個訊號處理過程 對網路使用者來說是隱藏的,猶如一個黑盒子

輸出層 接受網路處理後的訊號,並將結果輸出

【表 3-2】各神經層的功能

在類神經網路中,訊號處理過程是以數值方式來進行的,網路可以儲 存訊號,而且所儲存的資訊是數值型態的,因此,類神經網路可以用來做 為多變數經驗建模的工具。

神經元為一個類神經網路最基本的元素,所以我們必需了解到神經元 的運作流程,下圖為單一神經層有多個神經元的運作流程圖:

【圖 3-7】單一神經層多個神經元的運作流程圖7

7 圖 3-7 的參考資料來源:類神經網路 – MATLAB 的應用,羅華強編著(2005)

P1

P2

P3

PR

輸入端

Σ F

神經層

W1,1

WS,R

N1 A1

Σ

Σ

b1

b2

bS

F

F

N2

NS

A2

AS

A=F(W·P+b)

經層層數為三層(Shaikh A.Hamid, Zahid Iqbal,2004),其運作流程圖如下:

【圖 3-8】三層神經層多個神經元的運作流程圖8

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

22

第 3 層:Purelin(線性轉換函數)

第 1 層與第 2 層的轉換函數是被廣泛運用的雙彎曲函數,而第 3 層的 轉換函數使用線性函數,是要利用線性組合的方式將所有輸入至類神經網 路模型模擬預測的結果加總。

本文所使用的類神經網路模型為前饋式倒傳遞類神經網路,屬於監督

本文所使用的類神經網路模型為前饋式倒傳遞類神經網路,屬於監督

相關文件