• 沒有找到結果。

1971 至 1989的股市風險

N/A
N/A
Protected

Academic year: 2022

Share "1971 至 1989的股市風險"

Copied!
30
0
0

加載中.... (立即查看全文)

全文

(1)

運用神經網路來預測 股票的系統風險

科 目: 財務資訊系統 指導老師: 周宗南

級: 財研一A

生: 蕭惠中 9016613

(2)

Basic Introduction

{ Title: Using neural networks to forecast the systematic risk

of stocks

{ From: EUROPEN JOURNAL OF

OPERATIONAL RESEARCH

{ Author: Hans-Georg Wittkemper Manfred Steiner

(3)

報告大綱

{ 基本概念

{ 資料來源

{ 模式介紹(預測β的方法)

z 傳統模式

z 神經網路模式

{ 結果

z 傳統和一般迴歸神經網路法

z 基因演算法

{ 圖表分析結果

{ 結論

(4)

基本概念 (衡量歷史的β)

{ Market Model (市場模式):在預測股票 風險上很常使用的一個模式

{ 股票的變異數

) 2 ( /

) ,

cov( i m M2

i R R

b = σ

) 1

i (

m i

i

i a b R u

R = + +

) 3

2 (

2 2

2

ui M

i

i b σ σ

σ = +

(5)

基本概念

{ β=beta of a stock

=衡量股票風險最重要的因素

{ 1971-1989其變化範圍在0.8 至1.6之間

這使由過去β來預測未來β困難度更清晰

{ 所謂系統風險是指不能分散的風險

{ 而非系統風險是可以分散的

(6)

1971 至 1989的股市風險

(7)

資料來源

{ 選擇德國上市前100大的公司共67家

{ 期間為 1967至1986的日資料

{ 日資料計算出週報酬

{ 以market model用52週的股票及市場報酬 得出年β

{ 取樣的公司名稱列在Table1

{ 衡量的32 個基本變數在Table2

(8)

分析公司之名稱 (Table1)

(9)

財務的敘述變數 (Table2)

(10)

傳統的模式

) 4 ( 'i,t = βi,t1

β

{ ST

(Simplest Model)

{ MW

{ Blume

{ MLPFS

{ Fund4

{ Bauer

) 5 1 (

'i,t = n β i,t1

β

) 6 ( 'i,t = at + bt βi,t1

β

) 7 ( )

1 (

1

'i,t = + kt βi,t β

) 8 ( ) 05 ln(

) 09 ln(

) 02 ln(

) 01 ln(

'

4 3

2 1

,

KL b

KF b

KA b

KG b

a

i i

i i

i t

i

+ +

+ +

β =

(11)

神經網路模式(未使用基因演算)

{G1 (Blume) :使用倒傳遞(BPN),並使用 過去的β值及像(6)的方程 β 'i,t = at + btβi,t1 (6)

{G2 (Fund4):使用BPN但不使用過去的β值 使用像(8)的方程

{神經網路之輸入輸出層,透過轉換函數將變數 轉換為0-1的範圍,前題假設為β範圍限制在 -0.75至+2.00

轉換函數為β*=(β+0.75)/2.75

β

) 8 ( ) 05 ln(

) 09 ln(

) 02 ln(

) 01 ln(

'

4 3

2 1

,

KL b

KF b

KA b

KG b

a

i i

i i

i t

i

+ +

+ +

=

(12)

神經網路模式(使用基因演算法)

{ 使用Table2的32個基本變數,但不含過去的β

{ 另一方面使用基因演算來選擇變數

{ 在短時間就能找出最接近的global optimum

{ Fitness Function是使用mean MSE 來檢定

{ 在至少跑了20代後找出最好5個模式

(執行5000次來決定個別MSE的變數數目)

(13)

類神經模式(使用基因演算法) (Table4)

{ GA1 跑3個基本變數包含過去的β

{ GA2 跑4個基本變數包含過去的β

{ GA3 跑6個基本變數包含過去的β

{ GA4 跑4個基本變數不包含過去的β

{ GA5 跑6個基本變數不包含過去的β

(14)

結果

{ 傳統的模式使用Market Model 和迴歸的分析得 出market portfolio (利用週報酬率和 FAZ index)

{ G1:訓練資料是1967 年的67支股票β ,而輸 出是1968年,且再用此資料當成輸入資料,以 求出1969年的β

{ 以橫斷面分析預測年之 MSE

{ 個別股票β預期的MSE為

2 '

, )

67 ( 1

it t

i n

MSEt =

β β

(15)

傳統及一般迴歸神經網路的結果

{ ST模式之MSE 是最大的 (最差)

{ 而在傳統模式中Bauer 是最好的

{ 而G1是所有模式中最好的

{ G2其MSE 很大原因如下:

1.沒有包含過去的β

2.預先限制了變數而失去了最佳化的選擇

(16)

傳統方法的MSE之排名 (Table3)

(17)

基因演算法的結果 (Table5)

{ 超過5000次組合,由GA1-GA5找出其各 自最好的三種變數組合

{ GA1-GA3包含過去的β

{ GA4-GA5不包含過去的β

{ 發現找出的基本變數和Bauer 的變數之間 有相同之處

{ 所有的基因演算法跑出來的MSE其結果皆 比G2的結果好

(18)

基因演算法最佳模式變數組合 (Table4)

MSE

(19)

基因演算和其他最佳MSE比較 (Table5)

(20)

基因演算法的結果

{ 結果最好的模式是GA3

{ 其變數(6個)分別為

(21)

圖表分析---單變數圖形分析

{ 由Fig.3可以看出當財務槓桿在中間時,β有 較高的趨勢(區域解)

{ 而過去的β值會改變今年的預測值(正相關)

{ 而Fig.4中淨負債/權益比的成長率並沒顯著的 影響

{ 各變數之間的互相影響是個自獨立的

(22)

β(t-1) 及財務/營運槓桿 (Fig.3)

(23)

負債權益比/成長及總資產 (Fig.4)

(24)

圖表分析---多變數圖形分析

{ Fig.5:營運及財務槓桿兩變數隨預測β突然增 加,且在高財務槓桿的時候會有向下的趨勢

{ Fig.6:可能會造成很多的區域的最大值和最小 值,輕微改變易導致區域解

{ Fig.7:

1. 過去β可減少導致預測β最大範圍的事實 2.總資產低時,過去β可決定預測β的大小

(25)

營運和財務槓桿 (Fig.5)

(26)

總資產、負債權益比 (Fig.6)

(27)

總資產和β(t-1) (Fig.7)

(28)

結論

{ 比較傳統的模式和二種神經網路的模式發 現,過去的β值有很重要的關係,且其可由 Market Model 找出,而G1 的模式是最好的

{ 由基因演算的方式可以找出較好的合併變數

{ 未來可以試著把所有的變數之間的相互關 係全放在同一個圖來比較,因為目前的技術 上不可行且不易分析,這可以是未來研究者 研究的一個新的方向。

(29)

結論

{ 由結果可以看出最好的變數的選擇 是由GA3導出的其變數如下:

(30)

~THE END~

謝謝各位…

請掌聲鼓勵!鼓勵!

參考文獻

相關文件

In this paper, we build a new class of neural networks based on the smoothing method for NCP introduced by Haddou and Maheux [18] using some family F of smoothing functions.

In the work of Qian and Sejnowski a window of 13 secondary structure predictions is used as input to a fully connected structure-structure network with 40 hidden units.. Thus,

– 某人因為與上市公司有關連,即內幕人士 (如公司董事、職員或公司的 核數師等)

CAST: Using neural networks to improve trading systems based on technical analysis by means of the RSI financial indicator. Performance of technical analysis in growth and small

CAST: Using neural networks to improve trading systems based on technical analysis by means of the RSI financial indicator. Performance of technical analysis in growth and small

They are suitable for different types of problems While deep learning is hot, it’s not always better than other learning methods.. For example, fully-connected

Pascanu et al., “On the difficulty of training recurrent neural networks,” in ICML, 2013..

Attack is easy in both black-box and white-box settings back-door attack, one-pixel attack, · · ·. Defense