• 沒有找到結果。

支援向量機器於企業破產預測上之應用

N/A
N/A
Protected

Academic year: 2021

Share "支援向量機器於企業破產預測上之應用"

Copied!
8
0
0

加載中.... (立即查看全文)

全文

(1)支援向量機器於企業破產預測上之應用 周文光 Wen-Kuang Chou 靜宜大學資訊管理系教授 E-mail﹕wkchou@pu.edu.tw 劉易昌 Yi-Chang Liu 靜宜大學資訊管理研究所研究生 E-mail﹕nick@cs.pu.edu.tw 摘要 企業破產(business bankruptcy)之預測長 久以來一直是學術界與業界所關心的一個重 要議題。對此問題的分析方法也從簡單的單變 量方法、多變量區別分析、邏輯斯特迴歸分 析、一直到人工智慧工具中的類神經網路、模 糊邏輯、以及類神經模糊等。本研究將跳脫以 上的分析方法,利用支援向量機(support vector machine;SVM)對此問題重新檢視。 關鍵詞:企業破產預測、類神經網路、 支援向量機。. 一、研究動機 影響企業破產的因素有很多,錯誤的投資 決策、不良的投資環境、偏低的現金流量等都 有可能導致企業的破產。然而,冰凍三尺非一 日之寒,雖然無法明確的知道導致企業破產之 原因,然而不管是業界或者學術界總希望能夠 找到蛛絲馬跡可以事先得知即將破產的預 警,進而做不同的因應措施以避免重大的投資 損失或者進一步的預防破產之發生,因而早在 Beaver([7]) 以財務比率指標的二分類檢定的 單變量分析後便陸續有學者投入此問題的研 究。 預測財務危機的方法,從最早的單變量方 法開始,由於各個單一變數的結論有可能產生 矛盾現象,因而有了多變量的分析工具。然而 多變量區別分析(MDA)工具對於類別變數的 分析有其限制性,因而產生了線性機率模型。 而線性機率模型的機率預測值有可能大於 1 或小於 0,因而有了 Logit 以及 Probit 工具的 產生。以上工具對於變數間的非線性關係並不 能有效的捕捉到,使得人工智慧工具的應用蔚 為風氣。人工智慧解釋變數間非線性關係之特 性,毋須符合基本假設條件,又具備自我學習 與調整之優點,所以目前已廣泛運用於財務金 融議題上以加強模型建構能力,諸如類神經網 路(artifical neural networks, ANNs)、模糊理 論(fuzzy theory)及專家系統(expert system) 等方法。 此外,另一種人工智慧分類方法---支援向 量機(support vector machine;SVM )在此時也 正在發展。支援向量機在分類問題上有很好的 成效,將自變數與應變數間之對應關係從原來 較低維度的向量空間提升到高維度的向量空. 林金賢 Chin-Shien Lin 中興大學企業管理系副教授 E-mailcsvincentlin@dragon.nchu.edu.tw 間中,透過極佳化之工具尋找一新的對應函 數,使其投射之分類效果最佳。此分析工具也 已被廣泛的應用在影像辨識、文字分類、生物 科技等領域。本研究的目的即在利用此一新的 工具用來建構企業破產預警模式,並與過去較 常用的工具,邏輯斯特迴歸分析以及類神經網 路作比較,對此問題作一重新檢視。除了希望 能提供更精準的預測外,藉由即時的警訊,幫 助投資者提早發現問題,並給予管理者更早、 更充裕的應對時間來解決問題避免破產之發 生。. 二、破產公司的定義 企業財務危機,大多非一夕之間爆發,而 是階段性演變。國內學者陳肇榮 ([1])採用階 段性觀點,將企業失敗分成三階段分別為 財務危機、財務失調與破產倒閉三階段。其 中,「財務危機階段」具有資金不足、債務拖 延之現象;「財務失調階段」則為暫時性周轉 不靈、跳票違約;「破產倒閉階段」則是指企 業喪失償債能力者。 理論上,應從不同階段劃分進行探討,然 而考量到實務上對危機發生階段之認定有所 困難,以及美國破產法之內容涵蓋企業清算、 重整以及與債權人協商清償債務契約等失敗 情況。故本研究將以美國聯邦破產法 ( Federal bankruptcy laws )破產申請之公司,作為財務危 機公司之定義。 在美國聯邦破產法中對於公司、企業破產 的規範主要明定於第 7 章及第 11 章。該法之 第 7 章屬清算法條,企業因債務過於龐大以致 無法繼續營業的公司,必須停止營運並將資產 進行拍賣,轉換現金後償還債權人。而第 11 章則屬重整法條,允許財務危機公司繼續營運 並在證券市場繼續交易,但重整期間,所有重 大營業決策必須向破產法庭報備,並和相關債 權人及股東協商重整計畫,逐步償還債務。由 於申請破產法第 7 章之公司,業已下市無法取 得財報資料,故本研究以申請破產法第 11 章 之公司為破產公司樣本。. 三、解釋變數之選取 1930 年至今,財務危機相關文獻採用的 自變數絕大多數以「歷史成本原則」下之傳統 財務性變數(比率)為主,若以 1968 年為分水 嶺,則 1968 年前(含 1968 年)的財務比率多側 重在資產負債表及損益表,而 1968 年之後的 財務比率,除了仍保留原有的傳統比率外,還 加入了其他的變數,例如 Beaver([7])以二分類 檢定(Dichotomous Classification Test)方式,檢 定財務報表上常用的 30 個財務比率變數,觀 察各財務比率與破產之間的關係。.

(2) Elam([14])、Ketz([17])、Norton and Smith([19]) 強調使用調整後的財務報表變數。 除傳統財務比率,亦有學者引進現金流量 概念,探討現金流量變數是否能有效提升財務 危機預測的正確率。Blume([8])認為企業可視 為一流動資產的儲水槽,當流動性資產變少 (儲水槽容量變小),現金流入減少(水槽流入量 減少),現金流出量增加(水槽流出量增加)以及 流出與流入的變異量增加時,企業財務危機發 生機率將增加。另外,Casey and Bartczak([10]) 以營運活動為基礎,將營業活動現金流量、營 業活動現金流量/流動負債、營業活動現金流 量/總負債之三項變數納入六項應計財務比率 模型中,探討現金流量變數對模型邊際貢獻。 實證結果顯示,考慮現金流量變數可改善模型 有效性,但對於模型之分類正確性卻無提升效 果。 證券市場的資訊及總體經濟因素亦為學 者所考慮之變數來源。Atiya([6])認為權益市場 為非常早的赤字預測指標,亦即股價之反應將 較資產負債表以及損益表快,故採用股價/現 金流量比率、股價變動率(rate of change of stock price)、每股現金流量變動率( rate of change of cash flow per share )、股價揮發性 (stock price volatility)等權益指標進行預測,並 和一般財務比率分析進行比較。結果發現,納 入權益指標之模型預測正確率較傳統財務比 率模式提高 4%。此顯示股價資訊有助於公司 財務危機之偵測。Rose et al. ([21])將道瓊工業 指數、失業率、公司獲利率、自由準備、毛儲 蓄對 GNP 比、企業投資變動、企業平均每小 時產出、耐久財新訂單對 GNP 比率、信用等 級公司債利率等九項變數納入預測模式中,結 果顯示總體經濟變數對模型預測能力有所提 升。Alves([5])考慮業主及經營者之特性。 綜上所述,在財務危機預測研究當中,除 公司面的財務報表資訊外,總體經濟因素、股 票市場資訊、業主及經營者之特性等非財務性 變數亦被納入考量,然由於破產公司多半已下 市或暫停股市交易,股價資料取得困難。而財 務比率為公開且經會計師簽證之資訊,具客觀 參考價值,並為銀行與授信機構風險評估之依 據,故本研究以財務比率為本研究之預測變 數。. 則分類決策函數即為:. f ( x) = sign(< w, x > +b). (1). 在公式(1)中,w 為垂直於超平面的向量, 而 b 是原點到超平面的距離,x 則是輸入的資 料集。其圖形如下所示,兩類資料( 和 ) 使用超平面予以分類。. 圖 2 使用超平面區分資料 在資料為線性可分割的情形下要將資料 分為兩類,有許多種超平面都能符合,而我們 必須要在眾多中挑選出最好的一個,經由 Vapnik 與 Lerner( [25])及 Vapnik 與 Chervonenkis( [24])研究後發現,超平面分類的 能力基於訓練點到超平面的距離,此距離又稱 之為邊界值(margin)。他們提出了一個稱之為 廣義描述(Generalized Portrait)的公式如下:. max min{∥ x − xi ∥: x ∈ ℜ n , w,b. < w, x > +b = 0, i = 1,2,....., k. (2). 公式 (2)主要意義為求出所有超平面中邊 界值最大的即為最佳化的超平面,可由圖 3 進 一步說明。圖 3 中共有兩類資料( 和 ), 分別使用 2 種不同超平面予以分類,其中因為 超平面 A 的邊界值大於超平面 B 的邊界值, 所以兩者中,超平面 A 是較佳的超平面。. 四、支援向量機 支援向量機(SVM)是一新興的分類方法 ,最早可追朔到 60 年代(Vapnik and Lerner , [25]),但直到 Vapnik ( [22])之後才開始受到重 視,從此 SVM 就廣泛的被應用在文字分類 (Joachims , [16])、影像辨識(Pontil & Verri , [20])、手寫字辨認(Vapnik, V. , [23])、生物科 技(Brown et al. , [9])上,都有不錯的成效,以 下就構成支援向量機的原件加以介紹。 (一)、超平面(hyperplane) 要建立支援向量機,先介紹使用簡單線性 的超平面來做分類,假設超平面公式:. < w, x > +b = 0 , w ∈ ℜ n , b ∈ ℜ. 超平面 A. 超平面 B. 圖 3 最佳化超平面的圖形判斷 假設訓集: X = {( x1, y1 ), ( x2 , y2 ),........,( xk , yk ) : xk ∈ℜn , yk ∈{−1,+1}} ∥ w ∥= 1 而且 b 是一個固定不變的數,我們 可以將上述描述表達成:.

(3) < w, x k > + b > 0 for y k = +1. (3). < w, x k > + b < 0 for y k = - 1. 在公式 (3)成立前題下,邊界值表示法如下: 1.邊界值 γ i( w ,b)在訓練點 xi 中代表超平 面到點 xi 的距離。 γ i ( w, b) = y i (< w, xi > +b) (4) 2.邊界值 γ s ( w, b) 在訓練集向量. S = {x1 , x 2 ,...., x n } 中代表超平面到向 量 S 的距離。. γ s ( w, b) = min γ i ( w, b). (5). xi ∈S. 經由以上對超平面及邊界值定義後,我們 可將最佳化分割的超平面(Optimal Separating Hyperplane;OSH)在訓練集 S 上定義如下,相 關證明請參考 Vapnik( [23],p402)。. (w , b ) = arg max γ ∗. ∗. s. ( w, b). (6). w ,b. γ s ( w, b) > 0, ,∥ w ∥ 2. 條件:. =1. 在圖 4 中: 1.圓圈 1 為正確的分類:因為,. y i (< w, x k > +b) > 1 所以 ξ i = 0 。 2.圓圈 2 為正確的分類:因為. y i (< w, x k > +b) = 1 ,所以 ξ i = 0 。 3.圓圈 3 為正確的分類:因為. 0 ≤ y i (< w, x k > +b) ≤ 1,所以 0 < ξ i < 1。 4.圓圈 4 為錯誤的分類: 因為 y i (< w, x k > +b) < 0 ,所以 ξ i ≥ 1 。 (二)、核心函數(kernel) 上述方法是在資料為線性可分割的情況 下進行分類,如需將非線性資料分類可採用核 心函數來改變資料型態,其主要的概念是將輸 入資料由原先的低維度空間(low dimensional) 藉由函數( φ )的轉換對映到高維度空間(high dimensional)中,在高維度空間中就可將原本 線性不可分割的資料使用線性的方式一分為 二,最早是由 Aizerman([3])等人提出,而其轉 換示意圖如圖 5。. 公式(6)又可以表示成: 最小化: 1 / 2 ∥ w ∥ 條件: < w, x. k. φ. 2. (7). > + b ≥ + 1 for y k = +1. < w, x k > + b ≤ - 1 for y k = - 1. 公式(6)和公式(7)兩個式子代表相同的意 義,相關證明請參 Vapnik( [23],p403)。因為 OSH 只容許線性可分割、沒有雜訊干擾並不 容許任何分類上的錯誤,然而真實世界中的許 多問題並非如此完美,無法單獨使用 OSH 分 類,解決方法為加入變數 ξ i (i = 1,2,....., k ) 其 中 ξ i 是邊界到分類點的距離,則公式(7)變成: < w, x k > + b ≥ + 1 − ξ i for y k = +1 < w, x k > + b ≤ - 1 + ξ i for y k = - 1. (8). 其中 ξ i = max{0,1 − y i (< w, x k > +b)}. ξ i 共有三種情況,錯誤分類 ξ i ≥ 1;正確 分類 0 ≤ ξ i ≤ 1 或 ξ i = 0 ,我們可藉由圖 4 更 清楚的看到何種 ξ i 才是正確的分類:. φ( ) φ( ) φ( ) φ( ) φ( ) φ( ). 圖 5 低維不可分割資料轉換到高維空間中分類 我們在選取分析資料時都要擷取資料的 特徵(feature),這些特徵主要用來表達被描述 的主題,高維空間又稱為特徵空間(feature space),選擇適當能代表該主題的特徵將使資 料呈現更加清楚,如此加速分類的進行和減低 操作的複雜度。我們藉由核心函數來完成將輸 入資料轉換到特徵空間中的工作,不同的核心 函數對應不同的輸入資料會有不同程度的分 類效果,所以核心函數的選擇是 SVM 中重要 的一個環節。基本的核心函數類型有: 1.線性(linear): K ( xi , x j ) = xi x j T. 2.多項式(polynomial):. K ( xi , x j ) = (γxi x j + r ) d , γ > 0 T. 2 1. 3.放射型函數(radial basis function):. 3. 4. 圖 4 此圖形中共有圓圈(. K ( xi , x j ) = exp(−γ ∥ xi − x j ∥ 2 ), γ > 0. Hyperplane M )與方塊(. ) 兩種. 類型資料,其中 4 號圓圈為錯誤的分類, 其他則是正確的分類. 4.S 型(sigmoid):. K ( xi , x j ) = tanh(γxi x j + r ) T.

(4) 圖 6 為資料由原本的空間轉換到特徵空 間的流程,資料由原先線性不可分割的狀態變 成線性可分割的資料集,經過 kernel 轉換後方 便後續的資料分析。 原始資料 線性不可分割. 輸入空間 帶入核心函數. 線性可分割. 特徵空間. 圖 6 資料從原先線性不可分割狀態藉由 核心函數變成可線性分割的狀態. 五、研究方法 本章主要探討研究方法之變數設計、研究 樣本的來源與選取、預測績效之衡量、統計分 析方法,本章分四小節,第一節為研究變數與 定義,第二節為研究樣本,第三節為預測的績 效衡量,第四節為研究方法。 (一)、研究變數的定義 1、應變數 本研究之應變數定義為公司是否破產,依 循美國證券委員會(Securities and Exchange Commission , SEC)的規定,並以聯邦破產法 (Federal bankruptcy laws)之第十一章所規定的 破產法令為依據。 2、自變數 自變數則以 Beaver( [7])與 Altman([4]) 所 使用之比率變數以及財務比率分析之主要基 本構面,作為財務比率自變數之選取原則,初 步選取 12 項財務指標,依過去文獻顯示,並 非所有財務比率皆具備良好預測能力,區隔效 果不佳的變數,將影響模型預測正確率,故採 12 項財務比率中,分類錯誤率最小之前三項 財務比率作為最後建構模型之預測變數,如表 4 所示。 (二)、研究樣本 1、樣本的選取 本研究以 1998 至 2002 年之 100 家美國申 請破產之上市公司為樣本,並參考 Beaver ([7])年配對抽樣做法,選取與破產公司相近規 模、相同產業之正常營運公司做配對,共選取 100 家破產公司與 100 家營運正常公司為樣本 集。訓練集樣本 140 家(破產與健全公司各佔 70 家),測試集樣本 60 家(破產與健全公司各 佔 30 家)。總計訓練集資料 1120 筆,測試集 資料 480 筆,進行破產前 8 季的預測。 2、樣本資料來源 破產公司名單取自 BankruptcyData.com 網站以及美國證券交易委員會申請破產案件 名單,公司之財務比率資料則取自 COMPUSTAT 資料庫,以百分位的方式將原始 財務比率資料予以轉換,消除不同產業別造成 的財務比率之差異。. 表 4 財務比率由小至大之分類錯誤率 財務比率變數 分類錯 錯誤率 誤率 排名 保留盈餘 / 總資產 0.4466 1 總資產報酬率 0.4752 2 現金流量 / 總資產 0.4984 3 流動比率 0.4988 4 現金流量 / 總負債 0.5 5 營運資金 / 總資產 0.5031 6 負債比率 0.5069 7 利息保障倍數 0.5103 8 息前稅前盈餘/ 總資產 0.5234 9 總負債 / 權益總值 0.5747 10 毛利率 0.6 11 總資產週轉率 0.6 11 (三)、分析方法 本研究採用 Logit、類神經網路及支援向 量機三種方法進行公司破產的預測,以下就依 序介紹這三種預測方法。 1、邏輯斯特迴歸(LOGIT) 歸類於非線性迴歸模式一種的 LOGIT 分 析法,適合於二分類問題的預測,其函數型態 為 S 或倒 S 型的曲線形狀,而反函數之機率值 落於 0 與 1 之間。另外,事件發生的機率符合 邏輯斯特累積機率分配。模式分別如公式(14) 與公式(15)所示。 Z i = ln. k Pi = β 0 + ∑ β i X ij + ε i 1 − Pi j =1. Pi = F ( Z i ) =. =. (14). 1 1 + e − zi. 1 − ( β 0 + β1 X 1 + β 2 X 2 + β 3 X 3 ). (15). 1+ e 其中: Z i : 表第 i 個觀察項之應變數 β 0 : 表截距項 β j : 表第 j 個變數的係數 X ij : 表第 i 個觀察項的第 j 個解釋變數 ε i : 表第 i 個觀察項之誤差項 F : 表 ε i : 的累積機率密度函數 2、類神經網路 類神經網路的學習方式中,倒傳遞類神經 網路模式(Back-Propagation Network, BPN) 是目前類神經網路模式中最具代表性的學習 模式,採用倒傳遞式學習演算法(Back -propagation Learning Algorithm)其轉換函數 為 S 型函數(sigmoid function ): ,該函數值域在[0,1]之間,適合應用於分類、 預測等問題。本實驗採用倒傳遞模式來進行資 料的分析、預測,其架構圖如圖 7 所示,輸入 自變數三個,故於輸入層之節點數為 3;輸出 結果為破產或正常,所以輸出層之節點為 1 個。隱藏層設為 1 層,隱藏層內的節點個數, 依經驗法則: 「隱藏層單元數=(輸入層單元數+ 輸出層單元數) / 2」(葉怡成,[2]),設為 2 個.

(5) 節點。 3、支援向量機 本實驗使用支援向量機用來作預測之建 構步驟如圖 8,以下就分類方法、核心函數、 調整參數最佳化來加以說明。 隨機抽樣資料區分 成訓練及測試集. 選擇分類方法. 選擇核心函數. 調整參數最佳化. 利用測試集資料來檢驗支. 型間之預測結果。. 六、實證結果 本研究採用 LIBSVM(Chang , C.C. and Lin , C.J., [11])進行資料分析,相關使用方法請 參考 Hsu, Chang, and Lin( [15])。實證結果分成 訓練集與測試集二部份,為了確保實驗的強健 性(robustness),我們將 200 家樣本資料隨機取 樣 30 次重複實驗,取 30 次實驗的平均結果當 做分析的依據。 (一)、訓練集和測試集結果 在訓練集中,我們分別使用 Logit 分析、 類神經網路及支援向量機進行訓練,其中類神 經網路與支援向量機之參數決定都是以預測 結果比邏輯斯特迴歸模型之結果要好為原則。 表 5 顯示三種方法於訓練集 30 次的預測結 果。圖 9 為預測結果折線圖。 表 5 使用 Logit、NN、SVM 每季訓練 30 次所得的平均正確率 方法(%) Logit NN 季節(S). 援向量機之預測正確率 圖 8 支援向量機用來作預測之建構步驟 (1)、選擇分類方法與核心函數 常用的分類方法有五類,C-SVC、 nu-SVC、one-class SVM、epsilon-SVR、 nu-SVR。其中 C-SVC、one-class SVM、以 及 epsilon-SVR 之相關說明請參考(Chang , C.C. and Lin , C.J., [11]),而 nu-SVC 與 nu-SVR 則分別參考 (Chang , C.C. and Lin , C.J., [12]) 以及 (Hsu, Chih-Wei, Chang, Chih-Chung, and Lin, Chih-Jen, [13])。在試誤 法則之實證後發現,C-SVC 較適合此資料 集,因此在分類方法上我們採用 C-SVC。另 外常用的核心函數有線性(linear)、多項式 (polynomial)、放射(radial basis function; RBF)、以及 S 型 (sigmoid)等四種。Hsu, Chang, and Lin(2003[15])建 議,選擇核心函數時應優先考慮放射型 (RBF)核心函數,因為它具有以下優點: A、RBF 核心函數能分類非線性且高維的 資料。 B、只須調整兩個參數 c 和 γ ,不但減少 操作上的複雜性,且能達到較高的預 測能力。 C、輸入資料限定在[0,1]之間,減少運算 的複雜度和時間。 (2)、調整參數最佳化 使用 RBF 核心函數有兩個母體參數 c 和 γ 須加以設定,不同的參數組合可得到不 同的預測結果。因此本研究針對訓練集資 料,尋找參數組合使得預測結果比邏輯斯特 迴歸要好始停止。參數之選擇可藉由 looms(Lee, Jen-Hao and Lin, Chih-Jen, [18]) 的方法來輔助判斷。最後利用所決定之參數 針對測試集資料來進行預測,並比較不同模. 預 測 率 (%). SVM. S1. 83.37. 85.64. 91.21. S2. 82.52. 84.88. 90.81. S3. 76.48. 79.14. 82.93. S4. 71.88. 75.45. 89.52. S5. 70.14. 74.05. 81.52. S6. 66.48. 69.98. 92.55. S7. 63.65. 68.60. 90.62. S8. 57.69. 62.71. 87.90. 100 90 80 70 60 50 40 S1. S2. S3. S4. S5. S6. S7. S8. 季節(S) Logit. NN. SVM. 圖 9 使用 Logit、NN、SVM 每季訓練 30 次所得 的平均正確率的折線圖 (二)、測試集之預測結果 我們採用訓練集訓練的成果來預測測試 集中的資料,表 6 顯示測試集實驗 30 次之平 均預測結果,結果顯示 SVM 較諸 logit 以及 NN 有最好的準確度。圖 10 為預測結果的折線 圖。.

(6) 表 6 使用 Logit、NN、SVM 每季訓練 30 次 所得的平均預測正確率 方法(%) 季節(S). Logit. NN. SVM. S1. 81.56. 81.06. 85.06. S2. 79.06. 79.83. 82.44. S3. 73.11. 70.83. 75.06. S4. 68.11. 64.45. 70.44. S5. 66.78. 63.39. 67.72. S6. 61.89. 58.61. 67.00. S7. 55.22. 55.78. 62.00. S8. 50.28. 47.78. 55.00. 100 90 預 80 測 70 率 60 (%) 50 40 S1. S2. S3. S4. S5. S6. S7. S8. 季節(S) Logit. NN. SVM. 圖 10 使用 Logit、NN、SVM 每季訓練 30 次 所得的平均預測正確率的折線圖 (三)、變異數和多重比較分析 1、變異數分析 為了確定 Logit、NN、SVM 三種方式所 得預測正確性是否有所不同,我們將 Logit、 NN、SVM 在每季 30 次抽樣預測的平均預測 結果使用統計軟體 SPSS 進行變異數分析,第 一季資料的分析結果如表 7 所示。在表 7 中, 因 P 值=0.000<0.05( α 值),所以顯示 Logit、 NN、SVM 三種方式所得預測正確性顯著不 同。我們依照上述相同的方式將一~八季變異 數分析的結果表列於表 8。由表 8 中我們可由 P 值明顯判定 Logit、NN、SVM 所預測的結果 確實有所不同,接者我們將進行多重比較分析 來判定三者預測值的優劣。 表 7 第一季資料的變異數分析結果. 2、多重比較分析 在多重比較分析方法上我們採用 LSD 方 式衡量八季的資料,藉以得知 SVM 和另兩種 方式預測能力的排序關係,表 9 是第一季資料 資料的分析結果。在圖 12 中可發現代表 SVM 的組別 3 和代表 Logit 及 NN 的組別 1、2 相減 後都是正值,可知道 SVM 大於 Logit 和 NN; 又代表 Logit 的組別 1 減去代表 NN 的組別 2 後為正值,可得知 Logit 大於 NN。綜而言之, Logit、NN、SVM 三者排序由大到小為:SVM >Logit > NN。從表中 P 值大小可清楚的得知 SVM 顯著大於 Logit 和 NN,Logit 顯著大於 NN,換言之公司破產前一季中 SVM 較 Logit 和 NN 有較高的預測能力; Logit 較 NN 有較 高的預測能力。表 10 將依照相同的方法將一 ~ 八季的多重比較結果加以整理。. 七 結論與建議 從 1930 年至今,不少學者從事財務危機 預警模式之相關研究,不管是嘗試尋找新的財 務比率、或者著重於統計方法的更新,其目的 不外乎尋找一個實用且預測準確度高的模式, 以提供給投資人、債權人、管理當局、或主管 機關作為投資決策的參考或者改善企業經營 之依據。 (一)、研究結論 本研究的研究結果可歸納為以下幾個結論: 1、以訓練集分類正確率可知,SVM 能達到 最佳的效果、NN 次之、Logit 分析最弱。 2、以測試集分類正確率可知,SVM 有最高 的預測能力,而且在八季的測試資料中有 五季達顯著水準明顯優於 Logit 和 NN 的 預測能力;Logit 分析次之,且有四季達 顯著水準明顯優於 NN 的預測能力;NN 的預測能力最差。 3、三種預測方法中,SVM 預測模式的建立 最為簡便、有效率。 由已上結論可知,SVM 的分類能力運用 在公司破產的預測確實有效,而且也間接的得 知在某些情況下,類神經網路的預測能力沒有 優於傳統統計方法中的邏輯斯特迴歸分析法。 (二)、研究建議 根據研究上的限制,本研究提出下列幾點 建議,供後續研究未來發展方向: 1、本研究在資料取樣跨足不同產業,而不同 產業有不同的特性及風險考量,未來研究 可集中於單一產業,藉此提昇樣本的同質 性,增進預測模型之分類正確率。 2、本研究以法定破產為危機公司之定義,後 續研究中可以更廣泛的角度定義危機公 司,諸如違約、清算或是跳票甚至考量經 營者的特性等因素作為研究應變數,以增 強模型的完整性。 3、建立 SVM 模型時採用的分類方式和核心 函數及最佳化參數的決定並不是最佳的 組合,實證結果仍有改善空間。 4、支援向量機技術在管理領域的應用仍屬新 的嘗試,如何將 SVM 應用於其他的管理 問題是一值得探索的方向。.

(7) 季節. 第一季. 第二季. 第三季. 第四季. 第五季. 第六季. 第七季. 第八季. 變異來源. 表 8:第一~八季資料的變異數分析結果 平方和 自由度 均方和 F值. 組 間. 285.060. 2. 142.530. 組 內. 1277.214. 87. 14.681. 組 間. 189.091. 2. 94.546. 組 內. 2242.883. 87. 25.780. 組 間. 267.891. 2. 133.946. 組 內. 2494.474. 87. 28.672. 組 間. 548.824. 2. 274.412. 組 內. 2932.927. 87. 33.712. 組 間. 311.478. 2. 155.739. 組 內. 1594.081. 87. 18.323. 組 間. 1072.028. 2. 536.014. 組 內. 1556.623. 87. 17.892. 組 間. 849.886. 2. 424.943. 組 內. 1982.426. 87. 22.787. 組 間. 807.110. 2. 403.555. 組 內. 1624.586. 87. 18.673. P值. 9.709. 0.000. 是. 3.667. 0.030. 是. 4.672. 0.012. 是. 8.140. 0.001. 是. 8.500. 0.000. 是. 29.958. 0.000. 是. 18.649. 0.000. 是. 0.000. 是. 21.611. 表 9 第一季資料的多重比較結果,組別 1,2,3 分別代表 Logit、NN 和 SVM. 表 10 一~八季資料的多重比較結果,組別 1,2,3 分別代表 Logit、NN 和 SVM 季節 第一季. 方法 LSD. 平均值高低排序 SVM > Logit > NN. 達顯著水準( α =0.05) 1-3、2-3. 第二季. LSD. SVM > NN > Logit. 1-3、2-3. 第三季. LSD. SVM > Logit > NN. 2-3. 第四季. LSD. SVM > Logit > NN. 1-2、2-3. 第五季. LSD. SVM > Logit > NN. 1-2、2-3. 第六季. LSD. SVM > Logit > NN. 1-2、1-3、2-3. 第七季. LSD. SVM > NN > Logit. 1-3、2-3. 第八季. LSD. SVM > Logit > NN. 1-2、1-3、2-3. 1. 預測方法 相異.

(8) 參考文獻. [15]. Hsu, Chih-Wei, Chang, Chih-Chung, and Lin, Chih-Jen , “A Practical Guide to Support Vector Classification” . Available at http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide. pdf ,2003.. [16]. Joachims, T. , “Text categorization with support vector machines” , In Proceedings of European Conference on Machine Learning (ECML) ,1998.. [17]. Ketz, J. E. , “The Effect of General Price-Level Adjustments on the Predictive Ability of Financial Ratios”, Journal of Accounting Research,pp.273-283,1978.. [18]. Lee, Jen-Hao and Lin, Chih-Jen , “looms: leave-one-out model selection for support vector machines” , Software available at : http://www.csie.ntu.edu.tw/~cjlin/looms/loomsWin.zi p ,2000.. [1]. 陳肇榮,「運用財務比率預測企業財務危機之實 證研究」,博士論文,政治大學企業管理研究所, 1983。. [2]. 葉怡成,類神經網路模式應用與實作,台北:儒 林,1995。. [3]. Aizerman, M. A., Braverman, E. M., and Rozonoer, L. I. , “Theoretical Foundations of the Potential Function Method in Pattern Recognition Learning ”, Autom. Remote Control , vol. 25 ,1964.. [4]. Altman, E. I. , “Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy”, Journal of Finance, vol. 23, 589-609,1968.. [5]. Alves, J. R., “The Prediction of Small Business Failure Utilizing Financial and Nonfinancial Data”, Ph.D. Dissertation, University of Massachusetts ,1978.. [19]. Norton, C. L., and Smith, R. E., “A Comparison of General Price Level and Historical Cost Financial Statements in the Prediction of Bankruptcy”, Accounting Review, January, pp.72-87,1979.. Atiya, A. F. , “Bankruptcy Prediction for Credit Risk Using Neural Networks: A Survey and New Results, ”IEEE Transactions on Neural Networks, vol.12(4), pp. 929-935,2001.. [20]. Pontil, M.,and Verri, A., “Object recognition with support vector machines” ,IEEE Trans. On PAMI , 20 , pp.637-646,1998.. [21]. Rose, P., Andrews, W., and Giroux, G., “Predicting Business Failure: A Macroeconomic Perspective”, Journal of Accounting, Auditing and Finance, fall, pp.20-31,1982.. [22]. Vapnik, V.,The Nature of Statistical Learning Theory,Springer, N.Y,1995.. [23]. Vapnik ,V. , Statistical Learning Theory, Wiley ,1998.. [24]. Vapnik, V. and Chervonenkis, A., “A Note on one Class of Perceptrons”,Automation and Remote Control ,vol.25,1964.. [25]. Vapnik, V. and Lerner, A., “Pattern Recognition using Generalized Portrait Method”, Automation and Remote Control , vol.24,1963.. [6]. [7]. Beaver, W. H., “Financial Ratios as Predictors of Failure”, Journal of Accounting Research, vol. 4, 71-111,1966.. [8]. Blum, M., “Failing Company Discriminant Analysis”, Journal of Accounting Research, vol. 12, 1-25,1974.. [9]. [10]. Brown, M. , Grundy, W. , Lin, D. , Cristianini, N. , Sugnet, C. , Furey, T. , Ares, M. , and Haussler, D. “Knowledge-base analysis of microarray gene expression data using support vector machines”, Technical report, University of California in Santa Cruz ,1999. Casey, C. J. and N. J. Bartczak, “Cash Flow-It's not the Bottom Line”, Harvard Business Review, July/August, 384-401,1985.. [11]. Chang,C.C. and Lin, C.J., “LIBSVM: a library for support vector machines”,Software available at http://www.csie.ntu.edu.tw/~cjlin/libsvm ,2001.. [12]. Chang, C.C. and Lin, C.J., “Training nu-Support Vector Classifiers: Theory and Algorithms” , Neural Computation , vol.13(9), pp.2119-2147,2001.. [13]. Chang, C.C. and Lin, C.J. , Training nu-support vector regression: theory and algorithms , Neural Computation , pp.1959-1977 ,2002.. [14]. Elam, R., “The Effect of Lease Data on the Predictive Ability of Financial Ratios”, Accounting Review, January, pp.25-43,1975.. 1.

(9)

參考文獻

相關文件

Restorative practice and special needs: A practical guide to working restoratively with young people. Philadelphia, PA: Jessica

We will quickly discuss some examples and show both types of optimization methods are useful for linear classification.. Chih-Jen Lin (National Taiwan Univ.) 16

Predict daily maximal load of January 1999 A time series prediction problem.. Data

Core vector machines: Fast SVM training on very large data sets. Using the Nystr¨ om method to speed up

Core vector machines: Fast SVM training on very large data sets. Multi-class support

Advantages of linear: easier feature engineering We expect that linear classification can be widely used in situations ranging from small-model to big-data classification. Chih-Jen

ˆ If the dual CD method reaches the iteration limit and primal Newton is called, we see that the number of Newton iterations needed is generally smaller than if the Newton method

Distinguished Professor (August 2011–present), Professor (August 2006–present), Asso- ciate Professor (August 2002–August 2006), Assistant Professor (August 1998–August