支援向量機器於企業破產預測上之應用
全文
(2) Elam([14])、Ketz([17])、Norton and Smith([19]) 強調使用調整後的財務報表變數。 除傳統財務比率,亦有學者引進現金流量 概念,探討現金流量變數是否能有效提升財務 危機預測的正確率。Blume([8])認為企業可視 為一流動資產的儲水槽,當流動性資產變少 (儲水槽容量變小),現金流入減少(水槽流入量 減少),現金流出量增加(水槽流出量增加)以及 流出與流入的變異量增加時,企業財務危機發 生機率將增加。另外,Casey and Bartczak([10]) 以營運活動為基礎,將營業活動現金流量、營 業活動現金流量/流動負債、營業活動現金流 量/總負債之三項變數納入六項應計財務比率 模型中,探討現金流量變數對模型邊際貢獻。 實證結果顯示,考慮現金流量變數可改善模型 有效性,但對於模型之分類正確性卻無提升效 果。 證券市場的資訊及總體經濟因素亦為學 者所考慮之變數來源。Atiya([6])認為權益市場 為非常早的赤字預測指標,亦即股價之反應將 較資產負債表以及損益表快,故採用股價/現 金流量比率、股價變動率(rate of change of stock price)、每股現金流量變動率( rate of change of cash flow per share )、股價揮發性 (stock price volatility)等權益指標進行預測,並 和一般財務比率分析進行比較。結果發現,納 入權益指標之模型預測正確率較傳統財務比 率模式提高 4%。此顯示股價資訊有助於公司 財務危機之偵測。Rose et al. ([21])將道瓊工業 指數、失業率、公司獲利率、自由準備、毛儲 蓄對 GNP 比、企業投資變動、企業平均每小 時產出、耐久財新訂單對 GNP 比率、信用等 級公司債利率等九項變數納入預測模式中,結 果顯示總體經濟變數對模型預測能力有所提 升。Alves([5])考慮業主及經營者之特性。 綜上所述,在財務危機預測研究當中,除 公司面的財務報表資訊外,總體經濟因素、股 票市場資訊、業主及經營者之特性等非財務性 變數亦被納入考量,然由於破產公司多半已下 市或暫停股市交易,股價資料取得困難。而財 務比率為公開且經會計師簽證之資訊,具客觀 參考價值,並為銀行與授信機構風險評估之依 據,故本研究以財務比率為本研究之預測變 數。. 則分類決策函數即為:. f ( x) = sign(< w, x > +b). (1). 在公式(1)中,w 為垂直於超平面的向量, 而 b 是原點到超平面的距離,x 則是輸入的資 料集。其圖形如下所示,兩類資料( 和 ) 使用超平面予以分類。. 圖 2 使用超平面區分資料 在資料為線性可分割的情形下要將資料 分為兩類,有許多種超平面都能符合,而我們 必須要在眾多中挑選出最好的一個,經由 Vapnik 與 Lerner( [25])及 Vapnik 與 Chervonenkis( [24])研究後發現,超平面分類的 能力基於訓練點到超平面的距離,此距離又稱 之為邊界值(margin)。他們提出了一個稱之為 廣義描述(Generalized Portrait)的公式如下:. max min{∥ x − xi ∥: x ∈ ℜ n , w,b. < w, x > +b = 0, i = 1,2,....., k. (2). 公式 (2)主要意義為求出所有超平面中邊 界值最大的即為最佳化的超平面,可由圖 3 進 一步說明。圖 3 中共有兩類資料( 和 ), 分別使用 2 種不同超平面予以分類,其中因為 超平面 A 的邊界值大於超平面 B 的邊界值, 所以兩者中,超平面 A 是較佳的超平面。. 四、支援向量機 支援向量機(SVM)是一新興的分類方法 ,最早可追朔到 60 年代(Vapnik and Lerner , [25]),但直到 Vapnik ( [22])之後才開始受到重 視,從此 SVM 就廣泛的被應用在文字分類 (Joachims , [16])、影像辨識(Pontil & Verri , [20])、手寫字辨認(Vapnik, V. , [23])、生物科 技(Brown et al. , [9])上,都有不錯的成效,以 下就構成支援向量機的原件加以介紹。 (一)、超平面(hyperplane) 要建立支援向量機,先介紹使用簡單線性 的超平面來做分類,假設超平面公式:. < w, x > +b = 0 , w ∈ ℜ n , b ∈ ℜ. 超平面 A. 超平面 B. 圖 3 最佳化超平面的圖形判斷 假設訓集: X = {( x1, y1 ), ( x2 , y2 ),........,( xk , yk ) : xk ∈ℜn , yk ∈{−1,+1}} ∥ w ∥= 1 而且 b 是一個固定不變的數,我們 可以將上述描述表達成:.
(3) < w, x k > + b > 0 for y k = +1. (3). < w, x k > + b < 0 for y k = - 1. 在公式 (3)成立前題下,邊界值表示法如下: 1.邊界值 γ i( w ,b)在訓練點 xi 中代表超平 面到點 xi 的距離。 γ i ( w, b) = y i (< w, xi > +b) (4) 2.邊界值 γ s ( w, b) 在訓練集向量. S = {x1 , x 2 ,...., x n } 中代表超平面到向 量 S 的距離。. γ s ( w, b) = min γ i ( w, b). (5). xi ∈S. 經由以上對超平面及邊界值定義後,我們 可將最佳化分割的超平面(Optimal Separating Hyperplane;OSH)在訓練集 S 上定義如下,相 關證明請參考 Vapnik( [23],p402)。. (w , b ) = arg max γ ∗. ∗. s. ( w, b). (6). w ,b. γ s ( w, b) > 0, ,∥ w ∥ 2. 條件:. =1. 在圖 4 中: 1.圓圈 1 為正確的分類:因為,. y i (< w, x k > +b) > 1 所以 ξ i = 0 。 2.圓圈 2 為正確的分類:因為. y i (< w, x k > +b) = 1 ,所以 ξ i = 0 。 3.圓圈 3 為正確的分類:因為. 0 ≤ y i (< w, x k > +b) ≤ 1,所以 0 < ξ i < 1。 4.圓圈 4 為錯誤的分類: 因為 y i (< w, x k > +b) < 0 ,所以 ξ i ≥ 1 。 (二)、核心函數(kernel) 上述方法是在資料為線性可分割的情況 下進行分類,如需將非線性資料分類可採用核 心函數來改變資料型態,其主要的概念是將輸 入資料由原先的低維度空間(low dimensional) 藉由函數( φ )的轉換對映到高維度空間(high dimensional)中,在高維度空間中就可將原本 線性不可分割的資料使用線性的方式一分為 二,最早是由 Aizerman([3])等人提出,而其轉 換示意圖如圖 5。. 公式(6)又可以表示成: 最小化: 1 / 2 ∥ w ∥ 條件: < w, x. k. φ. 2. (7). > + b ≥ + 1 for y k = +1. < w, x k > + b ≤ - 1 for y k = - 1. 公式(6)和公式(7)兩個式子代表相同的意 義,相關證明請參 Vapnik( [23],p403)。因為 OSH 只容許線性可分割、沒有雜訊干擾並不 容許任何分類上的錯誤,然而真實世界中的許 多問題並非如此完美,無法單獨使用 OSH 分 類,解決方法為加入變數 ξ i (i = 1,2,....., k ) 其 中 ξ i 是邊界到分類點的距離,則公式(7)變成: < w, x k > + b ≥ + 1 − ξ i for y k = +1 < w, x k > + b ≤ - 1 + ξ i for y k = - 1. (8). 其中 ξ i = max{0,1 − y i (< w, x k > +b)}. ξ i 共有三種情況,錯誤分類 ξ i ≥ 1;正確 分類 0 ≤ ξ i ≤ 1 或 ξ i = 0 ,我們可藉由圖 4 更 清楚的看到何種 ξ i 才是正確的分類:. φ( ) φ( ) φ( ) φ( ) φ( ) φ( ). 圖 5 低維不可分割資料轉換到高維空間中分類 我們在選取分析資料時都要擷取資料的 特徵(feature),這些特徵主要用來表達被描述 的主題,高維空間又稱為特徵空間(feature space),選擇適當能代表該主題的特徵將使資 料呈現更加清楚,如此加速分類的進行和減低 操作的複雜度。我們藉由核心函數來完成將輸 入資料轉換到特徵空間中的工作,不同的核心 函數對應不同的輸入資料會有不同程度的分 類效果,所以核心函數的選擇是 SVM 中重要 的一個環節。基本的核心函數類型有: 1.線性(linear): K ( xi , x j ) = xi x j T. 2.多項式(polynomial):. K ( xi , x j ) = (γxi x j + r ) d , γ > 0 T. 2 1. 3.放射型函數(radial basis function):. 3. 4. 圖 4 此圖形中共有圓圈(. K ( xi , x j ) = exp(−γ ∥ xi − x j ∥ 2 ), γ > 0. Hyperplane M )與方塊(. ) 兩種. 類型資料,其中 4 號圓圈為錯誤的分類, 其他則是正確的分類. 4.S 型(sigmoid):. K ( xi , x j ) = tanh(γxi x j + r ) T.
(4) 圖 6 為資料由原本的空間轉換到特徵空 間的流程,資料由原先線性不可分割的狀態變 成線性可分割的資料集,經過 kernel 轉換後方 便後續的資料分析。 原始資料 線性不可分割. 輸入空間 帶入核心函數. 線性可分割. 特徵空間. 圖 6 資料從原先線性不可分割狀態藉由 核心函數變成可線性分割的狀態. 五、研究方法 本章主要探討研究方法之變數設計、研究 樣本的來源與選取、預測績效之衡量、統計分 析方法,本章分四小節,第一節為研究變數與 定義,第二節為研究樣本,第三節為預測的績 效衡量,第四節為研究方法。 (一)、研究變數的定義 1、應變數 本研究之應變數定義為公司是否破產,依 循美國證券委員會(Securities and Exchange Commission , SEC)的規定,並以聯邦破產法 (Federal bankruptcy laws)之第十一章所規定的 破產法令為依據。 2、自變數 自變數則以 Beaver( [7])與 Altman([4]) 所 使用之比率變數以及財務比率分析之主要基 本構面,作為財務比率自變數之選取原則,初 步選取 12 項財務指標,依過去文獻顯示,並 非所有財務比率皆具備良好預測能力,區隔效 果不佳的變數,將影響模型預測正確率,故採 12 項財務比率中,分類錯誤率最小之前三項 財務比率作為最後建構模型之預測變數,如表 4 所示。 (二)、研究樣本 1、樣本的選取 本研究以 1998 至 2002 年之 100 家美國申 請破產之上市公司為樣本,並參考 Beaver ([7])年配對抽樣做法,選取與破產公司相近規 模、相同產業之正常營運公司做配對,共選取 100 家破產公司與 100 家營運正常公司為樣本 集。訓練集樣本 140 家(破產與健全公司各佔 70 家),測試集樣本 60 家(破產與健全公司各 佔 30 家)。總計訓練集資料 1120 筆,測試集 資料 480 筆,進行破產前 8 季的預測。 2、樣本資料來源 破產公司名單取自 BankruptcyData.com 網站以及美國證券交易委員會申請破產案件 名單,公司之財務比率資料則取自 COMPUSTAT 資料庫,以百分位的方式將原始 財務比率資料予以轉換,消除不同產業別造成 的財務比率之差異。. 表 4 財務比率由小至大之分類錯誤率 財務比率變數 分類錯 錯誤率 誤率 排名 保留盈餘 / 總資產 0.4466 1 總資產報酬率 0.4752 2 現金流量 / 總資產 0.4984 3 流動比率 0.4988 4 現金流量 / 總負債 0.5 5 營運資金 / 總資產 0.5031 6 負債比率 0.5069 7 利息保障倍數 0.5103 8 息前稅前盈餘/ 總資產 0.5234 9 總負債 / 權益總值 0.5747 10 毛利率 0.6 11 總資產週轉率 0.6 11 (三)、分析方法 本研究採用 Logit、類神經網路及支援向 量機三種方法進行公司破產的預測,以下就依 序介紹這三種預測方法。 1、邏輯斯特迴歸(LOGIT) 歸類於非線性迴歸模式一種的 LOGIT 分 析法,適合於二分類問題的預測,其函數型態 為 S 或倒 S 型的曲線形狀,而反函數之機率值 落於 0 與 1 之間。另外,事件發生的機率符合 邏輯斯特累積機率分配。模式分別如公式(14) 與公式(15)所示。 Z i = ln. k Pi = β 0 + ∑ β i X ij + ε i 1 − Pi j =1. Pi = F ( Z i ) =. =. (14). 1 1 + e − zi. 1 − ( β 0 + β1 X 1 + β 2 X 2 + β 3 X 3 ). (15). 1+ e 其中: Z i : 表第 i 個觀察項之應變數 β 0 : 表截距項 β j : 表第 j 個變數的係數 X ij : 表第 i 個觀察項的第 j 個解釋變數 ε i : 表第 i 個觀察項之誤差項 F : 表 ε i : 的累積機率密度函數 2、類神經網路 類神經網路的學習方式中,倒傳遞類神經 網路模式(Back-Propagation Network, BPN) 是目前類神經網路模式中最具代表性的學習 模式,採用倒傳遞式學習演算法(Back -propagation Learning Algorithm)其轉換函數 為 S 型函數(sigmoid function ): ,該函數值域在[0,1]之間,適合應用於分類、 預測等問題。本實驗採用倒傳遞模式來進行資 料的分析、預測,其架構圖如圖 7 所示,輸入 自變數三個,故於輸入層之節點數為 3;輸出 結果為破產或正常,所以輸出層之節點為 1 個。隱藏層設為 1 層,隱藏層內的節點個數, 依經驗法則: 「隱藏層單元數=(輸入層單元數+ 輸出層單元數) / 2」(葉怡成,[2]),設為 2 個.
(5) 節點。 3、支援向量機 本實驗使用支援向量機用來作預測之建 構步驟如圖 8,以下就分類方法、核心函數、 調整參數最佳化來加以說明。 隨機抽樣資料區分 成訓練及測試集. 選擇分類方法. 選擇核心函數. 調整參數最佳化. 利用測試集資料來檢驗支. 型間之預測結果。. 六、實證結果 本研究採用 LIBSVM(Chang , C.C. and Lin , C.J., [11])進行資料分析,相關使用方法請 參考 Hsu, Chang, and Lin( [15])。實證結果分成 訓練集與測試集二部份,為了確保實驗的強健 性(robustness),我們將 200 家樣本資料隨機取 樣 30 次重複實驗,取 30 次實驗的平均結果當 做分析的依據。 (一)、訓練集和測試集結果 在訓練集中,我們分別使用 Logit 分析、 類神經網路及支援向量機進行訓練,其中類神 經網路與支援向量機之參數決定都是以預測 結果比邏輯斯特迴歸模型之結果要好為原則。 表 5 顯示三種方法於訓練集 30 次的預測結 果。圖 9 為預測結果折線圖。 表 5 使用 Logit、NN、SVM 每季訓練 30 次所得的平均正確率 方法(%) Logit NN 季節(S). 援向量機之預測正確率 圖 8 支援向量機用來作預測之建構步驟 (1)、選擇分類方法與核心函數 常用的分類方法有五類,C-SVC、 nu-SVC、one-class SVM、epsilon-SVR、 nu-SVR。其中 C-SVC、one-class SVM、以 及 epsilon-SVR 之相關說明請參考(Chang , C.C. and Lin , C.J., [11]),而 nu-SVC 與 nu-SVR 則分別參考 (Chang , C.C. and Lin , C.J., [12]) 以及 (Hsu, Chih-Wei, Chang, Chih-Chung, and Lin, Chih-Jen, [13])。在試誤 法則之實證後發現,C-SVC 較適合此資料 集,因此在分類方法上我們採用 C-SVC。另 外常用的核心函數有線性(linear)、多項式 (polynomial)、放射(radial basis function; RBF)、以及 S 型 (sigmoid)等四種。Hsu, Chang, and Lin(2003[15])建 議,選擇核心函數時應優先考慮放射型 (RBF)核心函數,因為它具有以下優點: A、RBF 核心函數能分類非線性且高維的 資料。 B、只須調整兩個參數 c 和 γ ,不但減少 操作上的複雜性,且能達到較高的預 測能力。 C、輸入資料限定在[0,1]之間,減少運算 的複雜度和時間。 (2)、調整參數最佳化 使用 RBF 核心函數有兩個母體參數 c 和 γ 須加以設定,不同的參數組合可得到不 同的預測結果。因此本研究針對訓練集資 料,尋找參數組合使得預測結果比邏輯斯特 迴歸要好始停止。參數之選擇可藉由 looms(Lee, Jen-Hao and Lin, Chih-Jen, [18]) 的方法來輔助判斷。最後利用所決定之參數 針對測試集資料來進行預測,並比較不同模. 預 測 率 (%). SVM. S1. 83.37. 85.64. 91.21. S2. 82.52. 84.88. 90.81. S3. 76.48. 79.14. 82.93. S4. 71.88. 75.45. 89.52. S5. 70.14. 74.05. 81.52. S6. 66.48. 69.98. 92.55. S7. 63.65. 68.60. 90.62. S8. 57.69. 62.71. 87.90. 100 90 80 70 60 50 40 S1. S2. S3. S4. S5. S6. S7. S8. 季節(S) Logit. NN. SVM. 圖 9 使用 Logit、NN、SVM 每季訓練 30 次所得 的平均正確率的折線圖 (二)、測試集之預測結果 我們採用訓練集訓練的成果來預測測試 集中的資料,表 6 顯示測試集實驗 30 次之平 均預測結果,結果顯示 SVM 較諸 logit 以及 NN 有最好的準確度。圖 10 為預測結果的折線 圖。.
(6) 表 6 使用 Logit、NN、SVM 每季訓練 30 次 所得的平均預測正確率 方法(%) 季節(S). Logit. NN. SVM. S1. 81.56. 81.06. 85.06. S2. 79.06. 79.83. 82.44. S3. 73.11. 70.83. 75.06. S4. 68.11. 64.45. 70.44. S5. 66.78. 63.39. 67.72. S6. 61.89. 58.61. 67.00. S7. 55.22. 55.78. 62.00. S8. 50.28. 47.78. 55.00. 100 90 預 80 測 70 率 60 (%) 50 40 S1. S2. S3. S4. S5. S6. S7. S8. 季節(S) Logit. NN. SVM. 圖 10 使用 Logit、NN、SVM 每季訓練 30 次 所得的平均預測正確率的折線圖 (三)、變異數和多重比較分析 1、變異數分析 為了確定 Logit、NN、SVM 三種方式所 得預測正確性是否有所不同,我們將 Logit、 NN、SVM 在每季 30 次抽樣預測的平均預測 結果使用統計軟體 SPSS 進行變異數分析,第 一季資料的分析結果如表 7 所示。在表 7 中, 因 P 值=0.000<0.05( α 值),所以顯示 Logit、 NN、SVM 三種方式所得預測正確性顯著不 同。我們依照上述相同的方式將一~八季變異 數分析的結果表列於表 8。由表 8 中我們可由 P 值明顯判定 Logit、NN、SVM 所預測的結果 確實有所不同,接者我們將進行多重比較分析 來判定三者預測值的優劣。 表 7 第一季資料的變異數分析結果. 2、多重比較分析 在多重比較分析方法上我們採用 LSD 方 式衡量八季的資料,藉以得知 SVM 和另兩種 方式預測能力的排序關係,表 9 是第一季資料 資料的分析結果。在圖 12 中可發現代表 SVM 的組別 3 和代表 Logit 及 NN 的組別 1、2 相減 後都是正值,可知道 SVM 大於 Logit 和 NN; 又代表 Logit 的組別 1 減去代表 NN 的組別 2 後為正值,可得知 Logit 大於 NN。綜而言之, Logit、NN、SVM 三者排序由大到小為:SVM >Logit > NN。從表中 P 值大小可清楚的得知 SVM 顯著大於 Logit 和 NN,Logit 顯著大於 NN,換言之公司破產前一季中 SVM 較 Logit 和 NN 有較高的預測能力; Logit 較 NN 有較 高的預測能力。表 10 將依照相同的方法將一 ~ 八季的多重比較結果加以整理。. 七 結論與建議 從 1930 年至今,不少學者從事財務危機 預警模式之相關研究,不管是嘗試尋找新的財 務比率、或者著重於統計方法的更新,其目的 不外乎尋找一個實用且預測準確度高的模式, 以提供給投資人、債權人、管理當局、或主管 機關作為投資決策的參考或者改善企業經營 之依據。 (一)、研究結論 本研究的研究結果可歸納為以下幾個結論: 1、以訓練集分類正確率可知,SVM 能達到 最佳的效果、NN 次之、Logit 分析最弱。 2、以測試集分類正確率可知,SVM 有最高 的預測能力,而且在八季的測試資料中有 五季達顯著水準明顯優於 Logit 和 NN 的 預測能力;Logit 分析次之,且有四季達 顯著水準明顯優於 NN 的預測能力;NN 的預測能力最差。 3、三種預測方法中,SVM 預測模式的建立 最為簡便、有效率。 由已上結論可知,SVM 的分類能力運用 在公司破產的預測確實有效,而且也間接的得 知在某些情況下,類神經網路的預測能力沒有 優於傳統統計方法中的邏輯斯特迴歸分析法。 (二)、研究建議 根據研究上的限制,本研究提出下列幾點 建議,供後續研究未來發展方向: 1、本研究在資料取樣跨足不同產業,而不同 產業有不同的特性及風險考量,未來研究 可集中於單一產業,藉此提昇樣本的同質 性,增進預測模型之分類正確率。 2、本研究以法定破產為危機公司之定義,後 續研究中可以更廣泛的角度定義危機公 司,諸如違約、清算或是跳票甚至考量經 營者的特性等因素作為研究應變數,以增 強模型的完整性。 3、建立 SVM 模型時採用的分類方式和核心 函數及最佳化參數的決定並不是最佳的 組合,實證結果仍有改善空間。 4、支援向量機技術在管理領域的應用仍屬新 的嘗試,如何將 SVM 應用於其他的管理 問題是一值得探索的方向。.
(7) 季節. 第一季. 第二季. 第三季. 第四季. 第五季. 第六季. 第七季. 第八季. 變異來源. 表 8:第一~八季資料的變異數分析結果 平方和 自由度 均方和 F值. 組 間. 285.060. 2. 142.530. 組 內. 1277.214. 87. 14.681. 組 間. 189.091. 2. 94.546. 組 內. 2242.883. 87. 25.780. 組 間. 267.891. 2. 133.946. 組 內. 2494.474. 87. 28.672. 組 間. 548.824. 2. 274.412. 組 內. 2932.927. 87. 33.712. 組 間. 311.478. 2. 155.739. 組 內. 1594.081. 87. 18.323. 組 間. 1072.028. 2. 536.014. 組 內. 1556.623. 87. 17.892. 組 間. 849.886. 2. 424.943. 組 內. 1982.426. 87. 22.787. 組 間. 807.110. 2. 403.555. 組 內. 1624.586. 87. 18.673. P值. 9.709. 0.000. 是. 3.667. 0.030. 是. 4.672. 0.012. 是. 8.140. 0.001. 是. 8.500. 0.000. 是. 29.958. 0.000. 是. 18.649. 0.000. 是. 0.000. 是. 21.611. 表 9 第一季資料的多重比較結果,組別 1,2,3 分別代表 Logit、NN 和 SVM. 表 10 一~八季資料的多重比較結果,組別 1,2,3 分別代表 Logit、NN 和 SVM 季節 第一季. 方法 LSD. 平均值高低排序 SVM > Logit > NN. 達顯著水準( α =0.05) 1-3、2-3. 第二季. LSD. SVM > NN > Logit. 1-3、2-3. 第三季. LSD. SVM > Logit > NN. 2-3. 第四季. LSD. SVM > Logit > NN. 1-2、2-3. 第五季. LSD. SVM > Logit > NN. 1-2、2-3. 第六季. LSD. SVM > Logit > NN. 1-2、1-3、2-3. 第七季. LSD. SVM > NN > Logit. 1-3、2-3. 第八季. LSD. SVM > Logit > NN. 1-2、1-3、2-3. 1. 預測方法 相異.
(8) 參考文獻. [15]. Hsu, Chih-Wei, Chang, Chih-Chung, and Lin, Chih-Jen , “A Practical Guide to Support Vector Classification” . Available at http://www.csie.ntu.edu.tw/~cjlin/papers/guide/guide. pdf ,2003.. [16]. Joachims, T. , “Text categorization with support vector machines” , In Proceedings of European Conference on Machine Learning (ECML) ,1998.. [17]. Ketz, J. E. , “The Effect of General Price-Level Adjustments on the Predictive Ability of Financial Ratios”, Journal of Accounting Research,pp.273-283,1978.. [18]. Lee, Jen-Hao and Lin, Chih-Jen , “looms: leave-one-out model selection for support vector machines” , Software available at : http://www.csie.ntu.edu.tw/~cjlin/looms/loomsWin.zi p ,2000.. [1]. 陳肇榮,「運用財務比率預測企業財務危機之實 證研究」,博士論文,政治大學企業管理研究所, 1983。. [2]. 葉怡成,類神經網路模式應用與實作,台北:儒 林,1995。. [3]. Aizerman, M. A., Braverman, E. M., and Rozonoer, L. I. , “Theoretical Foundations of the Potential Function Method in Pattern Recognition Learning ”, Autom. Remote Control , vol. 25 ,1964.. [4]. Altman, E. I. , “Financial Ratios, Discriminant Analysis and the Prediction of Corporate Bankruptcy”, Journal of Finance, vol. 23, 589-609,1968.. [5]. Alves, J. R., “The Prediction of Small Business Failure Utilizing Financial and Nonfinancial Data”, Ph.D. Dissertation, University of Massachusetts ,1978.. [19]. Norton, C. L., and Smith, R. E., “A Comparison of General Price Level and Historical Cost Financial Statements in the Prediction of Bankruptcy”, Accounting Review, January, pp.72-87,1979.. Atiya, A. F. , “Bankruptcy Prediction for Credit Risk Using Neural Networks: A Survey and New Results, ”IEEE Transactions on Neural Networks, vol.12(4), pp. 929-935,2001.. [20]. Pontil, M.,and Verri, A., “Object recognition with support vector machines” ,IEEE Trans. On PAMI , 20 , pp.637-646,1998.. [21]. Rose, P., Andrews, W., and Giroux, G., “Predicting Business Failure: A Macroeconomic Perspective”, Journal of Accounting, Auditing and Finance, fall, pp.20-31,1982.. [22]. Vapnik, V.,The Nature of Statistical Learning Theory,Springer, N.Y,1995.. [23]. Vapnik ,V. , Statistical Learning Theory, Wiley ,1998.. [24]. Vapnik, V. and Chervonenkis, A., “A Note on one Class of Perceptrons”,Automation and Remote Control ,vol.25,1964.. [25]. Vapnik, V. and Lerner, A., “Pattern Recognition using Generalized Portrait Method”, Automation and Remote Control , vol.24,1963.. [6]. [7]. Beaver, W. H., “Financial Ratios as Predictors of Failure”, Journal of Accounting Research, vol. 4, 71-111,1966.. [8]. Blum, M., “Failing Company Discriminant Analysis”, Journal of Accounting Research, vol. 12, 1-25,1974.. [9]. [10]. Brown, M. , Grundy, W. , Lin, D. , Cristianini, N. , Sugnet, C. , Furey, T. , Ares, M. , and Haussler, D. “Knowledge-base analysis of microarray gene expression data using support vector machines”, Technical report, University of California in Santa Cruz ,1999. Casey, C. J. and N. J. Bartczak, “Cash Flow-It's not the Bottom Line”, Harvard Business Review, July/August, 384-401,1985.. [11]. Chang,C.C. and Lin, C.J., “LIBSVM: a library for support vector machines”,Software available at http://www.csie.ntu.edu.tw/~cjlin/libsvm ,2001.. [12]. Chang, C.C. and Lin, C.J., “Training nu-Support Vector Classifiers: Theory and Algorithms” , Neural Computation , vol.13(9), pp.2119-2147,2001.. [13]. Chang, C.C. and Lin, C.J. , Training nu-support vector regression: theory and algorithms , Neural Computation , pp.1959-1977 ,2002.. [14]. Elam, R., “The Effect of Lease Data on the Predictive Ability of Financial Ratios”, Accounting Review, January, pp.25-43,1975.. 1.
(9)
相關文件
Restorative practice and special needs: A practical guide to working restoratively with young people. Philadelphia, PA: Jessica
We will quickly discuss some examples and show both types of optimization methods are useful for linear classification.. Chih-Jen Lin (National Taiwan Univ.) 16
Predict daily maximal load of January 1999 A time series prediction problem.. Data
Core vector machines: Fast SVM training on very large data sets. Using the Nystr¨ om method to speed up
Core vector machines: Fast SVM training on very large data sets. Multi-class support
Advantages of linear: easier feature engineering We expect that linear classification can be widely used in situations ranging from small-model to big-data classification. Chih-Jen
If the dual CD method reaches the iteration limit and primal Newton is called, we see that the number of Newton iterations needed is generally smaller than if the Newton method
Distinguished Professor (August 2011–present), Professor (August 2006–present), Asso- ciate Professor (August 2002–August 2006), Assistant Professor (August 1998–August