• 沒有找到結果。

具概念飄移的動態社群網絡之類別預測 - 政大學術集成

N/A
N/A
Protected

Academic year: 2021

Share "具概念飄移的動態社群網絡之類別預測 - 政大學術集成"

Copied!
49
0
0

加載中.... (立即查看全文)

全文

(1)國立政治大學資訊科學系 Department of Computer Science National Chengchi University. 碩士論文. 立. 政 治 大 Master’s Thesis. ‧ 國. 學 ‧. 具概念飄移的動態社群網絡之類別預測 sit. y. Nat. Label Prediction on Dynamic Social Networks n. er. io. with a Concept Drifting v i l C n hengchi U. 研 究 生:游詳閔 指導教授:沈錳坤. 中華民國九十九年十月 October 2010. DOI:10.6814/NCCU201901233.

(2) 具概念飄移的動態社群網絡之類別預測 Label Prediction on Dynamic Social Networks with Concept Drifting Student: HsiangMin Yu. 研究生:游詳閔. Advisor: Man-Kwan Shan. 指導教授:沈錳坤. 治. 大. 資訊科學系. 學. ‧ 國. 立. 政 國立政治大學 碩士論文. ‧ y. sit. Nat. A Thesis. er. io. submitted to Department of Computer Science. n. a l Chengchi University National iv. n U e n gofcthe in partial fulfillment h i Requirements. Ch. for the degree of Master in Computer Science. 中華民國九十九年十月 October 2010 i. DOI:10.6814/NCCU201901233.

(3) 具概念飄移的動態社群網絡之類別預測. 摘要 社會網絡在電腦科學的研究範疇中扮演一個日漸重要的角色,類別預測正是其中 一項熱門的議題。類別預測的研究目標,是利用網絡中部分已知類別的節點,預 測出其他未知類別節點之類別。 以往類別預測之研究,皆以靜態社會網絡為主;然而,社會網絡往往是隨著. 政 治 大. 時間動態演進的。在動態網絡中,網絡中的節點、連結、類別,皆可能隨著時間. 立. 演進而更動。連帶的,節點之間相互影響的關係也會隨著時間改變。此變動可以. ‧ 國. 學. 視為一種概念飄移 (Concept Drift)。. 不同於過往的研究,我們指出了動態網絡中類別分類的問題,並利用靜態網. ‧. 絡中類別分類的技術,結合概念飄移的方法,提出能夠在動態網絡中預測類別的. sit. y. Nat. 解法。. n. al. er. io. 實驗所採用的資料是 IMDb (Internet Movie Database) 的社會網路,我們用以. i n U. v. 預測演員的類別,根據實驗結果顯示,將動態社會網絡的演化過程,加入作為類. Ch. engchi. 別預測的參考指標,能夠提高動態網絡中類別分類的準確性。. ii. DOI:10.6814/NCCU201901233.

(4) Label Prediction on Dynamic Social Networks with Concept Drifting. Abstract Label prediction is one of the central questions of social network research. The core of label prediction is the use of labeled nodes to predict labels of un-labeled nodes in a social network. The definition of a labeled social network is a social network of. 政 治 大 mutual impact on each other’s 立labels.. partial or complete labeled nodes. The nodes in the same social network have a. ‧ 國. 學. Previous research on label prediction have been focused on static social networks. However, social networks are more dynamic in reality. In a dynamic social network,. ‧. the links of nodes, even the labels of nodes, can be changed with time. The mutual. sit. y. Nat. influence of nodes can also be changed. The changing is called “Concept Drift.”. al. er. io. This thesis predicts the labels on a dynamic labeled social work. We address the. n. problems of classification for a dynamic social network. The technique of label. Ch. i n U. v. prediction on static social networks and algorithms used to tackle concept drift are. engchi. combined to solve the label prediction problem on dynamic social networks. Experiments were performed on a labeled social network constructed from the Internet Movie Database. The results show that we can use the evolution of dynamic social networks to generate a more precise prediction of labels.. iii. DOI:10.6814/NCCU201901233.

(5) 致謝 這是一篇用了九年書寫,關於兩年的致謝。這幾年發生太多太多事,很開心終能 從 DMLab 畢業,這段日子裡最感謝的人是我的指導教授:沈錳坤老師。第一次 走進老師研究室的那個夏天傍晚,記憶仍然鮮明。謝謝老師在研究所兩年以及往 後的人生中,給了我許多的鼓勵、教誨與幫助,謝謝老師陪我們熬了無數個漫長 的夜、在就業及人生轉折時的支持,對我來說老師不只是學業上的教授,更是生 命裡的導師,真的非常感謝您。 接著,要感謝 DMLab 的學長姐與學弟們:政吉、孟芝、棋安、伯丞、家奇、. 政 治 大 謝您不只當我的口試委員,更在最後鼓勵我,希望您在的世界平靜美好。謝謝阿 立. 宏哲、紘維、柯柯柯,謝謝你們讓實驗室充滿了歡樂與活力。感謝華富學長,謝. ‧ 國. 學. 德學長在寫論文時給我很多鼓勵,你一直是我們最好的榜樣。謝謝 UFO 在程式 上與幽默感上幫助我精進;謝謝李法賢,你是我在實驗室最好的戰友,也是往後. ‧. 人生裡重要的朋友。謝謝容瑜,妳的認真總是我們學習的對象。謝謝戴張、斯越、. sit. y. Nat. 柏堯、世宏、建成,跟你們一起說笑聊天絕對是研究所生活最快樂的時光之一。. al. er. io. 謝謝王裕炫、陳力瑋、阿三跟阿順,每次上樓前的閒聊總能讓人活力充滿。感謝. v. n. 韓助教以及譚助教,謝謝妳們在學校的幫忙。特別是韓助教,衷心謝謝妳在畢業. Ch. i n U. 期間給了我莫大的幫助。能在政大唸書、加入 DMLab,遇到你們每一個人,真. engchi. 是太好了。 此外,我要感謝我的媽媽,爸爸,爺爺,奶奶。謝謝你們把我帶來這個世界 上。特別感謝我的媽媽,謝謝妳把我們養成現在的樣子,如果我們有什麼地方特 別出色,那都是因為妳。最重要的,我要感謝我的妹妹聖賀,謝謝妳在我快樂的 時候分享我的喜悅,在我痛苦的時候撐著我,在我懷疑自己的時候仍然信任,直 視我告訴我可以。妳是我生命裡面的網,謝謝妳的陪伴。謝謝妳和媽媽,才有今 天的游詳閔。 還要感謝這些年來陪著我的伴侶,謝謝在不同人生階段出現的妳,謝謝妳曾 iv. DOI:10.6814/NCCU201901233.

(6) 愛過我,燙平我的不安與彆扭。謝謝現在的女友,謝謝妳給了我很多的愛與包容, 往後的人生也請多擔待了。感謝這些年的朋友們:大學同學、HOOP, MovieSpotNYC, SpoonRocket, HOMESEEN, WhiteWall. 謝謝你們豐富我的人生。 謝謝每一個人出現在我的生命裡的你/妳,無論相遇的時間多長,慶幸我們 都曾是彼此生命裡的好人。謝謝未來也將一直在我身邊的你/妳,以後的日子也 請多多指教。謝謝老天的眷顧,讓我當一個如此幸運的人。 最後,想把論文送給我最愛的爺爺,希望你會很驕傲拿給朋友看。希望你跟 笨狗在天上都過得很好、很好。. 立. 政 治 大. ‧. ‧ 國. 學. Nat. 政治大學資訊科學所 2019.9.4. n. al. er. io. sit. y. 游詳閔 謹誌于. Ch. engchi. i n U. v. v. DOI:10.6814/NCCU201901233.

(7) 目錄 摘要 ............................................................................................................ii 目錄 ........................................................................................................... iv 圖目錄 ....................................................................................................... vi 表目錄 .................................................................................................... vii 第 一 章 前言 .......................................................................................... 1. 政 治 大 第 二 章 相關研究 .................................................................................. 5 立. ‧ 國. 學. 2.1 Collective Classification ...................................................................5 2.2 Local Structure Similarity .................................................................8. ‧. 2.3 Graph-based Semi-supervised Learning ...........................................9. sit. y. Nat. 2.4 Ghost Edges ....................................................................................10. n. al. er. io. 第 三 章 研究方法 ................................................................................12. i n U. C. v. hengchi 3.1 問題定義........................................................................................12 3.2 研究架構........................................................................................ 13 3.3 Base Classifier Learning .................................................................14 3.3.1 Ghost Edge ............................................................................... 16 3.3.2 Random Walk With Restart ...................................................... 17 3.3.3 Base Classifier ..........................................................................18 3.4 特徵選取........................................................................................ 18 3.5 Ensemble Box Learning ..................................................................19 vi. DOI:10.6814/NCCU201901233.

(8) 3.5.1 Concept Drift ............................................................................20 3.5.2 Ensemble Box ...........................................................................24 3.6 Labeling .......................................................................................... 26 3.6.1 Iterative Classification Algorithm ............................................26 第 四 章 ..................................................................................................29 4.1 資料庫............................................................................................ 29 4.1.1 資料庫特性 .............................................................................29. 政 治 大. 4.2 實驗設計........................................................................................ 31. 立. ‧ 國. 學. 第 五 章 ..................................................................................................36. ‧. 5.1 結論................................................................................................ 36. sit. y. Nat. 5.2 未來研究方向................................................................................ 36. n. al. er. io. 參 考 文 獻 ............................................................................................................37. Ch. engchi. i n U. v. vii. DOI:10.6814/NCCU201901233.

(9) 圖目錄 圖 2.1:Collective Classification 示意圖 [5] ..........................................6 圖 3.1:問題定義示意圖 (黑色點為給定的資料) .............................. 13 圖 3.2:研究架構流程圖 .......................................................................14 圖 3.3:類別預測示意圖 .......................................................................15 圖 3.4:Ghost Edges 示意圖.................................................................17. 政 治 大. 圖 3.5:概念飄移種類示意圖 [15] ...................................................... 23. 立. 圖 3.6:SEA 演算法[5] ..........................................................................25. ‧ 國. 學. 圖 3.7:ICA 演算法[5] ..........................................................................27. ‧. 圖 4.1:ConceptClassifier、GhostEdgeL、WVRN、之比較 ..............33. sit. y. Nat. 圖 4.2:訓練資料數量與準確率關係圖 ...............................................34. n. al. er. io. 圖 4.3:Ensemble Box 與準確率關係圖 ..............................................35. Ch. engchi. i n U. v. viii. DOI:10.6814/NCCU201901233.

(10) 表目錄 表:2.1 Collective Classification 與 Graph-based Semi-Supervised Learning 比較表 ................................................................................ 10 表:4.1 資料庫中每個年份的演員數量 ............................................... 29. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. ix. DOI:10.6814/NCCU201901233.

(11) 第一章 前言 近年來,諸如 FaceBook、無名小站等 Web 2.0 社群網站如雨後春筍般地的崛起。隨著使 用者人數越來越多,這些注重使用者彼此關係的社群網站,使得原本是社會科學的議 題,漸漸在電腦科學的領域中發酵。. 治 政 與社會網絡有關的研究範疇越來越多,光是社會網絡的資料來源就有各式各樣,簡 大 立 單舉幾個常見的資料庫,像是描述學術論文與其參考文獻之間的網絡、描述研究學者彼 ‧ 國. 學. 此有無參考對方論文關係的網絡、還有描述電影演員合作關係的網絡…等等;其中還有. ‧. 一個常見資料來源,就是前面提到的社群網站。. 我們可以從資料來源發現,社會網絡並非受限於人與人之間的網絡關係;事實上,. y. Nat. sit. 可以把社會網絡這個抽象的名詞想像成一張圖,組成圖的兩個元素就是點(Node)與邊. n. al. er. io. (Edge);所謂的點,就是一筆資料,而資料可以是有生命的,如 FaceBook 中的使用者;. i n U. v. 當然也可以是無生命的,如學術論文資料庫 DBLP 中的論文;都可以當成社會網絡中的. Ch. engchi. 點;另一個組成社會網絡的基本元素是邊,邊描述著點與點之間的關係,例如 FaceBook 中的朋友關係、DBLP 中論文彼此的參考關係。電腦科學在研究社會網絡的議題時,就 是用上述的方法來表示社會網絡。 有關社會網絡的議題非常的多也相當的廣,以社群網站舉例來說;有從社會社會科 學衍生而來的,如探討每個人在所屬的社會網絡中扮演的角色是甚麼,即為所謂的角色 中心性;也有新起的應用,例如結合社會網絡與廣告行銷,像是如果處在一個預算有限 的狀況下,要挑選社會網絡中的哪. 幾個人做行銷,可以達到最大的效益;還有針對社. 會網絡整體演化的研究,像是鏈結(Link)的預測,如應用在 FaceBook 中,鏈結預測即為 1. DOI:10.6814/NCCU201901233.

(12) 推薦好友給使用者的功能。除此之外還有更多夠多的研究範疇,上述舉的例子只是關於 社會網絡研究的冰山一角,相關的議題可說是不勝枚舉。 除了上述所舉的研究方向之外,還有一項近年來被討論的議題,稱為類別(Label)預 測。舉一個實際的例子來說 [3]。,如果今天給定一個行動電話的網絡,每一個號碼視 為社會網絡中的一個點,而點與點之間的連線表示其有無通聯紀錄,若有則兩點有連 線,反之則無。在這個行動電話的網絡中,可能會出現兩種類別的號碼,分別是「詐騙」 與「合法使用」 ;那麼在這個詐騙電話如此猖獗的現實生活中,如果可以把詐騙的號碼,. 政 治 大. 與合法使用的號碼分別標記出來,那麼一定可以減少更多的受騙案例。但是,真實的情. 立. 況下,已經確定是詐騙電話的號碼,與確定合法的電話號碼,在整個行動電話的網絡中. ‧ 國. 學. 往往佔非常少的比例。因此,我們便要想辦法利用,這些已知類別的號碼與未知類別的 號碼出現在網絡中的關係,設法將整個行動電話網絡中的號碼,都給予適當的類別。這. ‧. 樣的例子,就是所謂的類別預測。. Nat. sit. y. 在上例中,類別是二元的,只有詐騙號碼與合法號碼兩種。然而,現實生活中,類. n. al. er. io. 別絕對可以是多於兩種的。所謂的類別,是為了讓網絡中的點有所區分而出現的,類別. i n U. v. 可以是一種行為或是一種狀態;把行為當作類別的話,像是:對政治的立場、購物的喜. Ch. engchi. 好、感興趣的議題、或是對某一件事的反應是正面或是負面,都可以是一種類別。若以 狀態當作類別的話,像是婚姻的情況、服兵役的情況等等都可以。另外像是生活中的職 業如:老師、學生、行政人員,這都算是類別的一種。 然而,現階段關於類別預測的研究,都是針對某個時間點中的社會網絡作預測,也 就是在一個靜止的社會網絡中將未知類別的資料,作類別的分類;但這種情況與真實世 界並不相符,真實世界裡的社會網絡通常是動態的,意即會隨著時間變化的,不管是網 絡的結構或是其中的類別都可能隨著時間而改變。 舉一個動態社會網絡的實際例子,以 FaceBook 來說,假設網絡中有一個類別是每 個人喜愛的牛仔褲品牌;隨著時間的變化越來越多人加入 FaceBook,社會網絡因此逐 2. DOI:10.6814/NCCU201901233.

(13) 漸擴張,而每個時間階段都會有新的人加進來,如果這些新加入的人已經對於牛仔褲品 牌有所喜好,可能影響他們的朋友,因而造成他們朋友喜愛的牛仔褲品牌有所改變。而 使用者喜愛的牛仔褲品牌有所改變,也就是所謂的類別會隨著社會網絡而動態改變。 以往對於社會網絡中類別的探討,比起鏈結而言偏少許多;這幾年鏈結預測的研究 如雨後春筍般冒出,而隨著鏈結預測日漸成熟,有關類別預測的研究也漸漸受到矚目。 通常一個有類別的社會網絡,裡面已標記好的類別是相當稀疏的,也就是在實際的狀況 下,一個社會網絡裡通常會有很多點的類別是未知的。而類別預測就是設法將這些未知. 政 治 大. 類別的點,分配到一個最恰當的類別。. 立. 本研究即探討在動態社會網絡下的類別預測。在這樣的前題下,會有幾個衍生的問. ‧ 國. 學. 題,第一,由於本研究是針對動態的社會網絡作類別的預測,與以往針對靜止的社會網 絡做類別預測的研究,不同的地方在於,所謂動態社會網絡指的是,社會網絡中的點與. ‧. 邊可能會隨著時間增加或減少,此前提與以往靜止的社會網絡中點與邊的數量都是固定. Nat. sit. y. 的,並不考慮時間之於社會網絡的關係,是兩個不同的出發點;為簡化問題,本研究假. n. al. er. io. 設社會網絡會隨著時間擴張,也就是每個時間階段會有新的點加入網絡,網絡中的點以 及邊的個數都隨著時間增加。. Ch. engchi. i n U. v. 社會網絡中類別分類的問題,有別於一般傳統的分類問題。最大的不同在於社會網 絡中每一筆資料之間是相關的,不像傳統的分類問題中,每筆資料都是獨立的。因此, 既然社會網絡中的每一筆資料,在這邊的資料也就是指社會網絡中的點,其之間是彼此 息息相關的;那麼,在社會網絡的演化過程中,點與點之間的相互的變化,以及每個點 隨著時間之於整個社會網絡意義的變化,事實上蘊藏了許多潛在的類別資訊。 因此,我們要探討的是,在一個未來的時間點中,如何利用網絡的演變過程,以及 在未來的時間點中的部分資料,來預測其社會網絡中點所屬的類別,並提高預測的準確 率。 以下是本篇論文的結構,在第二章將介紹類別預測的相關研究。第三章則是我們的 3. DOI:10.6814/NCCU201901233.

(14) 研究方法流程,包括 3.1 問題說明與定義、3.2 研究架構,包括:分類器的設定與特徵選 取方法。第四章為實驗,4.1 為實驗設計、4.2 實驗評估方法與設計。第五章,描述本研 究的結論,針對實驗結果作討論,並且說明未來可能的研究方向。 研究的方向將從兩個部分進行,分別是先了解傳統在靜止的社會網絡中的類別預 測,並找出可以應用在動態社會網絡中的部分;以及針對解決與時間相關,找出趨勢的 概念飄移做探討。. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 4. DOI:10.6814/NCCU201901233.

(15) 第二章 相關研究 現階段針對社會網絡中類別預測(Label Prediction)的研究逐漸熱門,Gallagher, B. [3] 將 類別預測的方法大致分成兩大類,分別是 Collective Classification 與 Graph based Semi-supervised Learning;大部分的做法,無論分類的著眼點為何,大多是基於這兩大 類衍生的;除此之外,還有一個是結合以上兩大類的做法,由 Gallagher, B.等學者 [3] 所. 治 政 提出,稱為 Ghost Edge。事實上,不管是上述的哪一種方法,皆是將社會網絡中的類別 大 立 預測視為一種網絡中分類的問題 (within-network classification); ‧ 國. 學. 一般的分類(classification)問題中,資料與資料之間彼此是獨立的,分類問題的重點. ‧. 在於,利用已知類別資料的屬性學習出一個類別的分類規則,接著根據此分類規則,利 用未知類別資料的屬性,將其分類到所對應的類別中。. y. Nat. io. sit. 然而,社會網絡中的資料,是彼此相關的;換句話說,社會網絡中的資料皆以點表. n. al. er. 示,而點與點之間有邊的存在,意即資料與資料(點與點)之間是彼此相關的。因此,社. Ch. i n U. v. 會網絡中類別分類的問題核心是,如何利用資料與資料之間連結的關係,設法讓未知類. engchi. 別的資料,分類到所對應的類別中。. 2.1 Collective Classification 第一類研究此種問題的方法稱做 Collective Classification [11],P. Sen 等學者認為社會網 絡中每個點都代表一個資料(可能是網頁、人…等),而每個點都有其屬性與類別;點的 屬性都是已知的,而類別則是有些已知有些未知;如圖 2.1 所示,這個例子中每個點代 表一個網頁,用橢圓形表示;而每個網頁的屬性以圓形表示,至於類別則是橢圓中的文. 5. DOI:10.6814/NCCU201901233.

(16) 字,可以看到這個例子中有兩筆已知類別的資料:其類別分別是 SH 與 CH;同時也有 兩筆未知類別的資料,用空白的橢圓表示。因此,若給定一個上述的社會網絡,與一個 未知類別的資料 (以下用 u 代替),可以知道以下三種資訊:(1) u 的類別與 u 本身屬性 的關聯、(2) u 的類別與 u 已知類別的鄰居的關聯、(3) u 的類別與 u 未知類別的鄰居之 間的關聯。 Collective Classification 即是綜合利用上述的三種資訊,來預測未知類別的資料會是 甚麼類別,也就是利用這三種結構上的資訊對社會網絡中的資料分類。有別於以往在機. 政 治 大. 器學習(Machine Learning)與資料探勘(Data Mining)中,都是將資料獨立分類,而資料分. 立. 類的順序並不會影響最後的結果;但是這種設定對於社會網絡中的類別分類並不適用,. ‧ 國. 學. 因為社會網絡中的類別分類的依據是資料在社會網絡中的結構,也就是點與點之間的連 結關係,而每個未知的點所被分到的類別結果,則會影響其連結的未知的點;因此在社. ‧. 會網絡中的類別預測也必須考慮將資料分類的順序。. sit. y. Nat. Collective Classification 將做法分為兩大類:第一種是以區域性的分類器為分類基礎. n. al. er. io. 的演算法,第二種是將分類問題表示成一個方程式,並用演算法求得最佳解。. Ch. engchi. i n U. v. 圖 2.1 Collective Classification 示意圖 [11]. 6. DOI:10.6814/NCCU201901233.

(17) Collective Classification 以區域性的分類器為分類基礎的演算法,最常見的是 ICA(Iterative Classification Algorithm)與 Gibbs Samplings。 ICA 與 Gibbs Sampling 的精神相當類似,皆是在每個回合先暫時決定一個類別給未 知的資料,重複幾個回合後,最後指定最佳的類別給某個未知類別的資料。 不同的是,ICA 會不斷的重覆直到每個未知類別資料的類別機率分佈穩定為止,並 未規定共要做多少回合才停止;而 Gibbs Samplings 則是一開始便決定總共要做幾回合 即停止(稱為 burn-in),在每個回合裡,同樣也是指定當下最適合的類別給每個資料,並. 政 治 大. 且每次留下記錄,直到做滿一開始定下的次數停止之後,最後選定過程中指定最多次的. 立. 類別為分類的結果。特別一題的是,由於 Gibbs Sampling 要判斷結果是否已經到達穩定. ‧ 國. 學. 的狀況是一件很複雜的事,因此如何選擇一個適當的次數變成了一個議題。 除了以區域性的分類器為分類基礎的演算法外,Collective Classification 還有另一種. ‧. 解法,是將此種分類問題表示成一個方程式,並用演算法求得最佳解。這一類型的做法,. sit. y. Nat. 是將問題轉化成配對馬可夫隨機場(pairwise Markov random field)來解釋,常見的做法有. al. er. io. Loopy belief propagation 與 mean-field relaxation labeling 兩種。. v. n. Collective Classification 主要的精神在於利用未知類別資料的已知類別鄰居來預測. Ch. engchi. i n U. 其類別,因此如果社會網絡中已知類別資料數量稀少時,效果會變得非常不好。另外, 根據 L. McDowell [11] 所提出的方法,他們認為與其把所有的鄰居全部列入考慮,不如 只考慮前 K 個重要性最高的鄰居,會獲得比較好的結果,此種作法稱為 Cautious Collective Classification [11]。那麼,所謂鄰居的重要性之定義是甚麼? 前面有提到,在 ICA 的作法中,一開始對未知類別的點會先利用少數已知類別的鄰 居當作分類的依據,給予此未知類別的點一個暫時的類別,而事實上這個暫時類別,是 由多個可能的類別中取出機率值最大的一個類別,來當作此點暫時的類別;有鑑於此, L. McDowell [16] 等人便認為,這個暫時類別的機率值,另一層面也代表著在這個點上 作類別分類的可信度;也就是說,既然每個暫時類別已經是多個可能的類別中,機率值 7. DOI:10.6814/NCCU201901233.

(18) 最大者,那麼如果此暫時類別的機率值越小的話,就表示此次分類的結果不準確的可能 性越大;因此,Cautious Collective Classification 有別於原本的 ICA,對每個未知類別的 點作類別分類的時候,利用了所有的鄰居:在原始的 ICA 中,無論是已知類別的、或是 原本為未知類別後來得到一個暫時類別的鄰居,全都拿來當作分類的依據。Cautious Collective Classification 對未知類別的點進行類別分類的時候,以較嚴格的方式在過濾鄰 居;除了已知類別的鄰居一定要挑以外,對於原本為未知類別的鄰居,依據其暫時類別 的機率值排序,只挑選前 K 個加入分類的依據,其他未知類別的鄰居,即便已經有了一. 政 治 大. 個暫時的類別,但因可信度太低則不考慮。這就是 Cautious Collective Classification 的作. 立. 學. ‧ 國. 法。. 2.2 Local Structure Similarity. ‧. 上述的做法皆是考慮已知類別鄰居其類別的分佈,做為將未知類別分類的依據。除了考. sit. y. Nat. 慮鄰居的類別分布之外,C. Desrosiers [3] 提出另一種觀點是考慮未知類別的點,在社. n. al. er. io. 會網絡中的結構與哪個已知類別的點較為相像,便認為它們較有可能是相同的類別。. i n U. v. 此作法是精神是,若某兩個點在社會網絡中扮演的角色非常相似,那麼此兩點應具. Ch. engchi. 有相同的類別。那要如何判斷某兩個點,在社會網絡中扮演的角色是否類似? 此篇研究使用的方法是,計算某個未知類別的點 u 與某個已知類別的點 v,其分別 在社會網絡中做 random walk,並記錄每一個經過的點之類別,這麼一來,便可分別得 到 u 與 v 在社會網絡中作 random walk 經過的類別序列;接著,再算出 u 與 v 會出現一 模一樣的類別序列之機率為何,若 u 與 v 產生出相同的類別序列機率越高;則表示,從 u 和 v 出發越有可能會經過一樣類別的點,因此 u 與 v 這兩點在社會網絡中越有可能是 扮演同樣的角色;因此未知類別的點 u 越有可能與已知類別的點 v,有一樣的類別。此 方法是屬於 Collective Classification 中的 Relaxation labeling。. 8. DOI:10.6814/NCCU201901233.

(19) 2.3 Graph-based Semi-supervised Learning 類 別 預 測 兩 大 類 方 法 , 除 了 Collective Classification 之 外 , 還 有 另 外 一 種 做 法 是 Graph-based Semi-Supervised Learning,此種做法可以解決 Collective Classification 在已 知類別數量偏少的社會網絡中效果不彰的缺點;Graph-based Semi-supervised learning 除 了利用已知類別的資料以外,還有利用未知類別的資料一起當作已知的資訊[24]。 這一類方法的基本前提是,在社會網絡所表示的圖中,分布在附近區域的點,其類 別皆會相同。因此 Graph-based Semi-supervised learning 必須滿足兩個限制:(1) 類別的. 政 治 大 一致性(Local Consistency) (2) 類別分布在社會網絡中的平滑性。所謂類別的一致性指的 立 就是散佈在附近區域的點其類別皆會相同;而平滑性指的是,對整個社會網絡的圖而. ‧ 國. 學. 言,類別的分佈必須是平滑的,也就是必須避免在圖上有一區一區不同類別,出現非常. ‧. 明顯的界限的情況。所有使用 Graph-based Semi-supervised learning 的做法皆是在這兩個. sit. y. Nat. 限制下取得平衡 [3] [23]。. io. er. 由於此種作法是建立在附近區域的點其類別都相同的假設下,因此對於某些不符合 此種假設的社會網絡,效果便會大打折扣。例如:描述師生關係的社會網絡,這一類型. al. n. v i n Ch 的社會網絡,類別為學生的點直接與類別為老師的點相連;這樣一來,某個點所直接聯 engchi U 結的鄰居,其之間類別事實上是相反的。在此種狀況下 Graph-based Semi-supervised learning 的解法便完全不適用,反之 Collective Classification 因為是倚賴已知類別的資料 當作訓練資料,因此無論區域類別的一致性高或是低,只要已知類別的資料量夠多都可 以做出理想的分類。下表 2.1 列出以上兩種方法的比較。. 9. DOI:10.6814/NCCU201901233.

(20) 表 2.1 Collective Classification 與 Graph-based Semi-Supervised Learning 比較表 method. Collective. Graph-based. Classification. Semi-supervised. Performance. Learning. very few labeled nodes in the networks. largely degraded due to. Outperformance. 政 治 大. the lack of sufficient neighbors. 立. Different dependency. kinds of dependency structures. auto-correlation. ‧. ‧ 國. affected in negative. 學. structures. powerful ability to learn various. 由 上 表 2.1 可 以 看 出 , 在 已 知 類 別 資 料 數 量 較 少 的 情 況 下 , Graph-based. sit. y. Nat. Semi-supervised learning 會得到較佳的分類結果;而在不知道類別的區域一致性是高或. n. al. er. io. 低,特別是區域一致性低的情況下,使用 Collective Classification 會有較佳的結果。. 2.4 Ghost Edges. Ch. engchi. i n U. v. 除了 Collective Classification 與 Graph-based Semi-supervised learning 之外,Gallagher, B. 等學者 [3] 也提出了一個可以解決以上兩者最大缺點的方法,稱為 Ghost Edge。其主要 的精神是利用圖中所有已知類別的點來當作分類的資訊,在這篇研究中,主要針對只有 二元類別的社會網絡作探討。 此做法是將未知類別的點,與圖上每一個已知類別的點都以 Ghost edge 相連;此種 做法就是參考 Collective Classification 用已知類別當作分類基礎的精神。將未知類別的. 10. DOI:10.6814/NCCU201901233.

(21) 點與圖上所有已知類別的點以 Ghost edge 相連之後,分別計算每一個 Ghost edge 的權 重,再根據每一條 Ghost edge 的權重,算出某個已知類別的點,對此未知類別的點的貢 獻是多少。若權重越大,則表示此未知類別的點,越可能受到連結於此 Ghost edge 的已 知類別的點影響;因此越有可能與其屬於相同的類別。. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 11. DOI:10.6814/NCCU201901233.

(22) 第三章 研究方法 3.1 問題定義 [定 義 一 ] 一個動態社會網絡 G = < G1, G2,…,GT, GT+1>,是由多個不同時間點的社會網絡所組成的序. 政 治 大. 列,其中 ∀t, 1 ≤ 𝑡𝑡 ≤ (𝑇𝑇 + 1), Gt = (Vt, Et, L),是一個 Unweighted graph.. 立. Vt 為 Gt 的節點集合,Et 為 Gt 的連結集合。. ‧ 國. 種類個數。. 學. V|t 表示 Gt 中所有節點的個數,|E|t 為 Gt 中所有連結的個數,|L|為 G 中所有類別的. ‧. 對於一個動態演化的社會網絡而言,|V|t、|E|t 可能隨著時間 t 而改變。在本研究中,. sit. n. al. er. io. [定 義 二 ]. y. Nat. |L|為一常數,類別的種類是固定的。且動態網絡逐年增加規模,因此 Vt ⊆ Vt+1 且 Et ⊆ Et+1. Ch. 給定 G = < G1,G2…GT,GT+1>,∀ 𝑡𝑡, 1 ≤ 𝑡𝑡 ≤ (T + 1). engchi. i n U. v. (1) ∀ Gt , 1 ≤ 𝑡𝑡 ≤ T,所有節點的類別皆為已知。. (2) GT+1 只有部分節點為已知類別,其中 XT+1 為已知類別的節點集合,Y T+1 為未類別的節點集合。 XT+1 ∪ Y T+1 = VT+1. 則動態社會網絡的類別預測問題是利用 Gt = (Vt, Et, L),t ∈ [1,T],以及 XT+1;將所有 yi. (T+1). ∈ YT+1 ,分類至對應的類別 li,li ∈ L。. 圖 3.1 為動態社群網絡之類別預測示意圖,其中黑色點為已知類別的節點,白色點. 為未知類別的節點;針對動態的社群網絡,目標是利用所有已知類別的資料,針對未知 類別的節點預測其類別。 12. DOI:10.6814/NCCU201901233.

(23) ‧‧‧ G1. G2. GT. G3. GT’. Test Data. Training Data. 圖 3.1 問題定義示意圖 (黑色點為給定的資料). ‧ 國. 學. 3.2 研究架構. 立. 政 治 大. ‧. 本研究的架構主要分三個部分:Base Classifier Learning、Ensemble Box Learning、. y. Nat. Labeling,如下圖 3.2 所示。. io. sit. 在 Base Classifier Learning 中,主要的重點在於使用動態社會網絡過去的演化資料,. n. al. er. 對每一時間點的的社會網絡產生一個分類器,使得過去的動態演化過程,可以當成判斷. Ch. 未來時間點的社會網絡類別預測的線索。. engchi. i n U. v. Ensemble Box Learning 則針對 Base Classifier Learning 中所產生的眾多分類器,我 們利用一個 Ensemble Box 組成了 Ensemble Classifier,當成最後作類別分類時的分類器。 在最後一個階段 Labeling 中,我們運用了 Collective Classification 中的方法 ICA (Iterative Classification Algorithm) 將上一階段中產生的 Ensemble Box,用於未知類別的 節點來作類別的預測,最後產生每一個點都有類別的 G’t+1 。. 13. DOI:10.6814/NCCU201901233.

(24) G1. ‧‧‧. Gt. Gt-1. Xt+1. Gt+1. Base Classifier Learning ‧‧‧. Ensemble Box Learning. Labeling 政 治 大. 立. ‧ 國. 學. G’t+1. ‧. 圖 3.2 研究架構流程圖. n. er. io. sit. y. Nat. al. C. 3.3 Base Classifier Learning h e n g c h i. i n U. v. Base Classifier Learning 這個步驟的重點使用社會網絡演化的資料;訓練資料為:G = < G1,G2,….,GT>。 針對每個 Gt = (Vt, Et, L),1 ≤ 𝑡𝑡 ≤ T,都使用 Base Classifier 學習出一個 分類器出來,此分類器就代表了社會網絡在 t 時間點的類別規則。. 社會網絡的類別預測,最直覺的方法就是觀察大部分直接相鄰的節點,多數為甚麼 類別,則指定其最多數之類別給此未知類別的節點。 若將此方法對應到真實的情況,當社會網絡中點與點彼此聯結數量較少時,每個人 的確受到身邊的人影響的程度非常大,尤其是直接相連的第一層鄰居;在點與點之間,. 14. DOI:10.6814/NCCU201901233.

(25) 以及社會網絡中整體的連結數量都不多時,如果利用此直觀的方法,假設鄰近的點彼此 類別的同質性較高,將新加入的點作類別的分類或許是符合邏輯的。 然而,當社會網絡隨著時間逐漸增長的時候,網絡中每個點的聯結越來越多了,這 個時候,每個點受到第一層鄰居影響的程度,也許也會受到改變,有可能除了第一層的 鄰居以外,還會受到第二、三層、甚至更多層鄰居的影響。 如下圖 3.3 為例:點 i 為未知類別的節點,點 i 與節點 N1、N2、N3、N4 直接相連,若是 以最直觀的方法,直接觀察其直接相鄰的節點;可能會將點 i 的類別分類成 A;但是在. 政 治 大. 社會網絡中,雖然直接與點 i 相連的點只有四個,但是 N1、N2、N3、N4 與社會網絡中其他. 立. 點是有連結存在的,由於網絡中的節點彼此會相互影響,所以不論是點 i 的直接鄰居,. ‧ 國. 學. 包括點 i 的間接鄰居,都可能會影響著點 i 的類別;因此在這種情況下,只看直接相鄰 的鄰居,當做分類的特徵也許就不足夠當成分類的依據。. ‧. 下一章節,將說明本研究中針對每一筆資料,所使用的特徵、以及使用的 Base. n. al. er. io. sit. y. Nat. Classifier。. Ch. engchi. i n U. v. B ? A. ?. N2. N3 ?. N1. B. A N4. i. 圖 3.3 類別預測示意圖 15. DOI:10.6814/NCCU201901233.

(26) 3.3.1 Ghost Edge 對一個已知類別的點稀疏分佈的社會網絡,如下圖 3.4 所示,為了盡可能利用已知類別 的點來當作類別預測的根據,Ghost Edges [4] 將每一個未知類別的點,以 Ghost Edges 與網絡中所有已知類別的點相連。如此一來,即便原本不直接相鄰的已知類別,都可以 透過網絡中的結構,成為對未知類別的點做分類時的依據。 若以 u 表示某個未知類別的點,v 表示某個已知類別的點,若 v 與 u 並未直接相連, 則而 Ghost edge 將 u 與 v 相連,藉著 Ghost edges 利用網絡的結構算出 u 與 v 之間的. 政 治 大. proximity;此 proximity 即代表 u 與 v 在社會網絡中的遠近關係。. 立. 某兩點 u 與 v 之間 Ghost edge 的 proximity 值,是來自在社會網絡的圖中,從 u 出. ‧ 國. 學. 發做 Random Walk with Restart (RWR),會到達 v 的機率。若從 u 出發做 RWR 到達 v 的 機率越高,則此 u,v 相連的 Ghost edge 其 proximity 值越高;表示 u 越可能受到 v 的影. ‧. 響。. sit. y. Nat. 但若以 RWR 到達某個已知類別點 v 的機率,來判斷某個未知類別的點 u,是否受 v. al. er. io. 影響,會出現以下的問題。. v. n. 若 u 與 v 直接相連,那麼 v 對 u 的 proximity 必然較高,意即有較大的權重。然而,. Ch. engchi. i n U. 這麼一來又回到 Graph-based Semi-supervised learning 的缺點,也就是若是在區域一致性 (Local Consistency)較低的網絡中,如果網絡中直接相鄰的點剛好都是相反的類別時,其 分類的效果將會變得極差。因此為了克服此問題,[4] 便將 RWR 變形。 其改變 RWR 原本一次走一步的定義,改成一次走兩步。計算 proximity 的方式變成: 從某個未知類別點 u 出發,做 even-step RWR 到某個以 Ghost edge 相連的已知類別點 v 的機率。 這麼一來便可以克服 Graph-based Semi-supervised learning 無法在區域類別一致性 較低的社會網絡中做分類的缺點。因為若在區域類別一致性極低的社會網絡中,鄰居互 為相反的類別,一次走兩步剛好會避開相反的類別。而若在區域類別一致性高的社會網 16. DOI:10.6814/NCCU201901233.

(27) 絡中,既然附近鄰居都會是相同的類別,那麼走兩步依然會是相同的類別。proximity 是利用[19]的 Random Walk with Restart 提出的方法得之,以下將詳細說明。. A. A. ? A. ?. B. ?. u. ?. 立. ? A. ?. B. ?. u. 政 治 大. ?. Ghost Edges 示意圖. Nat. io. sit. y. ‧. ‧ 國. 學. 圖 3.4. n. al. er. 3.3.2 Random Walk with Restart. i n U. v. 本研究中,兩點( i, j)之間的 RWR 值,代表 i 與 j 在網絡中結構上的遠近,[13]定義如下. 說明:. Ch. engchi. (1). 7 33⃗ 33⃗ r2 = cW r2 + (1 − c)e33⃗ 2. r33⃗是排序後的向量,是一個 n× 1 的矩陣,rij 為點 i 到點 j 之間相關的分數。 2 C 是從任一點 i 出發,回到原點 i 的機率;0≤c≤1. 7 是一個正規劃之後的 weighted graph,1 ≤ i , j ≤ n (n 為所有點的個數) W. N-1:記錄從哪一個點開始,以 i 點出發,第 i 個元素為 1, e3333⃗ 是一個起始向量,大小為 2 其他皆為 0. RWR 的做法為:從某一個點 i 出發,隨機造訪在圖上的點,每一次有 1-c 的機率回 17. DOI:10.6814/NCCU201901233.

(28) 到原點 i;本研究中,c = 0.9,且每一條邊的 weighted 都為 1。 若圖中任兩點(i,j)之間有越多權重值大的邊,或是存在最短路徑,那麼(i , j)之間的 proximity 會越高。. 3.3.3 Base Classifier 本研究中,我們使用的 Base Classifier 為 Random Forest [1]。以下詳細說明 Random Forest。 Random Forest 是 一 種 以 決 策 樹 (Decision Tree) 為 基 礎 分 類 器 的 Ensemble. 政 治 大. Classification 方法。其分割訓練資料的方式是從資料的特徵為著眼點下手,假設某個基. 立. 礎分類器的設定是 K 個特徵,那麼 Random Forest 就會在建立此分類器的決策樹時,在. ‧ 國. 學. 每個 split node 先隨機選出 K 個特徵,再從這 K 個特徵中找出最好的特徵,當作節點(split node),以此方式建立起決策樹。. ‧. 然而,既然 Random Forest 是一種 Ensemble Classification,其基礎分類器的個數當. Nat. sit. y. 然不只一個,也就是說會有多個決策樹,其中每一個決策樹所選定的特徵數可以不同,. n. al. er. io. 這表示每一個決策樹的高度可能不一樣,而最後的準確率也會關係著基礎分類器的歧異. i n U. v. 度,如果歧異度越大則表示每個基礎分類器之間越獨立,那麼就越有可能分的越準確。. Ch. engchi. 因此,在指定各個決策樹的特徵數量時,要特別注意,通常是以log > d+1 為主,d 為原 本訓練資料中的總特徵數。. 3.4 特徵選取 在 Base Classifier Learning 當中,最主要的目的是為了利用社會網絡演化的資料,來做 為分類的依據之一。對演化過程中每一個時間點 t 下的社會網絡 Gt = (Vt, Et, L),t ∈ [1,T];我們針對每個 xi ∈ Xt 皆產生一組特徵,最後使用 Xt 當作 Base Classifier 的訓練資. 料,以學習出社會網絡在時間 t 時的類別規則。以下將說明特徵產生的方法 [4]。 18. DOI:10.6814/NCCU201901233.

(29) 首先,利用前一章節所題及的計算 proximity 的方式,算出每一個點 xi ∈ Xt,對網. 絡上其他所有點的 proximity 值。. 接著,再將每一個點按照其proximity值分成六個等級;第一個等級為proximity值在 前3%的點,接著第二個等級是proximity介於前3%-6%的點、第三個等級為前6%-12%的 點、第四個等級為12%-25%的點、第五個等級為25%-40%的點、第六個等級為40%-80% 的點。 如此一來,對點V而言,依照proximity值整個社會網絡中的點就可以分成六個等級,. 政 治 大. 再加上直接相鄰的鄰居,一共為七個等級。假設社會網絡一共有兩種類別,分別為A以. 立. 及B。. ‧ 國. 學. 接著,再看點V在第i階層,1≤i≤ 7的鄰居中,屬於類別A的點有幾個,以及類別為. B的點其個數為何,就以此當做點V的特徵。我們也是利用一樣的方法,得到社會網絡. ‧. 中每個點的特徵。. sit. y. Nat. 如此一來,在每一個時間t,t ∈ [1,T]中,我們有了當時的社會網絡Gt = (Vt, Et, L). al. er. io. 當作訓練資料,也利用B. Gallagher[4]的方法得到了特徵,便可以使用Base Classifier對. v. n. 每一個時間點 t的社會網絡學習出一個分類器,此分類器即代表此社會網絡在時間點t 時,其類別分類的規則。. Ch. engchi. i n U. 3.5 Ensemble Box Learning 再次以上圖 3.3,類別示意圖為例:在一般只考慮靜態社會網絡的類別預測中,若 要對點 i 作類別的預測,無論單純考慮第一層鄰居 N1、N2、N3、N4,或是連帶考慮間接的 鄰居,都是在此靜態情況下所做出的預測。但是一個社會網絡的演化過程中,其類別分 類的規則是有可能隨著社會網絡的變化有一些趨勢產生;例如:受到第一層鄰居影響的 程度遞減、受到不同層鄰居影響程度的變化…等等;這些趨勢,事實上是緊緊關係著網 19. DOI:10.6814/NCCU201901233.

(30) 絡上所有的點,像是點 N2 與點 N3 所連結的雲朵,代表著在社會網絡上類別分類的趨勢, 而這個趨勢都是有可能隨著社會網絡的變化改變的。我們希望可以藉著動態社會網絡的 演化狀態,來得知此分類規則的趨勢。 此類與時間有關的演變資訊,機器學習領域中將此稱為概念飄移(Concept Drift);因 此我們的解法中,必須利用 Concept Drift 的解法,來找出分類規則改變的趨勢。以下將 簡短說明 Concept Drift、並詳細說明本研究中 Ensemble Box Learning 的方法。. 3.5.1 Concept Drift. 立. 政 治 大. 概念飄移(Concept Drift)指的是資料在一連串的變化中出現的趨勢,而所謂的. ‧ 國. 學. Concept 可以是任何想要預測的概念;例如在氣象預報中,溫度、濕度等等都可以是一 種 Concept;又例如在網路行銷中,商家可能想藉由過去的資料,了解消費者在不同季. ‧. 節或是不同時節的消費狀況,來預測消費者下一個可能的動作機制,就可以正中下懷釋. Nat. sit. n. al. er. io. Concept。. y. 出折扣或是大量廣告,進而達到最高的效益;在此例中,消費者的消費模式,也是一個. i n U. v. 前面提及本研究利用了社會網絡隨著時間增長的演進過程,設法找出位於下一個時. Ch. engchi. 間之社會網絡中的點,及其正確類別的對應脈絡。事實上,我們在本研究中,把這個可 能會隨著社會網絡演變的類別分類規則,視為我們問題的 Concept。 Indre Zliobaite[25]等學者指出 Concept Drift 變化的方式可以分成四種,以下圖 3.5 為例,假設此圖中的 concept 表示產生資料的機率模型,此例中每一個圓柱型都是一個 機率模型也就是一個 concept. (1)Sudden drift: 在 Sudden drift 的情況下,concept 會在某一個時間點忽然的改變,也就是說,資料 原本全部出自下方的機率模型,卻在某一個時間點,變成了全部出自上方的機率模型, 20. DOI:10.6814/NCCU201901233.

(31) 可以看到在接近中心的時間點,concept 出現了全然不同的改變。. (2)Gradual drift: 在 Gradual drift 的情況下,資料屬於兩個不同 concept 出現的機率則是逐漸改變, 隨著時間,資料漸漸的從屬於下方的 concept 變成屬於上方的 concept 這種狀況稱為 Gradual drift;. (3)Incremental drift:. 立. 政 治 大. 在 incremental drift 的情況下,除了原本上下兩個截然不同的 concept 之外,還會有. ‧ 國. 學. 許多介於這兩者之間的 concept,例如在此例中,隨著時間資料的出處就會漸漸的從下 方機率模型,轉換到一個介於下方與上方之間的機率模型,以此類推,漸漸的出自於上. ‧. 方的機率模型。. sit. y. Nat. incremental drift 與 gradual drift 最大的不同在於,gradual drift 只有兩種 concept,而. al. er. io. 資料屬於這兩種 concept 的機率會逐漸改變;incremental drift 還多了許多介於兩個極端. v. n. 之間的 concept,資料是靠著這些介於兩者之間的 concept 逐漸轉換的. Ch. engchi. i n U. (4)Reoccurring context: 最後一種 concept drift,稱為 reoccurring context,指的就是 concept 會隨著時間反覆 有周期性的轉換,例如現實生活中,有時候會流行復古風,這樣的例子即為 reoccurring context。 Concept Drift的解法有許多,概括而言主要分成兩種:(1) Trigger based Learner與(2) Evolving based Learner [21] [25] [15]。Trigger based Learner 主要是用在concept會突然改 變的情況下,例如sudden drift的情形。然而,本研究關注的對象是,類別分類的規則受 到社會網絡演化影響而產生的變化,而這個類別分類規則的變化過程,不會倏忽出現大 21. DOI:10.6814/NCCU201901233.

(32) 幅度的改變,而是潛移默化的。 若由 [23] 提出得四類Concept Drift分類,本研究隸屬於incremental drift的情況,因 此並不適用trigger based learner的解法,需要的是evolving based learner。 相對於Trigger based Learner會偵測concept的變化,立即做更動;Evolving based Learner則是不主動偵測 concept,取而代之的是,不斷的調整 learner 本身,使其不斷 的適應新的訓練資料,使其變的越來越準確。Evolving based learner這樣的特性,正是我 們需要的。. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 22. DOI:10.6814/NCCU201901233.

(33) Sudden drift. mean. Gradual drift. mean. 學 ‧. Incremental drift. mean. ‧ 國. 立. 政 治 大. n. er. io. sit. y. Nat. al. mean. Reoccurring contexts. Ch. engchi. i n U. v. 圖 3.5 概念飄移種類示意圖 [15]. Ensemble Classification是Evolving based learner常見的一種方法,此為資料探勘領域的分 類問題中,為了提高分類的準確率因應而生的方法。Ensemble Classification的精神在於, 若是單一分類器很難分的準確,那麼不如利用多個基礎分類器(based classifiers)來分類, 23. DOI:10.6814/NCCU201901233.

(34) 而最後的分類結果則採用多數決的方式,利用此方法來提升分類的準確率。 此外,只要每個基礎分類器是彼此獨立的,並且每個基礎分類器的準確率比隨機猜 來的好,那麼準確率就會比使用單獨一個分類器來的高[17]。 Ensemble Classification的關鍵是必須將原本的訓練資料分割成數個訓練資料;原因 是Ensemble Classification是利用多個基礎分類器來做分類,那麼假設某個Ensemble Classifier是以N個基礎分類器所組成,那就必須要將原本的訓練資料,分割成N筆訓練資 料,以產生N個分類器。最後再結合這n個分類器,綜合分類的結果,對未知的資料作分 類。. 立. 政 治 大. ‧ 國. n. 學. 3.5.2 Ensemble Box Streaming Ensemble Algorithm (SEA) [18]. ‧. SEA是針對data streaming發展的演算法;由於data streaming的資料量非常的大,若要將. Nat. sit. y. 所有的data拿來當成訓練資料,記憶體與時間的代價都會很高。. al. er. io. 因此SEA的做法是,設定一個固定大小的window size與一個固定基礎分類器數量的. v. n. Ensemble classifier。新資料進來時,便將此window中的資料,當成訓練資料產生一個分. Ch. engchi. i n U. 類器;並且將此分類器用於下一次產生的資料中,若效果超過門檻值且Ensemble Classifier中的基礎分類器數量未達上限,則將此分類器加入Ensemble Classifier當中。最 後,以此Ensemble Classifier當成最終的分類器,對新的資料做分類。SEA演算法如圖3.6 所示:. 24. DOI:10.6814/NCCU201901233.

(35) Streaming Ensemble Algorithm (SEA) while more data points are available read d points, creating training set D build classifier Ci using D evaluate classifier Ci-1 on D evaluate all classifiers in ensemble E on D If E not full insert Ci-1 else if Quality(Ci-1) > Quality(Ej) for some j replace Ej with Ci-1 end. 政 治 大. 立. ‧. ‧ 國. 學. 圖 3.6 SEA 演算法 [11] SEA 演算法[5]. 圖 3.6. 給定已知的動態社會網絡 G = < G1, G2,….,GT>,經過了上一個步驟 Base Classifier Learning. sit. y. Nat. 之後,我們會得到一個 Classifier 的序列 CF = < CF1,CF2,….,CFT > ,一共 T 個 base. al. n. Learning 而產生。. er. io. classifiers;∀ CFt , 1 ≤ t ≤ T,都是由對應的 GT 當作訓練資料,經過 Base Classifier. Ch. engchi. i n U. v. 我們利用 SEA[18]的概念,設定一個 Ensemble Box,此 Ensemble Box 包含了 K 個 base classifiers,1 ≤ K ≤ T。針對每一年 GT 當測試資料,我們拿以 GT-1 當訓練資料所產. 生的分類器 CFt-1 對 GT 做測試;若分類準確率高於門檻值δ,且 Ensemble Box 中的 base classifiers 尚未到達上限,則將 CFt-1 加入 Ensemble Box ; 如果分類準確率高於δ,而 Ensemble Box 中的 base classifiers 已達上限;則先比較若以 CFt-1 替換掉 CFj ,1 ≤ j ≤ t,是否使得 Ensemble Box 的準確率提升,若有,則以 CFt-1. 取代 CFj 加入 Ensemble Box 中。. 我們採用此種作法產生 Ensemble Box 之目的在於,由於動態社會網絡中類別分類 的規則是漸漸改變的,那麼我們利用此種方式便可以留住針對下一個時間階段也依然準 25. DOI:10.6814/NCCU201901233.

(36) 確的類別規則。. 3.6 Labeling 經過了上一個步驟 Ensemble Box Learning 之後,我們便得到一個 Ensemble Box 當作我 們最終的分類器;我們將 Ensemble Box 中的 base classifiers,稱為 Remained classifiers, 這些 Remained classifiers 即代表動態社會網絡演化的過程中,所留下來的類別分類規. 政 治 大. 則,由於我們在 base classifier learning 的步驟,使用的特徵為各個階層的鄰居中,屬於. 立. 各個類別的鄰居數。因此,這些 Remained classifier 事實上潛在隱含著,對於某個未知. ‧ 國. 學. 類別的節點,其受到各個階層的影響之權重。. 針對 GT+1 中每一個未知類別的節點,使用此 Ensemble Box 當作最終的分類器,以. ‧. 多數決的方式,來預測 GT+1 中每一個未知類別節點的類別。. n. al. er. io. 我們的 Labeling 步驟中。下一章節將說明 ICA 的作法。. sit. y. Nat. 在 Labeling 的步驟中,我們使用了 Collective Classification 的做法,加入了 ICA 在. Ch. engchi 3.6.1 Iterative Classification Algorithm. i n U. v. 屬於 Collective Classification 中 Based on Local Classifier 的 ICA,其基本概念是:若給定 一個未知類別的資料 u、以及所有與 u 直接連接的資料、與一個分類器 f;假設 u 的所 有直接連接的鄰居其類別都是已知的,則 f 即可利用所有鄰居的類別,產生出 u 屬於各 個類別的機率是多少,這樣一來就可以選擇機率最高的當作 u 的類別。 但是,事實上對一個未知類別的點而言,並非所有鄰居的類別都是已知的;也就是 說,一個未知類別的資料也有可能是另一個未知類別的鄰居;那麼究竟要如何開始? 如圖 3.7 所示 ICA 的設定為,對每個未知類別的點,一開始只利用少數已知類別的 鄰居,來做為類別分類的依據;這樣一來,這個未知類別的點便有了暫時的類別,而與 26. DOI:10.6814/NCCU201901233.

(37) 其相鄰且類別未知的點,便可以利用這個暫時的類別,作類別的分類,暫時選擇每個階 段得到最有可能的類別,再繼續做完網絡中其他未知的資料;接著,不斷的重複這樣的 回合,直到每個未知資料所屬的類別都穩定為止。ICA 的演算法如下圖。. Iterative Classification Algorithm(ICA) For each node Yi Y do// bootstrapping //compute label using only observed nodes in Ni. 政 治 大. Compute attributes ai only X Ni yi ←f(ai). 立. end for. ‧ 國. 學. repeat// iterative classification generate ordering O over nodes in Y for each node Yi O do. ‧. // compute new estimate of yi Compute ai using current assignments to Ni. y. sit. io. end for. Nat. yi ←f(ai). n. al. er. until all class labels have stabilized or a threshold number of iterations have elapsed. i n C 圖h 3.7 ICA 演算法 [11] engchi U. v. 在 Labeling 的步驟,有無 ICA 的差別在於,未知類別的節點之特徵是否為固定的。 假設,在社會網絡中的節點共有 N 個,其中已知類別的節點共有 K 個,那麼,若 在沒有 ICA 的情況下,網絡中其他 N-K 個未知類別的節點,其特徵皆來自於此 K 個已 知類別的節點,特徵值不會改變。然而,若在有 ICA 的情況下,在回合開始時,第一個 未知類別的點被暫時分類至某類別後,此時其它未知類別的節點,便會把這個已經有暫 時類別的節點,加入特徵中;因此,在 ICA 的過程裡,最後一個被分類的未知類別節點, 其特徵是來自於前面的 N-1 個節點,包括原本類別為已知的節點,以及原本類別為未知 的節點,因此 ICA 的回合中,每個未知類別的節點,事實上其特徵值是一直改變的。 27. DOI:10.6814/NCCU201901233.

(38) 本研究在 Labeling 的步驟,加入了 ICA 的方式,以回合制的方式,逐漸預測所有未 知類別的節點其類別為何。. 立. 政 治 大. ‧. ‧ 國. 學. n. er. io. sit. y. Nat. al. Ch. engchi. i n U. v. 28. DOI:10.6814/NCCU201901233.

(39) 第四章 實驗 4.1 資料庫 本研究使用的資料庫來源為 IMDb (Internet Moies Database)。其中,以每一個演員當成 節點,以合演過同部電影當作決定連結的條件,若某兩位演員有共同合演過一部電影,. 學 表 4-1 資料庫中每個年份的演員數量. 1984. 1985. 1986. 1987. 1988. 1989. 1990. 193. 220. 270. 324. 393. 456. 513. 591. 708. n 4.1.1 資料庫特性 n. sit. io. al. 812. 1992. 1993. 1994. 1995. 963. 1552. 2265. 2803. er. 人數. 1991. y. 1983. Nat. 年份 1982. ‧. ‧ 國. 治 政 則此兩節點之間有連結。我們收集 1980 年至 1995 一共 大 15 年的電影,以及其演員,當 立 作實驗中的動態的社會網絡。實驗目的為,利用動態網絡的資料來預測演員的類別。. Ch. engchi. i n U. v. 動態網絡. 原始的資料為 1982-1995 年的電影資料,一共 14 年份。我們利用 1982-1993 年當作 訓練資料。因此,我們實驗中的動態網絡 G = <G1, G2,…, GT>,每一個 GT 都是當年的社 會網絡,∀ Gt-1 ⊆ Gt ,2 ≤ t ≤ 12。 n. 電影類別. IMDb 一共將電影種類分成 24 類。分別為:Drama、Thriller、Horror、Action、Comedy、 Adventure、Romance、Fantasy、Sci-Fi、Music、Mystery、Crime、Biography、History、 29. DOI:10.6814/NCCU201901233.

(40) Family、Animation、War、Sport、Musical。 其中每一部電影包含一個以上的電影類型,為了簡化問題,我們根據視訊分段領域 將電影歸類的方法[2] ,一共歸納成常見的四類,分別為:Drama、Action、Comedy、 Horror。其中,由於 Thriller 與 Horror 在電影類型上十分相近,我們將 Thriller 一併列入 Horror 類。其它不屬於這四類的電影類型,我們將之分成第五類 Others。. n. 演員類別. 政 治 大. 在訓練資料的產生過程中,演員的類別,是根據其演過的電影大多數為何種類型所決. 立. 定。為了更能夠確切得看出演員的類別,我們以三年當作一個 sliding window,演員的. ‧ 國. 學. 類別則由此三年中演過的電影決定。. 例如:在 1984 年的社會網絡中,此時社會網絡中所有演員的類別,是取決自. ‧. 1982-1984 年間,演過的電影中最多數的電影類型。假設某演員 A 在此三年內一共演出. sit. y. Nat. 了兩部電影,其電影類型分別為{ Drama, Romance, Comedy}與{ Drama }。首先我們依照. al. er. io. 電影種類,加總此演員在這三年內演過的電影數量,可以看出演員 A 在此三年的類別分. v. n. 佈為:Drama*2、Comedy*1、Romance*1。那麼我們將此演員的類別視為 Drama。. Ch. engchi. i n U. 然而,若某演員於此三年演出的電影,其最多數的類型不只一種時,我們則以隨機 的方式,在這些最多數的類別中,隨機選出一個當作此演員在此三年的類別。 n. 訓練資料的特徵. 由於目標是預測每個演員在下一個時間階段的類別,針對每個在 GT+1 中未知類別的 演員 i,我們以 [4] 的作法,利用 proximity 值將網絡中已知類別的的點 u 對 i 分成 以下六個等級。Xt+1,為 GT+1 中已知類別的點集合。 第一個等級:proximity(u,i )為前 3%,u ∈ Xt+1 第二個等級:proximity(u,i )為前 3%-6%, u ∈ Xt+1 第三個等級:proximity(u,i )為前 6%-12%,u ∈ Xt+1 30. DOI:10.6814/NCCU201901233.

(41) 第四個等級:proximity(u,i )為前 12%-25%,u ∈ Xt+1 第五個等級:proximity(u,i )為前 25%-40%,u ∈ Xt+1 第六個等級:proximity(u,i )為前 40%-80%, u ∈ Xt+1 第七個等級:直接與 i 相鄰的點 u,u ∈ Xt+1 本實驗中,我們將電影類型一共分成五類,代表網絡中類別的種類個數為 5。 GhostEdges [4] 中,以每個等級中屬於各個不同類別的相連點個數當成特徵值。因此對 每個演員 a 而言,一共有 35 個特徵。. 政 治 大. 若以某特徵值為例,在所有與 A 的 proximity 值屬於第一個等級的已知類別節點中,. 立. 總共有多少個節點其類別是 Drama,此節點的個數即為特徵值。以此類推,一共有 7 個. ‧ 國. 學. 等級,5 種類別;. 因此每個演員會有 35 個特徵值。代表第 n 個等級的鄰居中,屬於 m 類型鄰居個數. ‧. sit. n. al. er. io. 4.2 實驗設計. y. Nat. 共有幾人。其中 1≤n≤7 且 m ∈ {Drama, Action, Comedy, Horror, Others}. Ch. 在實驗中我們設計了三種實驗: [實驗一]. engchi. i n U. v. Ensemble Box 與 wvRN 以及 GhostEdgesL 的比較. 第一個實驗,我們設定了兩組分類器來做比較。分別為wvRN [9] 與GhostEdgesL [4]。 針對wvRN以及GhostEdgeL,我們給定XT+1,為時間點T+1時的社會網絡中的已知類 別點集合,當作其訓練資料。XT+1 是以隨機的方式,產生|VT+1|‧K%個已知類別的點, 其中K={10, 20, 30, 40, 50, 60, 70, 80, 90}。 而針對Ensemble Box,其訓練資料為G = <G1, G2,…, GT>,以及XT+1;其中XT+1與 wvRN、GhostEdgeL的訓練資料相同。 31. DOI:10.6814/NCCU201901233.

(42) 由於XT+1 是以隨機的方式產生,因此實驗數據為隨機產生20組XT+1 所得的準確率平 均。 n. wvRN (weighted-voted relational neighbor classifier) [9]。針對某個未知類別的點i,給 定與點i直接相連的點集合N,wvRN利用方程式(2),計算點i屬於每個class c的機率, 最後指定機率值最大的class給點i。本實驗中wSn, nT U皆等於1 P(C| n) =. n. GhostEdgesL. V. W. (2). ∑YZ[ ∈\ ]^_`a^ SZ[Ubc} w(n, nT ). 治 政 GhostEdgeL [4],是一種以logForest當作分類器的分類方法。logForest是與Random Forest 大 立 一樣概念和做法的Ensemble classifier。不同的是,logForest以Logistic Regression取代了 ‧ 國. 學. 原本在Random Forest中的decision trees成為基礎分類器。在GhostEdgeL中,使用的. n. ‧. Logistic Regression個數為500個,參考的特徵為log235+1 ,一共7個特徵值。 Ensemble Box. y. Nat. sit. Ensemble Box為考慮動態網絡演變過程的classifier,其訓練資料為G = <G1, G2,…, GT>加. n. al. er. io. 上XT+1,在這邊所選用的Base Classifier為Random Forest,參考的特徵為log235+1,一共7 個特徵值,且Ensemble Box的大小為3。. Ch. engchi. i n U. v. 32. DOI:10.6814/NCCU201901233.

(43) 0.8 0.7. Accuracy. 0.6 0.5 wvRN. 0.4. GhostEdgesL. 0.3. Ensemble Box. 0.2 0.1 0. 0.2. 0.3. 立 percentage of Labeled Nodes. 學. ‧ 國. 0.1. 政 治 大 0.4 0.5 0.6 0.7 0.8 0.9. 圖 4.1 ConceptClassifier、GhostEdgeL、WVRN、之比較. ‧. 實驗結果如圖 4.1 所示,在已知類別點占整個社會網絡的 10%、20%時,Ensemble Box. y. Nat. sit. 的準確率比起 wvRN 與 GhostEdgeL 都來的好。然而,當已知類別的點所占的比例逐漸. n. al. er. io. 提高時,Ensemble box 的準確率與 wvRN 趨近相同。此實驗結果證明了,針對動態網絡. Ch. i n U. v. 中的類別預測,的確是可以由過去的資料中找出類別的規則,進而在下一個時間階段做 分類的預測。. engchi. [實驗二] 訓練資料多寡對於準確率的影響 實驗二中,我們改變訓練資料的多寡,觀察是否訓練資料的個數與準確率為正相關。原 本的實驗中,訓練資料為G = <G1, G2,…, GT>,1 ≤ t ≤ 12。在本實驗中,我們調整訓練. 資料的年份從原本G = <G1, G2,…, GT>,1 ≤ t ≤ 12,逐漸減少t的數目;我們調整訓練 資料的數量如下:. G = <G1, G2,…, G12> 一共12年 33. DOI:10.6814/NCCU201901233.

(44) G = <G2, G2,…, G12> 一共11年 G = <G3, G2,…, G12> 一共10年、 ‧ ‧ G = <G9, G2,…, G12> 一共四年 藉此比較當訓練資料變少時,對準確率的影響。 圖4.2可以看出來,由於我們所減少的訓練資料數目是從最前代開始,使得越靠近測試年 份GT+1的Concept都有留下來,足以對訓練資料提供正確的分類線索,因此從圖中看出減. 政 治 大. 少前代的Concept,對準確率的影響並不大。. 立. ‧ 國. y. sit. n. al. er. io. Accuracy. ‧. Nat. 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55 0.5 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1. 學. Accuracy. 4. 5. Ch 6. engchi 7. 8. 9. i n U 10. 11. Accuracy. v. 12. Number of Training Year. 圖 4.2 訓練資料數量與準確率關係圖. [實 驗 三 ] 實驗三我們藉由改變 Ensemble Box 中,Classifier 的數量,藉以瞭解 Ensemble Box 的 size 與準確率之間的關係。我們原本的方法中,Ensemble Box 的大小設為 3, 34. DOI:10.6814/NCCU201901233.

(45) 本實驗中,調整 Ensemble Box 的 size 為:1,3,5,7,實驗結果如圖 4.3 所示。 可以看得出來,準確率並不會隨著 Ensemble Box 的大小而增加,也就是說,並非 考慮越多的過去資料,就會使得分類越準確。Ensemble Box 增大的情況下,可能將不具 代表性的分類規則也加入預測的考量中,因此造成準確率些微的下降。Ensemble Box 的 大小,與其挑的多,不如挑的巧。. 立. 政 治 大. Accuracy. al. 5 7 Ensemble Box Size. 9. sit. io. 3. er. Nat. y. ‧. ‧ 國. 0.9 0.85 0.8 0.75 0.7 0.65 0.6 0.55 0.5 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1. 學. Accuracy. Accuracy. n. v i n 圖 4.3C Ensemble 與準確率關係圖 h e n gBox chi U. 35. DOI:10.6814/NCCU201901233.

(46) 第五章 結論與未來研究方向. 5.1 結論 本研究是針對動態的社會網絡作類別的預測;社會網絡裡所有的點之間,無論在網 絡結構分布的全域關聯性,或是實際連結的區域結構關聯性上,都對彼此產生了影響,. 治 政 而這些相互影響便決定了類別。 大 立 本研究提出了動態社會網絡中類別預測的問題。我們不只單單利用當下的社會網絡 ‧ 國. 學. 狀態當作分類的線索,更利用了社會網絡隨著時間增長的演進過程,設法找出位於下一. ‧. 個時間之社會網絡中的點及其正確的類別對應脈絡,並且透過實驗,證明此脈絡是會隨 著時間改變,並且影響位於下一個階段中節點之類別。. n. al. er. io. sit. y. Nat 5.2 未來研究方向. Ch. engchi. i n U. v. 本研究提出了動態網絡中類別預測的問題;在偵測概念飄移的部分,現在是使用 SEA[18],而偵測概念飄移的方式還有許多方法,如何發展一種更適合於動態社會網絡 類別預測的問題的解法,是一個值得探討的方向。另外,本研究討論的是單一類別的問 題,現實中往往很多時候的分類問題都是多重類別的,因此針對多重類別的動態社會網 絡的類別預測,也是一個值得深入之處。除此之外,不同的資料庫會造成不同的概念飄 移,若可以應用在不同性質的資料庫中,針對不同型態的概念飄移找出合適的解法,同 樣為一個需要深思的範疇。. 36. DOI:10.6814/NCCU201901233.

(47) 參考文獻 [1] L. Breiman. “Random Forests,” Machine Learning, Vol. 15, No. 1, pp. 5-12, 2001. [2] D. Brezeale and D. J. Cook. “Automatic Video Classification: A Survey of the Literature,” Systems, Man, and Cybernetics, Part C: Applications and Reviews, IEEE Transactions on, Vol. 38, pp. 416-430, 2008. [3] C. Desrosiers and G. Karypis, “Within-Network Classification Using Local Structure Similarity,” Proc. of the European Conference on Machine Learning (ECML) and the 8th. 治 政 European Conference on Principles and Practice of 大Knowledge Discovery in Databases, 立 pp. 260-275, 2009. ‧ 國. 學. [4] B. Gallagher, H. Tong, T. Eliassi-Rad, and C. Faloutsos, “Using Ghost Edges for. ‧. Classification in Sparsely Labeled Networks,” Proc. of the 14th ACM Special Interest Group on Knowledge Discovery and Data Mining (SIGKDD) at International. y. Nat. io. sit. Conference on Knowledge Discovery and Data Mining, pp. 256-264, 2008.. n. al. er. [5] J. He, J. Carbonell, and Y. Liu, “Graph-Based Semi-Supervised Learning as a Generative. Ch. i n U. v. Model,” Proc. of the International Joint Conference on Artificial Intelligence, pp. 2492-2497, 2007.. engchi. [6] J. He, M. J. Li, H. J. Zhang, H. H. Tong, and C. S. Zhang, “Manifold-Ranking based Image Retrieval,” Proc. of the 12th annual ACM International Conference on Multimedia, pp. 9-16, 2004. [7] J. Z. Kolter and M. A. Maloof. “Dynamic Weighted Majority: A New Ensemble Method for Tracking Concept Drift,” Proc. of the 3rd International IEEE Conference on Data Mining, pp. 123-130, 2003. [8] F. Lin and W. W. Cohen, “Semi-Supervised Classification of Network Data Using Very 37. DOI:10.6814/NCCU201901233.

(48) Few Labels,” Proc. of the 2010 International Conference on Advances in Social Networks Analysis and Mining, pp. 192-199, 2010. [9] S. A. Macskassy and F. Provost. “A Simple Relational Classifier,” Proc. of the Second Workshop on Multi-Relational Data Mining (MRDM-2003) at International Conference on Knowledge Discovery and Data Mining, pp. 64-76, 2003. [10] S. A. Macskassy and F. Provost, “Classification in Networked Data: A Toolkit and a Univariate Case Study,” The Journal of Machine Learning Research, Vol. 8, pp. 935-983, 2007.. 立. 政 治 大. [11] L. McDowell, K. M. Gupta, and D. W. Aha, “Cautious Inference in Collective. ‧ 國. 學. Classification,” Journal of Machine Learning Research, Vol. 10, pp. 596-601, 2007. [12] L. McDowell, K. M. Gupta, and D. W. Aha, “Meta-Prediction for Collective. ‧. Classification,” Proc. 23th International FLAIRS Conference, 2010.. Nat. sit. y. [13] J. Y. Pan, H. J. Yang, C. Faloutsos, and P. Duygulu, “Automatic Multimedia. n. al. er. io. Cross-Modal Correlation Discovery,” Proc. of the 10th ACM Special Interest Group on. i n U. v. Knowledge Discovery and Data Mining (SIGKDD) at International conference on. Ch. engchi. Knowledge discovery and data mining, pp. 653-658, 2004. [14] P. Sen, G. M. Namata, M. Bilgic, L. Getoor, B. Gallagher, and T. Eliassi-Rad, “Collective Classification in Network Data,” AI magazine, vol. 29, No.3, pp. 93-106, 2008. [15] W. Street and Y. Kim, “A Streaming Ensemble Algorithm (SEA) for Large-Scale Classification,” Proc. of the 7th ACM Special Interest Group on Knowledge Discovery and Data Mining (SIGKDD) at International conference on Knowledge discovery and data mining, pp. 377-382, 2001. [16] A. Sultan and A.Hegami, “Classical and Incremental Classification in Data Mining Process,” International Journal of Computer Science and Network Security, Vol. 7, No. 38. DOI:10.6814/NCCU201901233.

(49) 12, pp. 179-187, 2007. [17] P. N. Tan, M. Steinbach, and V. Kumar, Introduction to Data Mining, Addison-Wesley Longman Publishing Co., 2005. [18] H. Tong and C. Faloutsos, “Center-Piece Subgraphs: Problem Definition and Fast Solutions,” Proc. of the 12th ACM Special Interest Group on Knowledge Discovery and Data Mining (SIGKDD) at International Conference on Knowledge Discovery and Data Mining, pp. 404-413, 2006.. 政 治 大. [19] H. Tong, C. Faloutsos, and J. Y. Pan, “Fast Random Walk with Restart and Its. 立. Applications,” Proc. of the 6th International IEEE Conference on Data Mining, pp.. ‧ 國. 學. 613-622, 2006.. [20] G. Tsoumakas and I. Katakis, “Multi-Label Classification: An Overview,” International. ‧. Journal of Data Warehousing and Mining, Vol. 3, No. 3, pp. 1-13, 2007.. Nat. sit. y. [21] A. Tsymbal, M. Pechenizkiy, P. Cunningham, and S. Puuronen, “Dynamic Integration of. n. al. er. io. Classifiers for Handling Concept Drift,” Information Fusion, Vol. 9, pp. 56-68, 2008.. i n U. v. [22] D. Zhou, O. Bousquet, T. N. Lal, J. Weston, and B. Scholkopf, “Learning with Local and. Ch. engchi. Global Consistency,” Advances in Neural Information Processing Systems, Vol. 16, pp. 321-328, 2004. [23] X. Zhu, Z. Ghahramani, and J. Lafferty, “Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions,” Proc. of the 20th International Conference on Machine Learning, pp. 912-919, 2003. [24] X. Zhu. Semi-supervised Learning Literature Survey, University of Wisconsin-Madison Department of Computer Sciences, 2005. [25] I. Zliobaite, “Learning under Concept Drift: an Overview,” Technical Report, Vilnius University, 2010. 39. DOI:10.6814/NCCU201901233.

(50)

參考文獻

相關文件

以 AI 為基礎之系統係針對現有環境進行分析,並透過專家建立之規 則知識或(經機器學習(machine learning)或深度學習(deep

infinite ensemble learning could be better – existing AdaBoost-Stump applications may switch. derived new and

– stump kernel: succeeded in specific applications infinite ensemble learning could be better – existing AdaBoost-Stump applications may switch. not the

our reduction to boosting approaches results in significantly better ensemble ranking

Initial Approaches and Some Settings Sparse Features and Linear Classification Condensed Features and Random Forest Ensemble and Final Results.. Discussion

分別持有同一職類級別之學科及術科測驗及格成績單欲申請發給技術士證者,可親

從思維的基本成分方面對數學思維進行分類, 有數學形象思維; 數學邏輯思維; 數學直覺 思維三大類。 在認識數學規律、 解決數學問題的過程中,

„ 傳統上市場上所採取集群分析方法,多 為「硬分類(Crisp partition)」,本研 究採用模糊集群鋰論來解決傳統的分群