第三章 研究方法
3.4 模糊推論機制(Fuzzy Inference Mechanism)
們從所有語意關係路徑中選出語意關係較強且不重覆的路徑,所以可以得到:
最長的語意關係路徑之長度(MSRPL) 最重的語意關係路徑之權重(MSRPW)
的路徑 2 長度為
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎦
⎤
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎣
⎡
=
0 0 1 1 0 0
0 0 1 1 0 0
1 1 0 1 0 0
1 1 1 0 0 0
0 1 1 1 0 0
2 0 1 0 0 0
' 2
IFG IGF
HIG HIF
GFI GIH GIF
FGI FIH FIG
DIH DIG DIF
CGI,CHI CGF
M
長度為1的路徑
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎦
⎤
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎣
⎡
=
0 1 1 1 0 0
1 0 0 0 0 0
1 0 0 1 0 0
1 0 1 0 0 0
1 0 0 0 0 0
0 1 1 0 0 0
' 1
IH IG IF
HI GI GF
FI FG
DI CH CG
M
的路徑 4 長度為
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎦
⎤
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎣
⎡
=
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
0 1 1 1 0 0
' 4
CGFIH CHIFG CHIGF
M
長度為3的路徑
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎥ ⎥
⎦
⎤
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎢ ⎢
⎣
⎡
=
0 0 0 0
0 0
0 0 1
1 0 0
0 1
0 0
0 0
0 1
0 0
0 0
0 0 1
1 0 0
1 1 1 2
0
0
,' 3
HIFG HIGF
GFIH FGIH DIFG DIGF
CGFI CGIH CHIG CHIF CGIF
M
長度為 2 的語意關係 {C,G,F}, {C,G,I}, {C,H,I}, {D,I,F}, {D,I,G},{D,I,H}, {F,I,G}, {F,I,H}, {F,G,I}, {G,I,F}, {G,I,H}, {G,F,I}, {H,I,F}, {H,I,G}, {I,G,F}, {I,F,G}
長度為 3 的語意關係 {C,G,I,F}, {C,H,I,F}, {C,H,I,G}, {C,G,I,H}, {C,G,F,I}, {D,I,G,F}, {D,I,F,G}, {F,G,I,H}, {G,F,I,H}, {H,I,G,F}, {H,I,F,G}
長度為 4 的語意關係 {C,H,I,G,F}, {C,H,I,F,G}, {C,G,F,I,H}
(MCW)、最大語意關係路徑長度(MSRPL)、最大語意關係路徑權重(MSRPW)三個 模糊變數進行文件類別判定的推論運算。
DocTerm1, DocTerm2, …, DocTerm n.
Layer5 (output similarity layer)
Layer4 (output semantic layer)
Layer3 (rule layer)
Layer2 (input semantic layer)
Layer1 (input document layer)
Chinese term set of Document Weighted Ontology
Y
iCOA
. . . SRS
SRS SRS SRS SRS
MCW MSRPL MSRPW
Term 1, Term 2, …,Term m, Relation matrix of Term 1 …Term m.
圖 3-12 模糊推論機制[31][32][33]
在此平行推論的模糊推論機制中,包含了五個層級:input document layer
、 input semantic layer 、 rule layer 、 output semantic layer 以及 output similarity layer,在 input document layer 中,包函二種輸入集合,一是待分類的新聞文件經
過文件前處理[34]後所得到的詞彙集合,另一是由專家建置之 Domain Ontology 內的所有詞彙與詞彙之間的關係矩陣,將文件透過文件與 Weighted Ontology 的 對應與計算,在 input semantic layer 中可以得到三個模糊變數,分別為對應概念 權 重 (MCW) 、 最 大 語 意 關 係 路 徑 長 度 (MSRPL) 與 最 大 語 意 關 係 路 徑 權 重 (MSRPW)。MCW(Mapped Concept Weight):所有對應的 Concepts 權重值
MSRPL(Maximal Semantic Relation Path Length):最長的語意關係路徑長度 MSRPW(Maximal Semantic Relation Path Weight):最大的語意關係路徑權重值
假設有一篇待分類的氣象新聞(如圖 3-13),透過文件前處理後,我們可以得
到該篇新聞詞彙的集合(如圖 3-14),然後將待分類的新聞詞彙集合與氣象新聞 Ontology 做對應(如圖 3-14),便可得到其對應後的 Concept 與 Concept 之間的關 係(如圖 3-16),之後透過路徑搜尋演算法找到所有存在的語意關係,便可以求得
MCW、MSRPL、MSRPW 三種用來評估文件相似度的模糊變數。因此,圖 3-13
與氣象新聞 Ontology 對應後所得到的 MCW、MSRPL、MSRPW 三種模糊變數分 別為 6、4、2(表 3-2)。圖 3-13 氣象新聞 明日天氣概況:
東部地區多雲陰有雨,中部地區受颱風外圍環流影響,中央氣象局 對中南部發佈豪雨特報,請山區民眾嚴防土石流災害。
圖 3-14 將新聞文件透過文件前處理後得到的詞彙集合 明日(Nd) 天氣(Na) 概況(Na) : 東部(Ncd) 地區(Nc) 多 (Neqa) 雲(Na) 陰(Na) 有(V_2) 雨(Na) ,中部(Ncd) 地區 (Nc) 受(P) 颱風(Na) 外圍(Nc) 環流(Na) 影響(VC) , 中央氣象局(Nc) 對中(VJ) 南部(Ncd) 發佈(VE) 豪雨(Na) 特報(VC) , 請(VF) 山區(Nc) 民眾(Na) 嚴防(VE) 土石流 (Na) 災害(Na) 。
0.5 自然氣侯 氣壓
0.7
0.5 雲 0.8
氣象局
0.7 颱風
1
0.8 0.8
0.2
0.7 0.6 0.3
特報 0.2 0.2
0.9 0.8
災害 0.3
天氣
0.7 0.6
0.6
0.6 氣象新聞
圖 3-15 氣象 Weighted Ontology
圖 3-16 對應後的關係圖
表 3-2 新聞與氣象 Ontology 對應後所得到的對應關係
模糊變數 對應的 Concept 值
MCW 氣象局,災害、天氣、特報、颱風、雲 3
MSRPL 氣象局→特報→颱風→雲→天氣 4
特報 0.2
天氣 0.6 氣象局
0.8
災害 0.3
颱風 0.7
雲 0.4 0.3
0.2 0.6
0.7 0.6
MSRPW 災害→颱風→雲→天氣 1.9
在 rule layer 層級中,我們制定了 27 條推論規則,用來推算 MCW
、 MSRPL 、 MSRPW 三個模糊變數所對應得到之 Matching degree,利用正規化運算得到輸出
的模糊變數 SRS(Semantic Relation Strength) 值,並依據重心法計算得到每一條規 則推導之重心值(Center of Area, COA ),最後再做加權平均計算出每一詞組的語 意關聯強度值。表 3-3 顯示預先定義之 27 條推論規則,圖 3-17 為輸出模糊變數SRS 之模糊集合。
表 3-3 FIA 之推論規則
Fuzzy Variables
Rules
MCW MSRPL MSRPW SRS
1 L L L VL
2 L L M L
3 L L H L
4 L M L L
5 L M M L
6 L M H M
7 L H L L
8 L H M M
9 L H H H
10 M L L L
11 M L M L
12 M L H M
13 M M L L
14 M M M M
15 M M H H
16 M H L M
17 M H M H
18 M H H H
19 H L L L
20 H L M M
21 H L H H
22 H M L M
23 H M M H
24 H M H H
25 H H L H
26 H H M H
27 H H H VH
VL: Very Low L: Low M: Medium H: High VH: Very High
Membership Degree
0 1
SRS_Very Low SRS_Low SRS_Medium SRS_High SRS_Very High
α
2 SRS2 SRS
m
SRS+m
SRS2m
SRS3m
SRS4m
SRS4+β
SRS4m
SRS5m
SRS1圖 3-17 輸出模糊變數 SRS 之模糊集合
接下來,我們分別描述五階層式模糊推論機制各層級的輸入、輸出。
Layer 1 (Input Layer)
第一層的輸入值分別是一篇中文新聞文件詞彙集合和某類別的 Weighted Ontology 內的各個詞彙以及詞彙之間的關係矩陣,中文新聞文件詞彙集合是將中 文新聞透過自然語言前處理後所匯集的詞彙集合
( DocTerm
1, ..., DocTerm
n)
,而某 類 別 Weighted Ontologies 中 詞 彙 與 關 係 為。因此,第一層的輸出向 量如下所示:
( OntoTerm
1, ..., OntoTerm
n,Relation Matrix of OntoTerms )
( )
( )
( )
(
MCW MSRPL MSRPW)
]MSRPW MSRPL m
MCW m m
MSRPW MSRPL 1
MCW 1 1
MSRPW MSRPL n
MCW n n
MSRPW MSRPL 1
MCW 1 1
trix RelationMa ,
trix RelationMa ,
trix RelationMa
DocTerm DocTerm
OntoTerm
OntoTerm ,
OntoTerm ,
OntoTerm
DocTerm ,
DocTerm ,
DocTerm
DocTerm ,
DocTerm ,
DocTerm µ
−
−
−
−
−
−
−
−
−
−
−
−
⎟⎟ ⎠
⎜⎜ ⎞
⎝
⎛
−
−
−
⎢ ⎣
⎡
⎟⎟ ⎠
⎜⎜ ⎞
⎝
= ⎛
) , ,
, (
,..., ,..., ,
1
Layer 2 (Input Linguistic Layer)
第 二 層 接 受 了 來 自 第 一 層 傳 來 的 DocTerms 、 OntoTerms 與 OntoTerms Relation Matrix,首先計算用來評估文件類別的三個模糊變數,分別是對應概念 權重(MCW)、最大語意關係路徑長度(MSRPL)與最大語意關係權重(MSRPW),再 來便進行與最佳模糊規則的推論過程,透過推論我們可以得到這三個語意項 (Linguistic Term)的隸屬程度(Matching Degree),因此,在這一層的輸出向量便如 下所示:
)) u
, u
, (u
), u
, u
, (u
), u
, u
, ((u
µ
_High MSRPW 2 _Medium 1 MSRPW 2 _Low 1 MSRPW 2 1
_High MSRPL 2 1 _Medium MSRPL 2 1 _Low MSRPL 2 1 _Low MCW 2 1 _Medium MCW 2 1 _High MCW 2 1 2
−
−
−
−
−
−
−
−
= −
t MCW
u
12− _ 表示輸出模糊變數 MCW 的語意項的歸屬程度(Membership Degree),表示輸出模糊變數 MSRPL 的第 t 個語意項的歸屬程度, 是輸 入模糊變數 MSRPW 第 t 個語意項的歸屬程度。
t MSRPL
u
12− _u
12−MSRPW_tLayer 3 (Rule Layer)
第三層為規則層,接收來自第二層各個模糊變數的歸屬程度,透過既定好的 規則(如表 3-3),每個節點透過上述既訂的規則,將來自第二層的模糊變數之歸 屬程度透過推論收集後,再做 Fuzzy AND 運算將結果傳至第四層[31],下列為此 層的輸出之 Matching Degree:
)) u
, u
, (u
min ..., ), u
, u
, (min(u
µ
3=
2MCW_Low MSRPL2 _Low MSRPW2 _Low MCW2 _High MSRPL2 _High MSRPW2 _HighLayer 4 (Output Linguistic Layer)
第四層為輸出語意層,這層執行 Fuzzy OR 的運算以整合接收來自第三層的 模糊規則與 Matching Degree,例如:如果有
r
條規則推論到相同的結果,對應到輸出語意項為 Low, 則其對應計算得到的重心值為 , 而文件詞彙集合與 Weighted Ontology 的第四層輸出如下所示:
V
Low∑
∑
=
= = r
1 p
3 p r
1 p
Low 3 p 4
Low
µ V µ µ
p
Layer 5 (Output Layer)
最後,文件與 Weighted Ontology 之語意關聯強度(SRS)值 y 如下所示:
4 VH 4 H 4 M 4 L 4 VL
Y i = µ + µ + µ + µ + µ
當 r 代表規則節點數,c 是輸出模糊變數之語意項數, 而 是第 q 個關連到 p 條推論規則的重心。