• 沒有找到結果。

Sensitivity TP

N/A
N/A
Protected

Academic year: 2021

Share "Sensitivity TP"

Copied!
18
0
0

加載中.... (立即查看全文)

全文

(1)

第五章 系統實驗與分析

本章節主要在於分析所提出之類神經-模糊網路分類器及新的快速圖 形式模糊分類器之效能。目的為能在一資料庫中更有效與簡易建構出一具 有高度類別推論準確率之分類器。其中,不同之分類器具有不同之特性,

類神經-模糊網路分類器能夠獲得具充分語意表示之模糊規則;然於設計簡 便與準確率之比較,本研究所提出之全新的快速圖形式模糊分類器有顯著 之改善。

5.1 資料蒐集

本研究所使用之資料庫是由 UCI Repository of Machine Learning Database 所取得,其中,將以廣為普遍使用之 Wisconsin Breast Cancer 資 料庫對所有演算法進行完整之模擬。該資料庫共存 699 筆樣本,其中由於 16 筆含有遺漏之資訊故予以剔除,因此實際將有 683 筆樣本提供系統進行 實驗,本研究採用隨機取得之 342 筆資料作為訓練樣本,341 筆資料作為 測試樣本,所有樣本均具備 9 個維度,並被分為兩個類別,茲將其特徵屬 性與類別列於表 5-1 中。

(2)

表5-1 Wisconsin Breast Cancer 資料庫 Database Name Wisconsin Breast Cancer

Number of Patterns 683

Features

a. Clump Thickness(細胞團厚度)

b. Uniformity of Cell Size(細胞大小之一致性)

c. Uniformity of Cell Shape(細胞形狀)

d. Marginal Adhesion(邊緣沾黏)

e. Single Epithelial Cell Size(單一表皮細胞大小)

f. Bare Nuclei(細胞核)

g. Bland Chromatin(細胞核質)

h. Normal Nucleoli(正常細胞核)

i. Mitoses(有絲分裂)

Classes a. Benign b. Malign

5.2 實驗目標

本研究之實驗目標為實現以類神經-模糊網路為基礎之分類器,首先 以該分類器具備從大量資訊挖掘模糊規則之能力挖掘出訓練樣本之代表 性模糊規則,再以不同之人工智慧方法,分別針對特徵選取與歸屬函數進 行最佳化,以期可以得到具備最佳歸屬函數與最精要之考量特徵之最佳模 糊規則。同時,再以本研究所提出之快速圖形式模糊分類器對同樣資料庫 進行實現,比較其預測準確率優劣。

5.3 實驗結果

本實驗利用 PHP 4.3.4 程式語言搭配 MySQL 資料庫管理系統進行實 現,實驗結果主要將分成兩個部分作呈現,第一部分為詳細介紹類神經- 模糊網路分類器之模糊規則推演方式與最佳化過程,並分別紀錄其成效。

(3)

分類器建構過程與成效。必須注意的是由於經歷多次不同最佳化過程,故 實驗成效均統一使用全部樣本作為呈現。

實驗結果之成效將由三種常用之計算方式:敏感性(sensitivity)、特 異性 (specificity)、準確率(accuracy rate)來表示,而各成效之計算方式 如式(5-1)、式(5-2)、式(5-3)。其中,TP 表示為正向類別且分類正 確之數量;TN 表示為反向類別且分類正確之數量;FP 表示將反向類別誤 判為正向類別之數量;FN 表示將正向類別誤判為反向類別之數量。

Sensitivity TP

TP FN

(5-1)

Specificity TN

TN FP

(5-2)

TP TN Accuracy

TP FP TN FN

   (5-3)

5.3.1 類神經-模糊網路分類器

類神經-模糊網路分類器進行模糊規則推演之前,由於架構之精神主要 是以類神經網路實現模糊理論,故必須先制定一組歸屬函數,以提供模糊 理論進行模糊規則推演時計算所需之各特徵值歸屬度。因此,首先將 Wisconsin-Breast-Cancer 資料庫中 683 筆可用資訊進行 K-means 演算法,

而初始中心為隨機值,群聚數即為類別數量定義

c  2

,經由 K-means 演 算法執行後所得各群聚中心點如表 5-2 所示,而所建構出之歸屬函數圖形 如圖 5-1 所示。

使用如圖 5-1 之歸屬函數,以類神經-模糊網路分類器經對訓練樣本進 行訓練後,一共可得到 88 條不重複之模糊規則如表 5-3,其中 S 表示語意 變數‘小’即圖中之藍線,L 表示語意變數‘大’即圖中之綠線。所有規 則中對應類別 benign 之規則數為 20 條,對應類別 malign 為 68 條,此採

(4)

用依序選擇激發強度最高之四條作為分類器所得結果如表 5-4。以此四條 模 糊 規 則 對 全 部 樣 本 進 行 測 試 , 其 準 確 率 標 記 為 NFNC(Neuro-Fuzzy Network Classifier)#1 於表 5-5 中。

表5-2 使用 K-means 演算法所得之各群聚中心

CT UCSZ UCSP MA SECS BN BC NN MIT

Center 1 3.149 1.397 1.508 1.388 2.153 1.594 2.209 3.316 1.094 Center 2 7.351 7.148 7.231 5.916 5.444 7.74 6.462 6.518 2.611

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5

1 CT

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5

1 UCSIZE

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5

1 UCSHAP

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MA

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

SECS

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BC

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

NN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MIT

圖5-1 使用 K-means 演算法所建構之歸屬函數圖形

(5)

表5-3 使用類神經-模糊網路分類器挖掘所有模糊規則

If CT UCSZ UCSP MA SECS BN BC NN MIT Then Strength

Rule1 S S S S S S S S S benign 125.784

Rule2 L L L L L L L L L malign 6.275

Rule3 S L L L L L L L S malign 5.407

Rule4 L L L L L L L L S malign 4.442

Rule5 L L L L L S L L L malign 3.438

Rule6 L S S S S S S S S benign 3.173

Rule7 L L L L L L L S S malign 2.941

Rule8 S S S S L S S S S benign 2.278

Rule9 S L L L L L L L L malign 1.798

Rule10 S S S L S S S S S benign 1.634

︰ ︰ ︰

Rule78 L S L L S L L L S malign 0.535

Rule79 S S S L L L L S S benign 0.535

Rule80 S S S S S L S S L benign 0.535

Rule81 S S L S L L S S S malign 0.535

Rule82 S S L L L S L L S malign 0.535

Rule83 S S L S L L S S S malign 0.535

Rule84 L S L S S S S S S benign 0.535

Rule85 S S L L L L S L S malign 0.512

Rule86 L L L S S L S L L malign 0.512

Rule87 L L L L L L S L S malign 0.512

Rule88 L S S L L L L L L benign 0.024

表5-4 使用類神經-模糊網路分類器所得最佳模糊規則

If CT UCSZ UCSP MA SECS BN BC NN MIT Then

Rule 1: S S S S S S S S S benign

Rule 2: L L L L L L L L L malign

Rule 3: S L L L L L L L S malign

Rule 4: L L L L L L L L S malign

由表 5-5 中可知,其準確率表現並不理想,其主要原因為使用規則數 過少情況下,如圖中之歸屬函數圖區間範圍過小,導致於當使用表 5-5 中

(6)

四條規則欲激發全部樣本時,容易發生全部樣本之部分樣本特徵值無法有 效依據指定之語意變數對應至模糊規則中之歸屬函數區間,此將形成此四 條模糊規則之無法辨識樣本,因此測試結果之中,有大量的無法辨認情況 產生。此亦為一般若模糊規則之考量特徵數較多時,單純使用 K-means 演 算法建構歸屬函數之最大缺點。

表5-5 NFNC#1 之性能表現

NFNC#1

Conditions Performance

Number of all patterns 683 Correct/ Incorrect 489/9 Number of classes 2 Unknown patterns 185 Number of fuzzy rules 4 Sensitivity 98.34%*

Number of fuzzy sets 18 Specificity 97.37%*

Learning epochs 0 Accuracy rate 71.60%

NFNC#1:Neuro-Fuzzy Network+K-means Algorithm The symbol * means the condition that some patterns were unrecognizing with the remained rules in the classifier, so that the sensitivity and specificity were referred purely.

由於該資料庫均已進行正規化至 0~10 之間,故本研究直接將修正步 距設定為

 1

,執行 Refined K-means 演算法後,所得各群聚中心如表 5-6,而所建構而出之歸屬函數圖。同樣以四條模糊規則對全部樣本進行測 試,其準確率標記為 NFNC#2 記於表 5-7 中,由表 5-7 之中可明顯看出,

無法辨識之樣本已大量減少。

(7)

因此,使用本研究所提出之 Refined K-means 演算法可以有效解決使 用少量模糊規則時,常發生之大量樣本無法辨認情況。由圖 5-2 可看出,

經由步距修正之後,各歸屬函數範圍已有明顯變大,除了歸屬函數之區間 改變之後可以涵蓋更多樣本之優勢,避免樣本無法有效對應入模糊區間 外,經由步距修正移動後,各群聚中心向外移動,因此原本可以得到高歸 屬度之樣本特徵值範圍,移動至更遠離相對群聚之位置,因此,該移動可 以產生歸屬度值之變化,造成單一樣本特徵值於不同群聚獲得不同歸屬度 之差異變大,藉以更加分離不同群聚特性。以獲得更佳之分類效果。

表5-6 使用 Refined K-means 聚類演算法所得之各群聚中心

CT UCSZ UCSP MA SECS BN BC NN MIT

Center 1 2.149 0.397 0.508 0.388 1.153 0.594 1.209 2.316 0.094 Center 2 8.351 8.148 8.231 6.916 6.444 8.74 7.462 7.518 3.611

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

CT

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

UCSIZE

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

UCSHAP

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MA

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

SECS

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BC

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

NN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MIT

圖5-2 使用 Refined K-means 演算法所建構之歸屬函數圖形

(8)

表5-7 NFNC#2 之性能表現

NFNC#2

Conditions Performance

Number of all patterns 683 Correct/ Incorrect 647/24 Number of classes 2 Unknown patterns 12 Number of fuzzy rules 4 Sensitivity 97.92%*

Number of fuzzy sets 18 Specificity 93.70%*

Learning epochs 0 Accuracy rate 94.73%

NFNC#2:Neuro-Fuzzy Network+Refined K-means Algorithm

為使歸屬函數可以更加有效反應出訓練樣本之歸屬度,使用負梯度修 正演算法對圖 5-2 中之歸屬函數圖形進行參數修正後獲得如圖 5-3 之歸屬 函數圖形,同時,為表現出其優化後之結果,將規則數減至兩條如表 5-8。

其準確率標記為 NFNC#4 記於表 5-9 中,由表 5-9 之中可看出,經由對歸 屬函數圖形最佳化後,儘管規則數減少,然無法辨認之樣本已完全克服,

且準確率卻有顯著提升。

表5-8 使用兩條模糊規則

If CT UCSZ UCSP MA SECS BN BC NN MIT Then

Rule 1: S S S S S S S S S benign

Rule 2: L L L L L L L L L malign

(9)

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

CT

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

UCSIZE

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

UCSHAP

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MA

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

SECS

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

BC

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

NN

0 1 2 3 4 5 6 7 8 9 10 11 0

0.5 1

MIT

圖5-3 進行梯度修正後之歸屬函數圖形

表5-9 NFNC#4 之性能表現

NFNC#4

Conditions Performance

Number of all patterns 683 Correct/ Incorrect 658/25 Number of classes 2 Unknown patterns 0 Number of fuzzy rules 2 Sensitivity 98.38%

Number of fuzzy sets 18 Specificity 92.80%

Learning epochs 22 Accuracy rate 96.34%

NFNC#4:Gradient-based learning + Neuro-Fuzzy Network +

Refined K-means Algorithm

(10)

然過多的考量特徵將使得分類器於實際應用時產生不方便使用之困 難,故此依照灰色關聯度分析能對各考量特徵與結果之關係進行數值量化 之能力,對各特徵進行關聯度分析。令分類結果為

x

0,各項特徵為

x

i,則 可得各特徵與分類結果之關聯度如表 5-10,本研究利用此不同之關聯度進 行特徵選取,依經驗法則定義最小容忍關聯度為 0.7257,故剔除

x

3

x

4

x

5

x

7

x

8

x

9等六項特徵後,取出具有最高關聯度分析之前三項特徵,

因此所獲得精簡後的模糊規則如表 5-11。其準確率標記為 NFNC#8 記於表 5-12 中,由此可知,儘管使用特徵數已大量簡化,然由於已挑出與分類有 高度關聯性之特徵,故以此最關鍵性之特徵,且經過歸屬函數最佳化,仍 擁有不錯的準確率。

表5-10 各特徵與分類結果之灰色關聯度

Grey relational grades of nine considered features

with class

  x

0

, x

1

r 0.7275 r   x

0

, x

6

0.7257

  x

0

, x

2

r 0.7324 r   x

0

, x

7

0.7076

  x

0

, x

3

r 0.7072 r   x

0

, x

8

0.6666

  x

0

, x

4

r 0.7254 r   x

0

, x

9

0.7248

  x

0

, x

5

r 0.7121

表5-11 使用灰色關聯進行特徵選取後之模糊規則

If CT UCSZ BN Then

Rule 1: S S S benign

Rule 2: L L L malign

(11)

表5-12 NFNC#8 之性能表現

NFNC#8

Conditions Performance

Number of all patterns 683 Correct/ Incorrect 656/27 Number of classes 2 Unknown patterns 0 Number of fuzzy rules 2 Sensitivity 95.62%

Number of fuzzy sets 6 Specificity 96.90%

Learning epochs 3 Accuracy rate 96.04%

NFNC#8:Gradient-based learning + Neuro-Fuzzy Network + Refined K-means Algorithm + Grey-relational analysis

然針對灰色關聯度分析之特性分析,並非所有推論類別均適合相同考 量特徵,因此,使用本研究所提出之特徵消除演算法,能依據不同推論情 形挑選適合之考量特徵。茲將如表 5-8 中之兩條模糊規則分別訓練,各訓 練週期所使用的特徵搭配方式如表 5-13。所有不同訓練週期將使用不同特 徵搭配方式,將 x 軸設定為針對不同特徵搭配之訓練週期,y 軸為該特徵 搭配之效能,則如圖 5-4 及圖 5-5 可選用不同特徵確實將含有不同效能。

將各規則擁有最高效能表現之前六種特徵搭配方式列於表 5-14 中。值得注 意的是,規則二之權重合表現產生負值,原因為樣本數據普遍偏低,使用 式(3-23)容易產生負值。於規則一之中,雖然

x

6擁有最高效能表現,但 事實上

x

8於訓練週期 41、8 也有極佳的表現,為防遺漏過多有用資訊,故

x

8也於予保留;而規則二中;

x

1權重合與其他特徵表現相差懸殊,故僅保

x

1。則所得之訓練結果如表 5-15。因此所獲得之模糊規則所測得的準確 率標記為 NFC#10 記於表 5-16 中,由表 5-16 可知,使用本研究所提出之

(12)

特徵消除演算法,確實能夠有能力針對不同推論類別,挖掘出適合的特 徵,且能維持相當優異之準確率。

本研究同時利用各種不同最佳化方法對資料庫進行準確率測試,其結 果整理如表 5-17。

表5-13 不同訓練週期之特徵搭配方式

Periods Features collections 1~9 x

1

~ x

9

10 x

1

x

2

11 x

1

x

3

12 x

1

x

4

 

509 x

1

x

3

x

4

x

5

x

6

x

7

x

8

x

9

510 x

2

x

3

x

4

x

5

x

6

x

7

x

8

x

9

511 x

1

x

2

x

3

x

4

x

5

x

6

x

7

x

8

x

9

表5-14 各模糊規則表現最好之特徵搭配方式前六名

The highest the first six performances

rule 1 rule 2

cycle Features combination performance cycle Features combination performance

6 x

6

181.30 1 x

1

14.54

41 x 、

6

x

8

178.00 15 x 、

1

x

7

-4.34

8 x

8

174.70 7 x

7

-23.23

115 x 、

4

x 、

6

x

8

174.16 65 x 、

1

x 、

5

x

7

-30.43

32 x 、

4

x 、

6

173.89 13 x 、

1

x

5

-34.04

34 x 、

4

x

8

170.59 72 x 、

1

x 、

7

x

9

-34.91

(13)

0 100 200 300 400 500 600 120

130 140 150 160 170 180 190

Training Procedure of Rule 2

Performance

圖5-4 模糊規則一之不同特徵搭配之效能

0 100 200 300 400 500 600

-140 -120 -100 -80 -60 -40 -20 0 20

Training Procedure of Rule 2

Performance

圖5-5 模糊規則二之不同特徵搭配之效能

表5-15 使用特徵消除演算法進行特徵選取後之模糊規則

If CT BN NN Then

Rule 1: S S benign

Rule 2: L malign

(14)

表5-16 NFNC#10 之性能表現

NFNC#10

Conditions Performance

Number of all patterns 683 Correct/ Incorrect 658/25 Number of classes 2 Unknown patterns 0 Number of fuzzy rules 2 Sensitivity 97.70%

Number of fuzzy sets 3 Specificity 94.93%

Learning epochs - Accuracy rate 96.34%

NFNC#10: Neuro-Fuzzy Network + Refined K-means Algorithm + Feature reduction algorithm

表5-17 不同架構之性能表現

NFNC # 1

NFNC # 2

NFNC # 3

NFNC # 4

NFNC # 5

NFNC # 6

NFNC # 7

NFNC # 8

NFNC # 9

NFNC # 10

no. of patterns 683 683 683 683 683 683 683 683 683 683

no. of rules 4 4 2 2 2 2 2 2 2 2

no. of fuzzy sets 18 18 18 18 6 6 6 6 3 3

Learning epochs - - 63 22 - - 6 3 - -

Corrects 489 647 657 658 629 560 657 656 640 658

Incorrect s 9 24 26 25 24 118 26 27 24 25

Unrecognizing 185 12 0 0 30 5 0 0 17 0

Sensitivity - - 97.72% 98.38% - - 95.83% 95.62% - 97.70%

Specificity - - 93.47% 92.80% - - 96.92% 96.90% - 94.93%

Accuracy rate 71.60% 94.73% 96.19% 96.34% 92.09% 95.17% 96.19% 96.04% 93.70% 96.34%

NFNC #1 : K-means Algorithm + Neruro-Fuzzy Network

NFNC #2 : Refined K-means Algorithm + Neruro-Fuzzy Network

NFNC #3 : Gradient Modifying + K-means Algorithm + Neruro-Fuzzy Network

NFNC #4 : Gradient Modifying + Refined K-means Algorithm + Neruro-Fuzzy Network NFNC #5 : Grey Relational Analysis+ K-means Algorithm + Neruro-Fuzzy Network

NFNC #6 : Grey Relational Analysis+ Refined K-means Algorithm + Neruro-Fuzzy Network

NFNC #7 : Grey Relational Analysis+ Gradient Modifying+ K-means Algorithm + Neruro-Fuzzy Network

(15)

5.3.2 快速圖形式模糊分類器

由上述章節可知,使用類神經-模糊網路雖然可以獲得不錯的語意表示 優勢,但在歸屬函數的制定、最佳化及特徵選取均需要複雜的優化過程。

因此,本研究提出一個快速圖形式模糊分類器,以一個簡單的歸屬函數轉 換構想,對分類器架構以及推演方式進行簡化。

首先,必須針對訓練樣本中的各類別各數進行分析,以提供各類別推 演模糊區間,該訓練樣本中的各類別數量如表 5-18。同樣再次執行 K-means 演算法,獲得各群聚中心如表 5-19。

表5-18 WBC 資料庫中訓練樣本各類別個數

Training data set

Number of class 1 211 Number of class 2 131

Total number 342

表5-19 使用 K-means 聚類演算法所得之各群聚中心

CT UCSZ UCSP MA SECS BN BC NN MIT

Center 1 3.096 1.362 1.454 1.366 2.122 1.445 2.144 1.279 1.096 Center 2 7.274 6.964 7.088 5.761 5.362 7.769 6.407 6.362 2.539

找出各群聚中心之後,定義

=0.8,過濾 20%最無法代表群聚特性之 樣本;定義

=1,使模糊區間範圍更加客觀。所找出各特徵之模糊區間範 圍如表 5-20。以表所示之區間範圍可繪圖如圖 5-6 與圖 5-7。且各模糊區 間內外數量以及權重分別計算於表 5-21 與表 5-22。

(16)

表5-20 各特徵之模糊區間範圍

CT UCSZ UCSP MA SECS BN BC NN MIT

Max. 6 4 4 5 4 5 4 4 3

Mid. 3 2 2 2.5 2 2.5 2 2 1.5

Class 1

Min. 0 0 0 0 0 0 0 0 0

Max. 11 11 11 11 11 11 11 11 9

Mid. 5.5 5.5 6 5.5 6 5.5 5.5 5.5 4.5

Class 2

Min. 0 0 1 0 1 0 0 0 0

圖5-6 類別 1 之模糊區間分佈

表5-21 類別 1 模糊區間內外數量以及權重

Class1 Inside(A) ratio Outside(B) ratio Weight A*(1-B)

CT 209 0.9905 2 0.0095 0.9811

UCSZ 210 0.9953 1 0.0047 0.9905

UCSP 209 0.9905 2 0.0095 0.9811

MA 208 0.9858 3 0.0142 0.9718

SECS 207 0.9810 4 0.0190 0.9624

BN 209 0.9905 2 0.0095 0.9811

(17)

圖5-7 類別 2 之模糊區間分佈

表5-22 類別 2 模糊區間內外數量以及權重

Class2 Inside(A) ratio Outside(B) ratio Weight A*(1-B)

CT 131 1 0 0 1

UCSZ 131 1 0 0 1

UCSP 131 1 0 0 1

MA 131 1 0 0 1

SECS 131 1 0 0 1

BN 131 1 0 0 1

BC 131 1 0 0 1

NN 131 1 0 0 1

MIT 126 0.9618 5 0.0382 0.9251

表5-23 各特徵之最終權重

CT UCSZ UCSP MA SECS BN BC NN MIT

Refined

Weight 0.9906 0.9953 0.9906 0.9859 0.9812 0.9906 0.9766 0.9766 0.9484

至此,已順利利用各特徵之樣本分佈特性找出各特徵不同之權重,最 後將各樣本進行測試,可得準確率如表 5-24 所示。由準確率表現可知:經

(18)

由一簡單數學運算所得之分類器,同樣可以獲得優異的分類結果。證明本 研究所提出之此分類器對於分類確實有一定之功效。而本研究所提出之分 類器與其他分類器之比較如表 5-25。

表5-24 快速圖形式模糊分類器之準確率表現

Training data set Testing data set Whole data set

Correct patterns 335 332 667

Incorrect patterns 7 9 16

Accuracy Rate 97.95% 97.36% 97.66%

表5-25 與其他論文之準確率比較

no. of

rules

no. of fuzzy sets

accuracy rate

Ref. [17] 3 4 96.50 %

Ref. [27] 2 10 95.06 %

Ref. [28] 4 >4 97.40 %

Ref. [29] 2 18 96.30 %

NFC#10 2 3 96.34 %

FGFC

- - 97.66 %

參考文獻

相關文件

In addition, we successfully used unit resistors to construct the ratio of consecutive items of Fibonacci sequence, Pell sequence, and Catalan number.4. Minimum number

Step 3 Determine the number of bonding groups and the number of lone pairs around the central atom.. These should sum to your result from

A) the approximate atomic number of each kind of atom in a molecule B) the approximate number of protons in a molecule. C) the actual number of chemical bonds in a molecule D)

 Definition 5.4.4 cardinal number partial order... Equivalent Sets and Cardinal

Joint “ “AMiBA AMiBA + Subaru + Subaru ” ” data, probing the gas/DM distribution data, probing the gas/DM distribution out to ~80% of the cluster. out to ~80% of the cluster

Diagonal elements in bosonic environments protected by (fermion) parity so that the qubit state decohere completely but does not thermalize for sub-Ohmic environment.. This is not

In an Ising spin glass with a large number of spins the number of lowest-energy configurations (ground states) grows exponentially with increasing number of spins.. It is in

(A) South Korea sends the second largest number of students to America.. (B) India has the largest number of international students in