• 沒有找到結果。

修剪五個末端變數節點

在文檔中 中 華 大 學 (頁 48-54)

第三章 高性能混凝土強度模型建構與修剪

由表 3- 3 及圖 3-2 的結果可知,逐步神經網路刪減變數的順序與準確度 變化的歷程與逐步迴歸分析十分接近,即最後三個被刪除的變數依序仍是

6. 修剪五個末端變數節點

圖 3-10 第二組 GOT 於 28 天齡期強度模型樹狀圖修剪過程(續)

÷

×

281.4 W/B

÷

185.7 5.27 4.26

281.4

÷

×

C W/B

÷

185.7 5.27 4.26

281.4

÷

×

C W/B

÷

185.7 SP 4.26

281.4

表 3-6 第二組 GOT 於 28 天齡期強度模型修剪過程的統計數據

驟 公式 訓練

R2

測試 R2

訓練 RMSE

測試 RMSE

1

W SP W B

B C TA y C

) / / ln(

) 21 ln(

. 84635 94

. 1

×

 

 − −

×

=

0.81 0.85 9.29 10.11

2

W SP W B

C y C

) / 26 ln(

. 4

) 88 ln(

. 84494 28

. 11

×

 

 − −

×

=

0.81 0.85 9.29 10.11

3

y=

14 . 83

84440 . 97

×

( 0 . 755

W

ln(

CSP

) )

×W

/

B

0.81 0.85 9.29 10.11 4

y=

1963 . 75

118962 . 63

×

( 0 . 755

185 ln( . 7

C

)

SP

)

×W

/

B

0.80 0.81 9.40 11.76

5

W B

y C

/ ) 84 ln(

. 618 57 .

1888

+ ×

=

0.79 0.78 9.58 12.51

6

y W B

/ 76 . 95 4135 . 3313

+

=

0.76 0.76 10.22 12.96

步驟 第三組 GOT 模型

1. 未進行修剪之模型

2. 修剪一個末端變數節點

3. 修剪二個末端變數節點

圖 3-11 第三組 GOT 於 28 天齡期強度模型樹狀圖修剪過程

÷

W/B

×

0.683 0.088

÷

W/B

×

W/C 0.088

÷

W/B

×

W/C W/S

表 3-7 第三組 GOT 於 28 天齡期強度模型修剪過程的統計數據

驟 公式 訓練

R2

測試

R2

訓練 RMSE

測試 RMSE

1 W B

S W C y W

/

) / /

06 ln(

. 871 40 .

263

− × ×

= 0.81 0.84 9.10 10.60

2 W B

C y W

/

43 . 2 ) / 86 ln(

. 965 60 .

272

− × −

= 0.81 0.81 9.23 11.47

3 y W B

/ 29 . 95 4134 . 3313

+

= 0.76 0.76 10.22 12.96

3-3 28 天齡期 HPC 強度模型驗證與比較

表 3-8 及表 3-9 與圖 3-12 至圖 3-15 為上述方法的在模型準確度及複雜 度的比較。模型的準確度指的是對於問題的預測能力,亦即 RMSE 越小則 表示準確度越優;模型的複雜度由變數數目或節點數目來表示,數目越大 模型越複雜,其可理解性越低。由表及圖可知:

l 準確度:在節點或變數數目大於五以上,準確度由高而低是逐步神經網 路、GOT、逐步迴歸;但在節點或變數數目小於三以下時,逐步神經網 路、逐步迴歸的準確度開始劇降,而GOT的準確度並沒有發生劇降的情 況,準確度由高而低變成GOT、逐步神經網路、逐步迴歸。

l 複雜度:上述三組GOT產生的運算樹模型所使用的變數為3~6個,其訓 練範例R2平均為0.81及RMSE平均為9.16 MPa。而逐步迴歸需要使用9個 變數、神經網路需要使用4個變數以上方能達到相同的準確度。顯示在相 同的預測準確度下,模型複雜度由低而高是逐步神經網路、GOT、逐步 迴歸。

因此,本文提出的修剪法是一個可以簡化 GOT 產生的 28 天 HPC 強度 公式,但簡化過程不會導致準確度劇降的方法。

表 3-8 三種方法的R2比較

第一組 GOT 第二組 GOT 第三組 GOT 逐步迴歸 逐步神經網路 變數或節點數 訓練

範例

測試 範例

訓練 範例

測試 範例

訓練 範例

測試 範例

訓練 範例

測試 範例

訓練 範例

測試 範例 11 NA NA NA NA NA NA 0.82 0.68 0.85 0.88 10 NA NA NA NA NA NA 0.82 0.69 0.87 0.83 9 NA NA NA NA NA NA 0.82 0.68 0.87 0.87 8 NA NA NA NA NA NA 0.80 0.81 0.87 0.87 7 NA NA NA NA NA NA 0.80 0.81 0.87 0.88 6 NA NA 0.81 0.85 NA NA 0.80 0.81 0.84 0.87 5 NA NA 0.81 0.85 NA NA 0.78 0.81 0.85 0.87 4 0.81 0.82 0.81 0.85 NA NA 0.77 0.76 0.81 0.79 3 0.81 0.81 0.80 0.81 0.81 0.84 0.74 0.77 0.77 0.82 2 0.79 0.77 0.79 0.78 0.81 0.81 0.65 0.73 0.69 0.76 1 0.76 0.76 0.76 0.76 0.76 0.76 0.45 0.47 0.5 0.5

0.4 0.5 0.6 0.7 0.8 0.9 1.0

0 1 2 3 4 5 6 7 8 9 10 11

變數或節點數

R^2

第一組GOT訓練範例 第二組GOT訓練範例

第三組GOT訓練範例 逐步迴歸訓練範例

逐步神經網路訓練範例

圖 3-12 三種方法的訓練範例R2比較折線圖

0.4 0.5 0.6 0.7 0.8 0.9 1.0

0 1 2 3 4 5 6 7 8 9 10 11

變數或節點數

R^2

第一組GOT測試範例 第二組GOT測試範例

第三組GOT測試範例 逐步迴歸測試範例

逐步神經網路測試範例

圖 3-13 三種方法的測試範例R2比較折線圖

表 3-9 三種方法的 RMSE 比較

第一組 GOT 第二組 GOT 第三組 GOT 逐步迴歸 逐步神經網路

變數或節點數

訓練 測試 訓練 測試 訓練 測試 訓練 測試 訓練 測試

11 NA NA NA NA NA NA 9.05 15.45 8.09 8.83

10 NA NA NA NA NA NA 9.06 15.24 7.56 10.71

9 NA NA NA NA NA NA 9.07 15.40 7.56 9.50

8 NA NA NA NA NA NA 9.47 11.60 7.62 9.51

7 NA NA NA NA NA NA 9.49 11.80 7.70 9.01

6 NA NA 9.29 10.11 NA NA 9.51 11.79 7.81 9.16

5 NA NA 9.29 10.11 NA NA 9.79 11.58 8.23 9.32

4 9.10 10.80 9.29 10.11 NA NA 10.22 12.91 9.18 11.75

3 9.27 11.19 9.40 11.76 9.10 10.60 10.75 12.64 10.05 11.15 2 9.74 12.74 9.58 12.51 9.23 11.47 12.47 13.82 11.81 12.76 1 10.22 12.96 10.22 12.96 10.22 12.96 15.57 19.44 15.00 18.30

0 5 10 15 20

0 1 2 3 4 5 6 7 8 9 10 11

變數或節點數

RMSE(MPa)

第一組GOT訓練範例 第二組GOT訓練範例

第三組GOT訓練範例 逐步迴歸訓練範例

逐步神經網路訓練範例

圖 3-14 三種方法的訓練範例 RMSE 比較折線圖

0 5 10 15 20

0 1 2 3 4 5 6 7 8 9 10 11

變數或節點數

RMSE(MPa)

第一組GOT測試範例 第二組GOT測試範例

第三組GOT測試範例 逐步迴歸測試範例

逐步神經網路測試範例

圖 3-15 三種方法的測試範例 RMSE 比較折線圖

在文檔中 中 華 大 學 (頁 48-54)

相關文件