第三章 灰關聯分析法
3.5 建立學習補救路徑
圖 3.8 學生S1答錯率概念圖 C1
C3 C2
C4 C7
C6 C5
C8
C9
C10 0.2
0.261 0.149
0.597 0.25 0.205
0.67 0
0.125
0 C1
C3 C2
C4 C7
C6 C5
C8
C9
C10 0.2
0.261 0.149
0.597 0.25 0.205
0.67 0
0.125
0
學習(learning Ck before Cj),依這樣的尋找方式即可依序得到學習的補救路 徑,其演算法說明步驟如下。
Step1
找出所有根節點的概念。因為我們探討的是一條學習補救路徑,所以 必須先找出第一個要學習的概念,這些根節點的概念可能是集合的形成,
如果有多個根節點概念則擷取概念答錯率較低的概念,因為這代表該概念 是較容易學習的概念。
Step2
加入與根節點概念相連結的子概念來決定下一個要學習的概念為何,
如果有多個子節點概念時則擷取相關性最大的子概念,相關性愈大表示愈 應該與根節點概念一起學習。
Step3
判斷此一子概念是否有預先學習的概念,意即是除了根節點概念外是 否尚有其它概念連結的方向是朝著子概念,如果有預先學習概念的存在則 必須在路徑上加入該概念在子概念之前,換言之當學習完根節點概念後必 須先學習預概念再學習子概念。
Step4
此步驟是刪除非路徑上根節點概念與其它概念的連結或是子概念與其 它概念的連結
Step5
重覆步驟 1~步驟 4 直到所有概念節點都被拜訪過時停止。
學習補救路徑演算法:
令 R (Ci,Cj)為概念Ci影響概念Cj之有向邊,即Ci Æ Cj, 0≦ R (Ci,Cj) ≦1
令 Ck為非學習補救路徑上之概念節點 令 C
R
(C
j,C
i)為至少存在一個概念C∃ i j指向Ci
令 C
R
(C
i,C
k)為存在C∀ i i指向所有Ck的概念
令 α為R (Ci,Cj)之門檻值
Step1
Find !∃C
R
(C
j,C
i) >α
i
//找出所有 root 的 node
Step2
Add
∃
CR ( C
i, C
j) >
αi
//針對Ci新增與其有關的node
Step3
if ∃C
R
(C
k,C
j) >α
k then add Ck before Cj //如果Cj有需先學習的node則先加入路徑中
Step4
Delete ∀C
R
(C
i,C
k) >α
i
//刪除非路徑上與概念Ci連結的其它node
Step5
Repeat step1 ~ step4 until visit all node then stop
我們以 3.3 節的構圖結果依上述演算法來說明得到的學習補救路徑,在 步驟 1 我們先刪除低於概念答錯率門檻值的node並找出root concept,root concept意指沒有預先學習(pre-learning)的概念,以圖 3.8 假設訂定該學生概 念答錯率門檻值為 0.1,則去除概念答錯率為 0 的C8與C10後,可得根概念 C1、C9,
C1
、
C9 C1、
C9步驟 1 所得到有二個root concept,此時我們可以選擇被答錯率較低的概念 進行路徑的開始選擇,因為這代表著比較簡單學習的概念,此例中,由於 概念C9的答錯率為0.125,所以我們選擇它進行步驟 2 的概念篩選,C9指向 概念C3,所以在此步驟我們將概念C3列入該學習補救路徑的第2 個概念,
C9 C3 C9 C3
雖然步驟 2 我們將概念C3列入在概念C9學習之後,但是C3卻與C1產生連結 的關係,也就是說概念C1可能是C3的預先學習概念,故步驟 3 裡,我們在
學習補救路徑中必須先加入概念C1的學習之後再學習概念C3,此外,C3概 念尚有影響概念C5與C6,但學習補救路徑的意義在於將高度相關的概念一 起學習,所以我們將有別於傳統僅利用概念答錯率的尋找方式,改以概念 相關性較高的概念一起進行補救學習,故在此步驟裡將會一起納入學習的 概念將會是連結相關性較高的C5而不是C6(0.911>0.846),
C9 C1 C3 C5
C9 C1 C3 C5
至此我們已經得到在該次測驗中的第一條建議學習補救路徑,在步驟 4 中 我們必須將非此路徑裡的概念連結去除,因為我們最主要的目的是尋找出 適合一起學習的概念,其它不必要的連結即可以去除,故進行至步驟 4 得 到第一條學習補救路徑後,其概念關係圖如圖 3.9 所示,
C
2C
4C
7C
60.858 0.871
0.921
C
80.905
C
2C
4C
7C
60.858 0.871
0.921
C
80.905
圖 3.9 去除第一條學習補救路徑後之概念關係圖
圖 3.9 表示去除第一條學習補救路徑中包含的概念及其相關的連結之後的 概念關係圖,再依步驟 1 重新選擇剩下的root concept,此例中應該由概念 C9開始進行選擇,重覆步驟1~步驟 4 計算後,我們可以得到圖 3.10 為該次
測驗中所有概念的建議學習補救路徑,
C9 C1 C3 C5 C9 C1 C3 C5
C2 C4 C7
、
C6 C2 C4 C7、
C6圖 3.10 建議學習補救路徑
由圖 3.10 可以知道概念C9、C1、C3、C5;C2、C4、C7是必須要一起學習的,
而C6此個概念再個別進行補救學習即可。
得到各概念之資訊量未來更可應用於選題策略上,以此訊息量當成選 題策略的依據更趨於合理性,而把以概念診斷為導向的線上測驗更甚於傳 統能力指標的測驗方式,因為最終得到一個代表學生能力的分數並沒有太 大的意義,應該探討的是讓學生如何去知道自己在學習上的迷思進而加強 自己的學習概念。
接下來,讓我們以條件機率法來做比較,整理如表 3.6,
表3.6 條件機率與灰關聯分析之差異
條件機率 灰關聯分析
建構方法 ‧找出對Ci影響最大的概念
‧找出Ci影響最大的概念
‧去除循環概念以決定有向邊
‧將所有概念錯誤率進行整 體性關聯分析
‧門檻值決定概念關係圖
樣本需求 大 小
概念訊息 ‧只找出最大影響 ‧保留所有影響訊息
不同能力需求
‧只能建構出單一概念圖
‧依班級學生能力不同建構 概念圖
執行次數 [(N-1)+(N-1)]*N (N-1)*N
由表 3.6 可以看出條件機率對於概念關係圖的建構方法只有找出概念影響 的最大有向邊,並去除了循環概念訊息,但以整體性灰關聯分析的方法卻 可以將序列比較的概念訊息加以保留。概念訊息保留的優點在於測驗後繪 製概念關係圖以及選題策略應用上具有相當的意義,達到較多的應用方 式。此外針對樣本數,灰關聯分析能有效運用少樣本的訊息來呈現,而數 理統計則需依賴大樣本數才能較客觀處理。其中最大的差異在於灰關聯分 析保留了所有概念比較訊息,所以能夠依據教師的需求不同以及學生學習 能力的差異建構出適性化的概念關係圖。
統計理論和灰關聯分析雖然可以依答題後的概念錯誤率來建構概念 圖,但單就以這樣來解釋概念圖是不足的,因為概念圖的本質是具有概念 包含的意義,而至目前的研究僅能表示各概念的難易度差距,最大的問題 在於兩概念所得結果的係數並無法真正代表兩概念間是具有包含的關係存 在,而且一開始的主觀概念與測驗題目均是由教師決定,多少尚存在著主
觀因素,所以由上述的文獻介紹我們知道如果要達到完全以客觀的方法建 構概念關係圖此一目的是非常困難的議題,上述的方法如果目的是在建構 一個確切的概念圖將是不客觀的,因為兩個概念的錯誤率相同頂多只能表 示其困難度相同而已,並不能代表其概念關係,但是如果主題在探討學習 補救路徑的話,因為在相同的測驗中,不同概念間關係較為密切,而且對 概念圖的正確性的要求也相對較低,所以我們可以勉強接受其客觀性,而 本研究是以概念構圖為輔助來尋找出學習補救路徑以利進行補救學習,所 以研究中採用的方法尚可在客觀建構概念關係圖的接受範圍內。為了增進 概念圖的合理性我們又提出「概念相關指標法」,此部份將在下一章詳細介 紹。