• 沒有找到結果。

最小平方法與迴歸分析

N/A
N/A
Protected

Academic year: 2022

Share "最小平方法與迴歸分析"

Copied!
13
0
0

加載中.... (立即查看全文)

全文

(1)

最小平方法與迴歸分析

蔡聰明

19 世紀的統計學, 主題是最小平方法以及迴歸分析 (Least Square Method and Regres- sion Analysis), 即要找一條直線或曲線來適配 (fit) 一組觀測數據。 根據統計學史家 Stigler, S. M. [1] 的說法, 最小平方法與微積分形成了類推的對比:

最小平方法、 統計學 ... 微積分

觀測數據的演算 函數的演算

觀測數據的組合 數的組合

最小平方法在 1805 年由 Legendre (1752∼1833) 發其端, 接著高斯對測量數據發展出 誤差論 (theory of errors), 由天文的觀測數據探尋星球運行的軌道。 到了 19 世紀後半, 高爾 頓 (Galton) 把它應用到生物的遺傳現象, 發展出迴歸分析, 大大地深化了統計學。

所謂迴歸問題就是探討: 以最小平方法求得迴歸係數, 迴歸直線, 以及相關係數, 使得我們 對兩統計變量的關係有相當清晰的理解。

二次多項函數求極值有微分法與配方法。 我們採用初等的配方法, 順便求出極值, 得到迴 歸直線, 並且也自然地看出柯西−施瓦茲不等式與相關係數, 顯示配方法是豐收的。

高中數學教科書對於相關係數的定義與性質多半是語焉不詳, 本文可以補其不足, 適合於 未學過微積分的高中生研讀。

一、 迴歸問題

對於母群體(population) Ω, 我們同時觀測兩個統計變量:

X, Y : Ω → R

例如某班同學的身高 X 與體重 Y , 數學成績 X 與物理成績 Y 。 觀測 Ω 的 n 個樣本點, 得到

(2)

如下的統計數據:

X x1 x2 x3 · · · xn

Y y1 y2 y3 · · · yn

我們要來處理這些統計數據, 對它們做分析, 找函數關係, 最後做出各種結論。

把統計數據 {(xk, yk) : k = 1, 2, . . . , n} 在坐標平面上描點出來, 見圖 1, 叫做散布圖 (scatter diagram), 這讓我們粗略看出兩個統計變量的變化大勢, 例如 x 變大時, y 也差不多 變大。

圖 1

要找 y 與 x 的函數關係, 本文我們只選用最簡單的一次函數 y = ax + b (直線) 來對這 一堆數據 {(xk, yk) | k = 1, 2, . . . , n} 作最佳適配 (best fit) 的工作。

「最佳」 的意味就是讓 「偏差」 的總和為最小。 最自然的偏差是考慮為點線距, 但這不好處 理; 若改為垂縱坐標差之和 Pn

k=1

[yk−(axk+b)], 則會內力抵消, 也不好; 改為

n

P

k=1|yk−(axk+b)|

仍然不好, 因為絕對值不方便處理。 最後改為相差的平方和 Pn

k=1

[yk− (axk+ b)]2, 這在數學上 最方便處理, 也不失其意義。

於是就有直線迴歸問題:

問題1: (Y 對 X 的迴歸直線 y = ax + b) 求 a 與 b 使得縱軸方向的總平方差的平均 f (a, b) = 1

n

n

X

k=1

[yk− (axk+ b)]2 (1) 取最小值。 見圖 2。

(3)

圖 2

問題2: (X 對 Y 的迴歸直線 x = cy + d) 求 c 與 d 使得橫軸方向的總平方差的平均 g(c, d) = 1

n

n

X

k=1

[xk− (cyk+ d)]2 (2) 取最小值。 見圖 3。

圖 3

注意: f (a, b) 與 g(c, d) 皆大於等於 0, 並且兩者都等於 0 ⇔ 數據全落在一直線上。 這個觀察 對於以後要介紹的相關係數有重要意義。

二、 配方法求極值

首先注意到, 配方法的優點是初等, 並且一舉求出極值點與極值, 而又能分辨出是最大值

(4)

或最小值。

為了對 f (a, b) 施展配方法求最小值, 我們一概採用統計的標準記號, 這很方便於計算與 理解:

算術平均 (arithmetic mean): ¯x = 1 n

n

P

k=1

xk, ¯y = 1 n

n

P

k=1

yk

變異數 (variance): σ2x = 1 n

n

P

k=1

(xk− ¯x)2, σy2 = 1 n

n

P

k=1

(yk− ¯y)2 標準差 (standard deviation): σx =pσx2, σy =pσ2y (開平方) 共變異數 (covariance): σxy = 1

n

n

P

k=1

[(xk− ¯x)(yk− ¯y)].

注意, 變異數與共變異數具有密切關係: σxx = σx2 且 σyy = σy2。 因此 σx2 與 σy2 是 σxy 的單 元化, 而 σxy 是 σx2 與 σ2y 的兩元化。

例1: 用配方法求兩變數多項函數 f (x, y) = x2− xy + y2− 2x + y − 3 的極值。

f (x, y) = x2− xy + y2− 2x + y − 3

= x2− 2xy 2+ 1

+y 2 + 12

−y 2+ 12

+ y2+ y − 3

= x − y

2 − 12 +3

4y2− 4

因此 y = 0, x = 1 是最小點, 而最小值為 −4。 

頭腦的體操: 假設 a 6= 0 且 b2− 4ac 6= 0。 對一般兩變數二次式 p(x, y) = ax2+ bxy + cy2+ dx + ey + f 作配方, 以求極值點與極值。

回到直線迴歸問題。 因為 y = ax + b 是數據 {(xk, yk) | k = 1, 2, . . . , n} 的最佳適配直 線, 所以應該會通過形心 (¯x, ¯y), 因此我們將式子 yk− axk− b 改為用記號 ¯x 與 ¯y 來表達

yk− axk− b = (yk− ¯y) − a(xk− ¯x) + (¯y − a¯x − b) 接著將 1

n

n

P

k=1

(yk− axk− b)2作展開並且用變異數與共變異數來改寫

f (a, b) = 1 n

n

X

k=1

(yk− axk− b)2 = 1 n

n

X

k=1

[(yk− ¯y) − a(xk− ¯x) + (¯y − a¯x − b)]2

(5)

= 1 n

n

X

k=1

(yk− ¯y)2+ a21 n

n

X

k=1

(xk− ¯x)2+ (¯y−a¯x−b)2−2a1 n

n

X

k=1

(xk− ¯x)(yk− ¯y)

= σy2+ a2σx2+ (¯y − a¯x − b)2− 2aσxy (3) 注意到, 展開式中還有兩個交叉項, 但皆為 0。 將 a2σx2 − 2aσxy 對 a 作配方

a2σx2− 2aσxy = σx2h

a2− 2aσxy

σ2x +σxy

σx2

2i

−σxy2

σ2x = σx2

a2− σxy

σx2

2

− σxy2 σx2 代回到 (3) 式

f (a, b) = σx2

a −σxy

σ2x

2

−σxy2

σ2x + σy2+ (¯y − a¯x − b)2

= σ2x

a − σxy

σ2x

2

+ σy2

1 − σ2xy σx2σy2

+ (¯y − a¯x − b)2 (4)

至此配方完成。 我們可以合理地假設 σx2 > 0 且 σy2 > 0, 因為若 σx2 = 0 且 σy2 = 0, 則所有數 據崩塌為一點 , 變成無聊。

我們觀察到, 第一項與第三項皆為非負數, 第二項為常數, 而第三項含有兩個未知數 a 與 b。 我們先選取 a = σxy

σx2 , 讓 (4) 式的第一項變成 0; 以此 a 代入第三項, 使得第三項只含有一 個未知數 b, 再取 b = ¯y − a¯x, 讓第三項也變成 0。 那麼由 (4) 式我們直接就可以讀出下面的 諸多結果:

定理1:

(i) 當 a = σxy

σ2x 且 b = ¯y − a¯x 時, f(a, b) 有最小值 min(f) = σ2y



1 − σxy2 σ2xσ2y

 .

(ii) 0 ≤ σxy2 σx2σy2 ≤ 1.

(iii) 0 ≤ min(f) ≤ σy2.

(iv) y 對 x 的迴歸直線 y = ax + b 通過形心 (¯x, ¯y), 其方程式為 y − ¯y = σxy

σ2x (x − ¯x). (5) 同理, x 對 y 的迴歸直線 x = cy + d 也通過形心 (¯x, ¯y), 並且方程式為

x − ¯x = σxy

σy2 (y − ¯y). (6)

(6)

頭腦的體操: 給統計數據:

X 1 3 4 6 8 9 11 14 Y 1 2 4 4 5 7 8 9 (i) 求 Y 對 X 的迴歸直線。 (ii) 當 x = 10 時, 估算 y 的值。

答: y = 65

120x + 1, y = 65

120 × 10 + 1 = 65

12+ 1 ; 6.42。

三、 柯西 −施瓦茲不等式

因為對任何 a 與 b, f (a, b) ≥ 0, 由 f 的連續性知 f(a, b) 的最小值亦為非負數, 於是就 有下列一連串的等價式, 包括柯西−施瓦茲不等式與相關係數的性質:

min(f ) = σ2y

1 − σxy2 σ2xσy2

≥ 0

⇔ 1 − σxy2

σx2σy2 ≥ 0 或 σxy2 ≤ σx2σy2 (柯西−施瓦茲不等式)

⇔ σxy2 σx2σy2 ≤ 1

σxy

σxσy

≤ 1 (相關係數的性質) 其次我們探討在上面不等式中等號成立的意涵。

σ2y

1 − σxy2 σx2σy2

= 0

⇔ f(a, b) = 1 n

n

X

k=1

(yk− axk− b)2 的最小值為 0

⇔ 數據 {(xk, yk) : k = 1, 2, . . . , n} 完全落在迴歸直線 y = ax + b 上

⇔ 向量 (x1, x2, . . . , xn) 與 (y1, y2, . . . , yn) 為線性相依。

將 σxy2 ≤ σx2σy2 代回原來的數據立得通常的柯西−施瓦茲不等式:

" n X

k=1

(xk− ¯x)(yk− ¯y)

#2

n

X

k=1

(xk− ¯x)2

n

X

k=1

(yk− ¯y)2

(7)

定理2: (柯西−施瓦茲不等式)

假設 uk 與 vk, k = 1, 2, . . . , n, 為任意實數, 則有

" n X

k=1

ukvk

#2

n

X

k=1

u2k

n

X

k=1

vk2 (7)

並且等號成立的充要條件為向量 ~u = (u1, u2, . . . , uk) 與 ~v = (v1, v2, . . . , vk) 線性相依, 亦 即 ~u 與 ~v 有一個可表為另一個的常數倍。

柯西−施瓦茲不等式有十多種證法, 此地我們透過最小平方法與兩變數的配方法又得到另 一種簡潔的證法。

每個不等式的背後都有個等式, 反之亦然。 同理, 每一個定理:“若 p 則 q” 的背後都有個 逆敘述:“若 q 則 p”, 但不一定成立。 如果也成立的話, 就成為“p ⇔ q”, 即 p 與 q 等價或互為 充要條件。

在這裡值得特別注意, 有人說柯西−施瓦茲不等式只是內積的簡單推論。 理由是, 按內積 的定義 ~u · ~v = k~uk · k~vk cos θ, 其中 θ 為兩向量的夾角。 因為 | cos θ| ≤ 1, 所以

|~u · ~v| ≤ k~uk · k~vk 這就證得了柯西−施瓦茲不等式。 事實上, 這只說對了一部分。

在兩維空間 R2 與三維向量空間 R3 的情形沒問題, 因為此時有自然的幾何角度概念。 但 是, 當維數 n ≥ 4 時, 空間 Rn 沒有天然的角度概念, 論述就要小心。

假設 ~u = (u1, u2, . . . , uk) 與 ~v = (v1, v2, . . . , vk) 為 Rn 中的兩個向量。 首先, 定義內 積為

~u · ~v = x1y1+ x2y2+ · · · + xnyn

並且定義向量的長度為

k~uk = q

x21+ x22 + · · · x2n

接著必須先證明柯西−施瓦茲不等式:

|~u · ~v| ≤ k~uk · k~vk 再來才定義兩向量 ~u 與 ~v 的夾角 θ 為:

cos θ = ~u · ~v k~uk · k~vk

(8)

那麼由柯西−施瓦茲不等式知道, 這是適定的 (well-defined)。 從而才有兩向量夾角的概念。 由 此才得到內積的另一種定義:

~u · ~v = k~uk · k~vk cos θ.

對於 n ≥ 4 維的空間, 如果我們直接由內積定義與 | cos θ| ≤ 1 就下結論說柯西−施瓦 茲不等式 |~u · ~v| ≤ k~uk · k~vk 成立。 這樣的論述是有問題的, 犯了循環論證的邏輯毛病。

四、 相關係數

如何用一個數 (當作一根定量的尺度) 來衡量散佈圖上的數據成一直線的趨勢之強弱? 我 們先觀察下列七種散佈圖, 直觀感受一下數據落在一直線上趨勢強弱的意思。

(a) 完全線性正相關 (b) 強的正相關 (c) 弱的正相關

(d) 完全線性負相關 (e) 強的負相關 (f) 弱的負相關

(g) 完全不相關 圖 4: (a)−(g)

(9)

上述散佈圖 (g) 像一盤散沙, 這是成直線趨勢最弱的情形, 叫做完全不相關。 當迴歸直線 的斜率為正時叫做正相關 (x 越大 y 也越大), 如上圖 (a) 至 (c); 當迴歸直線的斜率為負時叫 做負相關 (x 越大 y 越小), 如上圖 (d) 至 (f)。

這一根定量的尺度遠在天邊, 近在咫尺! 定理 1 中的 σ2xy

σx2σy2 與其平方根 σxy

σxσy

(不加絕對 值), 恰好就是我們所要的尺度。 令 r = σxy

σxσy

, 則 r2 = σxy2 σx2σy2。 定理3: r 具有下列的性質:

(i) |r| ≤ 1 或 −1 ≤ r ≤ +1。

(ii) 當 r2 = 1, 即 r = ±1時, 所有的數據 {(xk, yk) : k = 1, . . . , n} 完全落在迴歸直線上 (兩條迴歸直線重合)。

當 r = +1 時, 迴歸直線的斜率皆為正: a = σxy

σx2 > 0, c = σxy

σy2 > 0。

當 r = −1 時, 迴歸直線的斜率皆為負: a = σxy

σx2 < 0, c = σxy

σy2 < 0。

(iii) 當 r 越在 0 附近時, 數據分散的程度越大, 數據成直線的趨勢越弱。

(iv) 當 r 越在 ±1 附近時, 數據越集中在迴歸直線附近, 數據成直線的趨勢越強。

證明:

(i) 因為 f (a, b) 有最小值為 σy2

1 − σxy2 σx2σ2y

= σy2(1 − r2) 並且 f (a, b) ≥ 0, 所以

σ2y(1 − r2) ≥ 0 從而

r2 ≤ 1 或 |r| ≤ 1.

(ii) 當 r2 = 1 時, f (a, b) = 1 n

n

P

k=1

(yk− axk − b)2 的最小值為 0, 發生在 a = σxy

σx2 與 b = ¯y − a¯x 這一點上, 此時所有的數據 {(xk, yk) : k = 1, . . . , n} 都落在迴歸直線 y = ax + b 上。

當 r = +1 時, 因為 σx > 0 且 σy > 0, 所以 σxy > 0 。 從而迴歸直線的斜率 a = σxy

σx2 > 0。 當 r = −1 時, σxy < 0。 從而迴歸直線的斜率 a = σxy

σx2 < 0 。

(iii) 當 r 在 0 附近時, 表示 f (a, b) 的最小值 σy2(1 − r2) 越大, 因此數據 {(xk, yk) : k = 1, . . . , n} 分散的程度越大。

(iv) 當 r 越在 ±1 附近時, 表示 f(a, b) 的最小值 σ2y(1 − r2) 越小, 數據 {(xk, yk) : k =

(10)

1, . . . , n} 越集中在迴歸直線上。

總之, r 這個數具有這麼多優良的性質, 簡直是天造地設, 恰好可以用來衡量數據 {(xk, yk) : k = 1, . . . , n} 在散布圖上成為一直線趨勢的強弱指標。 因此, 我們自然就要結晶為如下的定 義。

甲、 相關係數的定義

定義: 我們稱 r = σxy

σxσy

稱為 X 與 Y 的 (線性) 相關係數。

將相關係數用原始數據來表示得到

r = σxy

σxσy

=

n

P

k=1

(xk− ¯x)(yk− ¯y) s n

P

k=1

(xk− ¯x)2 s n

P

k=1

(yk− ¯y)2

(自動兼顧了正負號) (8)

這是在 1897 年英國統計學家皮爾森 (Karl Pearson, 1857∼1936) 引進的乘積級矩公式 (Product-moment formula)。 皮爾森是高爾頓的學生, 是近代統計學的創立者與奠基者。

兩條迴歸直線 y = ax + b, x = cy + d 的斜率 a 與 c 叫做迴歸係數, 我們已求得 a = σxy

σx2 , c = σxy

σy2 因此兩個迴歸係數的幾何平均就是相關係數:

r =√ ac =

xy

σx2 · σxy

σy2 = σxy

σxσy

注意: 按照數學的規約, 開方應該要加絕對值符號 √

α2 = |α|。 但是此地的開方, 不加絕對值, 故 r 可取正負值。

考慮極端情形: 當數據完全落在一水平直線時, 即 y1 = y2 = · · · = yn = ¯y, 我們有 σy = σxy = 0, 於是 r 變成不定型 0/0, 所以沒有定義。 同理, 當數據完全落在一垂縱直線時, 也有相同的結論。 兩者都不是 r = ±1。 對於這兩個極端的情形, 若把相關係數看成數據呈現直 線趨勢的強弱, 則 x 與 y 為完全相關。 若從無法定義相關係數的眼光來看, 則 x 與 y 為不相 關。 事情出現兩極化的說法, 所以這是規約問題。

頭腦的體操: 若兩條迴歸直線的斜率乘積為 1, 即 ac = 1, 證明兩迴歸直線合而為一, 並且所有 數據都落在迴歸直線上。

(11)

註: 有數學家曾經這樣說: 統計只是相關係數, 而相關係數只是夾角的餘弦, 所以一切皆顯然!

這當然是偏頗的。

迴歸直線是統計數據的最佳適配直線 (best fitting line), 又可用來估計 (estimate) 未觀 察的數據。 特別是當 x 是指時間 t, 一個經濟系統的迴歸直線 y = at + b 稱為時間序列 (time series), 代表著趨勢線, 經常是我們根據過去來預測 (predict or forecast) 未來 y 值的工具。

上述所討論的相關係數其實是線性相關係數, 它是用來衡量數據落在一條直線的趨勢之強 弱。通常我們省略掉 「線性」 這兩個字, 直接稱為相關係數。 請看下例:

例2: 如果 y 與 x 有 y = x2 的關係, 並且在我們所取的數據中, 諸 xk 是正負對稱成對, 那麼 很容易算出 r = 0 (完全不相關或零相關), 因為 ¯x = 0 並且 P xkyk = P x3k = 0 。 雖然 y 與 x 是函數地相關! 事實上, y 根本是 x 的平方! 這也警告我們, (線性) 相關係數並不是在談 論兩個統計變量時, 唯一應該注意的東西。 切記, 相關並不是因果關係 (correlation does not

imply causation.)。 

乙、 相關係數的使用法

一般而言, 用相關係數 r 來衡量兩變數 x, y 的數據形成直線趨勢的強弱時, 我們採用如 下的規約:

(i) 當 r > 0 時, 我們稱兩變數為正相關, 此時迴歸直線的斜率為正數。

(ii) 當 r < 0 時, 我們稱兩變數為負相關, 此時迴歸直線的斜率為負數。

(iii) 當 r = 1 時, 我們稱兩變數為完全正相關, 此時迴歸直線的斜率為正數並且數據完全落在 其上。

當 r = −1 時, 我們稱兩變數為完全負相關, 此時迴歸直線的斜率為負數並且數據完全落 在其上。

(iv) 當 r = 0 時, 我們稱兩變數為零相關或不相關。

(v) 當 0.7 ≤ r < 1 時, 我們稱兩變數為高度正相關。

當 0.3 ≤ r < 0.7 時, 我們稱兩變數為中度正相關。

當 −1 < r ≤ −0.7 時, 我們稱兩變數為高度負相關。

當 −0.7 < r ≤ −0.3 時, 我們稱兩變數為中度負相關。

(iv) 當 0 < r < 0.3 時, 我們稱兩變數為低度正相關, 數據落在迴歸直線上的趨勢薄弱。

當 −0.3 < r < 0 時, 我們稱兩變數為低度負相關, 數據落在迴歸直線上的趨勢薄弱。

註: 0.3 與 0.7 純是人為取定, 所以才叫做規約。

(12)

例3: 20 對夫妻的年齡資料如下, 求兩條迴歸直線的方程式與相關係數。

夫 (歲) 22, 24, 26, 26, 27, 27, 28, 28, 29, 30, 30, 30, 31, 32, 33, 34, 35, 35, 36, 37 妻 (歲) 18, 20, 20, 24, 22, 24, 27, 24, 21, 25, 29, 32, 27, 27, 30, 27, 30, 31, 30, 32

解答: 先算出下列表格:

X Y XY X2 Y2 X Y XY X2 Y2

22 18 396 484 324 30 32 960 900 1024 24 20 480 576 400 31 27 837 961 729 26 20 520 676 400 32 27 864 1024 729 26 24 624 676 576 33 30 990 1089 900 27 22 594 729 484 34 27 918 1156 729 27 24 648 729 576 35 30 1050 1225 900 28 27 756 784 729 35 31 1085 1225 961 28 24 672 784 576 36 30 1080 1296 900 29 21 609 841 441 37 32 1184 1369 1024 30 25 750 900 625

30 29 870 900 841 600 520 15887 18324 13868 所以 ¯x = 30, ¯y = 26,

σx2= 1 n

n

X

k=1

x2k− (¯x)2 = 1

20 × 18324 − (30)2 = 16.2 σy2= 1

20× 13868 − (26)2 = 17.4 σxy= 1

20

n

X

k=1

xkyk− ¯x¯y = 1

20× 15887 − 30 × 26 = 14.35 y 對 x 的迴歸直線為 y − ¯y = σxy

σ2x (x − ¯x), 亦即 y − 26 = 0.886(x − 30);

x 對 y 的迴歸直線為 x − ¯x = σxy

σy2 (y − ¯y), 亦即 x − 30 = 0.825(x − 26) 相關係數為 r =√

0.886 × 0.825 =√

0.7310 ; 0.85 (高度正相關)。 

(13)

頭腦的體操: 某班 10 名學生的數學與物理成績如下:

X (數學成績) 75 80 93 65 87 71 98 68 84 77 Y (物理成積) 82 78 86 72 91 80 95 72 89 74 (i) 求兩條迴歸直線的方程式。

(ii) 求相關係數。

(iii) 當某生數學考 60 分時, 試預測其物理成績。

(iv) 當某生物理考 88 分時, 試預測其數學成績。

參考文獻

1. Stephen Stigler, The History of Statistics. The Measurement of Uncertainty before 1900. Harvard University Press, 1986.

2. Murray R. Spiegel, Statistics, Theory and Problems. McGraw-Hill, 1981.

本文作者為台大數學系退休教授

106 學年度周鴻經獎學金即日起開始申請

截 止 日 期 : 2017 年 11 月 15 日止 (以郵戳為憑)

申 請 辦 法 : 檢附周鴻經獎學金申請書、 志向說明書、 在學各學年之成績單 (碩士 班一年級研究生須繳大學之成績單)、 周鴻經獎學金推薦書、 及數學 相關系所之教授二人以上之推薦書, 由校方函送中央研究院數學研 究所申請。

詳見中研院數學所網頁 http://www.math.sinica.edu.tw/www/

備註: 本獎學金只限在台就讀學生申請。

參考文獻

相關文件

筆 者最早和黃教授結識是 1970 年代前 往數學所訪問的期間。 倆人主要研究領域同 屬複分析; 而黃教授的研究興趣涉及數學多 方面的領域, 如調和分析、 數論、 統計、 機率、..

雜 訊包括有人為的與隨機的兩個因素, 前者 如儀器不 精、 度量技術不佳等等, 後者如溫 度變化、 一陣風吹、 重力變化等等。 它們所產 生的誤差分別叫做系統性誤差 (Systematic error)

本期刊出的 「數學與現代文明」 演講紀錄中, 馬志明教授以實例說明數學對現 代科學的影響; 如小波分析、 圖論與圖演算法、 隨機分析、 統計與機器學習等等之於 數據的壓縮、

數學家吳文俊先生認為, 有些幾何定理的證明, 不單是傳統的歐式方法難以措手, 即便是 解析法也因計算繁複而無法解決。 如果能找到一種機械化的方法比較快捷地證明幾何定理, 那

都要靠統計。統計 學(statistics)是我 們了解這個世界的 科學方法之一。她 是來自 state, status 這個字源,最初做 為描述人口、政府 普查的資料。後來.

也因此這樣所得的直 線, 我們稱之為 least squares line (最適合直線, 或最小平方直線), 在統計學中稱之為 line of regression (迴歸直線)..

資料包絡分析法(Data Envelopment Analysis, DEA)係為透過資料來進行包絡分析的 方法,是透過數學線型規劃( Linear Programming )

在選擇合 適的策略 解決 數學問題 時,能與 別人溝通 、磋商及 作出 協調(例 如在解決 幾何問題 時在演繹 法或 分析法之 間進行選 擇,以及 與小組成 員商 討統計研