• 沒有找到結果。

統計裡的估計

N/A
N/A
Protected

Academic year: 2022

Share "統計裡的估計"

Copied!
18
0
0

加載中.... (立即查看全文)

全文

(1)

統計裡的估計

黃文璋

一 . 前言

繼購物贈送 Hello Kitty 磁鐵活動後,7-ELEVEN 在民國 94年的第四季, 推出贈送迪士 尼公仔的活動。 共有 42個一般型的公仔, 外加 10個白金色的公仔。 我將原先四斗櫃上的雜物清 除掉, 然後將那些已擁有的公仔依序排好, 重複的則排在同一行。 7-ELEVEN 差不多是我每天 必去的店, 只要購物每滿 88 元, 就會拿到一個公仔。 要打開盒子才知到底拿到那一個, 頗有樂 趣。 假設這些公仔是隨機發放, 則要收集齊全, 所需總個數之期望值是可以求出的。 這是所謂古 典票券收集問題(classical coupon collector’s problem), 這裡面有一些有意思的機率統計問 題。 隔一段時間後, 終於集全了, 我仍繼續將它們整齊地排好, 櫃子上像有一群兵馬俑一般, 每 行長短不一。

有一天唸數學系大四的女兒來我研究室, 對那一片公仔頗好奇。 她從小對收集這類小東西 很感興趣, 長大後不熱中了, 換成他老爸。 我突然問她“總共有幾個, 給妳 5 秒”。 “65 個”, 她脫 口而出。 “不太有概念喔! 妳看, 這 42 種每一種多的有 10 個, 少的才 2 個, 平均幾個? 大約 3 到 4 個。 如果假設 4 個, 則共 168 個, 而那些白金的都很少, 一眼望去全部才 12 個, 如此共 180 個。

如果假設那 42 種, 平均每種有 3 個, 則共 126 個, 加上 12 個白金的, 共 138 個。 所以應共有 138 至 180個。” 我對女兒這樣說。 我們數了一遍, 結果是 143個。

請幾個朋友到餐廳用餐, 分別點了不同的套餐, 價格不一。 甜點用完後, 侍者拿來帳單。 總 共 17,270元, 其中還包含小菜、 開瓶費及 1 成服務費等。 有沒有多列或算錯呢? 請客嘛, 總不好 意思一筆一筆對。 四捨五入算至百位, 而有些套餐是一樣的價格, 大致乘一乘, 估算出來的總和, 與帳單上的和相比, 差異在 500元左右, 可以接受。

自兩千多年前起, 埃及人就已在估計地球、 月亮及太陽的大小。 處在此一隨機世界, 我們 可說經常在估算、 估計。 拿起一個蘋果, 估計它的重量。 對初認識的朋友, 估計他的年齡, 估計 其家庭狀況。要過馬路, 黃燈已亮, 估計是否過得去。 有些情況估計準不準不太重要, 可以隨便

3

(2)

估估。 有時就會稍留意些。 例如, 收到大學指定科目考試成績單, 要做落點預測。 各校系選擇方 案有別, 採計科目也不同, 有些科目還加重計分, 想估計能考上那一校系, 就頗具挑戰性。 其他 如估計歌手周華健全年總收入, 估計去美國留學的費用等。 我國內政部還訂有“地價調查估計規 則”。 科學家及政府, 也常在做種種估計。 如

1. 估計宇宙年齡、 地球重量、 全球人口數。

2. 估計大陸石油蘊藏量。

3. 估計海棠颱風對台灣造成的農林漁牧業損失。

4. 估計一銅板出現正面的機率。

5. 估計 10 歲孩童身高的分佈。

這類估計顯然都不太容易。 對於隨機現象, 既然是估計, 便可能有誤差。 就如謝霆鋒主唱的那 首“估計錯誤”, 其中的一句歌詞: “計算自己情感, 偏偏估計錯誤”。 一般人以為對自己總該較了 解, 但似乎仍易估計錯誤。 更何況對那些未知的事物, 或多變的隨機現象, 所做的估計, 誤差當 然是難免。 像是有科學家估計宇宙的年齡介於 100 億至 160 億年間。 這類估計, 不論依據為何, 究竟有多精確, 是很難“估計”的, 誰也不知正確答案。 所以每隔一段時間, 總會有人提出新的估 計值。 即使對地球上現存的事物, 其估計也常無定論。 例如, “科學人”雜誌的“發表新鮮事”專 欄, 2003 年 8 月 1 日, 刊登鄭靜琪所撰的“鯨魚數量已經安全無虞?”一文。 其中寫道, 新的研究 指出北大西洋座頭鯨數量的歷史高峰應有24萬, 據此推算, 全球座頭鯨的數量曾多達150萬, 遠 遠高於國際捕鯨委員會 (International Whaling Commission) 所估計的 10 萬頭。 另外, 有 位哈佛大學 (Harvard University) 的教授, 依據紐約市 51家醫院, 所提供的 3 萬名病人資料, 發現其中約有 4% 的病人因醫療不當而受害。 他因此推算美國一年死於醫療疏失的病人有 10 萬人。 你可能會好奇: 紐約市的資料能代表全美國嗎? 事實上常有人是如此以局部放大到全體。

如 BBC 中文網, 2006年 6 月 19日有一則“中國野生熊貓比估計多兩倍”之報導:

科學家根據新技術推斷, 中國目前的野生大熊貓數量可能達到三千隻, 比過去估 計的多了兩倍。 一直以來科學家都是用傳統方法估算野生大熊貓的數量, 估計總共有 一千多隻。 但是鑒於大熊貓獨特的生活習性和生存環境, 人們很難做出準確的推算。

中國和英國的研究人員現在分析大熊貓糞便 DNA, 推算熊貓的數量。 他們估計四川 王朗自然保護區目前應該有 66隻野生大熊貓, 比1998年推斷的多了至少兩倍。 . . .

科學家根據王朗自然保護區的研究結果推斷, 目前中國全國大約有2500到3000 隻野生大熊貓。 . . .

我們不清楚如何經由分析糞便 DNA 以估計熊貓數量。 而由一個地區的估計, 是否適合放 大到全國, 也不太肯定。 因此日後若有人提出新的估計, 將不會令人太驚訝。

(3)

估計的方法很多。 民國 94年12月, 打過大聯盟的棒球好手陳金鋒, 回台灣加入 La new 熊 隊。 熊隊當然士氣大增, 總教練洪一中說“我不能告訴你明年 La new 可以拿第幾名, 但每年都 預估要拿第一”。 賣西瓜者用指頭敲一敲, 便可估計出西瓜甜不甜。 他的估計是基於什麼? 聲音 大小嗎? 考完試, 也沒對答案, 有人便估計自己可考上台大醫學系, 所憑藉的可能是過去在學 校裡考試的表現, 加上對這次考試的感覺。 估計可以很科學, 也可以只基於主觀或直覺的判斷。

但主觀或直覺, 如果再加上一些客觀的數據, 常可讓估計更精準些。 洪一中的估計, 可能是衡量 各隊實力後客觀的判斷, 也可能是為了展現信心而高估, 如此則並不需要提供什麼佐證。 附帶一 提, 有了陳金鋒的加盟, La new 隊果然在民國 95 年 6 月 28 日, 獲得隊史上首座季冠軍。 民國 92 年上半球季, 他們的戰績是慘不忍睹的 9 勝 37 敗 4 和, 這回則是 30 勝 19 敗 1 和。 洪一中的估 計, 結果是準確的。

對不同的情況, 人們常需要做估計。 只是該如何估計呢? 有新聞報導, 日本九州佐賀縣有 一神社, 依據稀飯發霉的情況, 及霉菌的顏色, 以估計運勢, 甚至估計何時會有地震發生。 大陸 揚州的算命師, 則以“耳中長毛”, 預測人可活過九十九歲 (見2006年2月號“科學人”雜誌“總編 輯的話”)。 如何估計, 對一般人, 可以很有道理也可毫無道理。 但統計學家做估計, 總該有些依 據, 有些原理。 做出估計後, 更常要用以對未來做預測。 統計學家的預測, 總該比用亂猜, 或諸 如依稀飯、 水晶球來判斷更準確才合理。 量子論泰斗, 丹麥的波耳 (Niels Bohr, 1885-1962, 1922 年獲諾貝爾物理獎) 曾說“預測很難, 尤其關於未來”。

世上多的是事後諸葛, 放馬後砲者。 “早知道就...”, 是許多人的口頭禪。 “既有今日何必當 初”的懊惱, 下次仍會發生。 要對過去所開出的樂透彩號碼, 找出一產生的模式是可能的, 但此 模式對下一期頭獎號碼的預測, 很可能就不管用了。 統計學裡有不少估計的方法, 背後其實都有 一套想法在。 合理的估計法, 通常也具備一些優點。 但怎樣才是好的估計? 選美比賽前, 也得先 規定評比標準, 否則無從選起。 本文便是要對統計裡的估計, 略做討論。

二 . 一葉知秋或以偏概全

民國 95年 1月 Yahoo 奇摩知識網站上, 有人提問: “預計三月去日本自助旅行, 估計費用 大約多少?”

內容包含: 時間是五天, 地點在東京, 目的是去看世界棒球經典賽。 有熱心人士回答: 台幣 22,800 元。 算法是: 來回機票 10,000 元, 機場來回旅館車資 2,000 元, 住宿費 4,000 元, 生活開 支 4,000元, 來回球場車資 800元, 購買紀念品 2,000元。

回答的人可能是從他個人的經驗以做估計。 他是否真的很有經驗呢? 我們是否就可據以 說, 去日本五天看球賽, 只要花 22,800元? 要知回答者連球賽門票都未列入計算。

(4)

曾有一則新聞標題為“中國醫藥界駁斥中藥致癌論 批評美國媒體以偏概全妄下結論”。 以 偏概全, 以管窺天, 及盲人摸象等, 都是我們批評人所見不夠客觀, 未見到全貌, 就據以下結論。

但全貌常常不易見到。 話又說回來, 有時全貌太大, 或太複雜, 要想見到, 可能耗時耗力耗財。 像 是上節中提到的全球座頭鯨的數量, 及大陸野生大熊貓數量, 大約皆無法將其全捉來數一遍。 更 何況就算真見到全貌, 往往也毫無頭緒, 不知該如何下結論。 不是簡單地用一句諸如“橫看成嶺 側成峰”便可形容。 例如, 對一初識者, 我們常只由短暫的接觸, 便對其品頭論足。 但相識愈久, 看到他各方面的行為表現, 有時反而遲疑了, 不知該如何描述他。

但我們不是也常聽到一葉知秋嗎? 淮南子.說山:

以小明大, 見一落葉而知歲之將暮; 睹瓶中之冰而知天下之寒。

這種經驗常有: 品嚐鍋中一塊肉, 就可知整鍋食物的滋味; 煮湯時, 常憑一小湯匙來決定整鍋之 鹹淡; 驗血時, 也是只抽一小針筒。 為什麼這時又不會說是以偏概全了?

究竟何時可一葉知秋?

俗語說一樹之果有酸甜之別。 但經驗告訴我們, 同一株樹所結之果, 酸甜的差異, 大致不會 太大。 甚至同一果園, 同一種果子的酸甜大約也差不多。 淮南子一書中, 所描述的地方, 說不定 每年總是到了秋天, 每株樹就開始有落葉。 如果某地有不同的樹, 全年四季分別會落葉, 這時見 到葉落, 就不一定是秋了。 換句話說, 就是依變異大小, 變異小, 便容易一葉知秋, 可以嘗鼎一 臠, 可以因小見大; 變異大, 即使所見再多, 仍有可能以偏概全。 如果全美各地醫療不當情形大 同小異, 以紐約市的資料推估全美, 就不會太離譜, 否則就是以偏概全了。

變異小的情況, 做估計當然較容易, 這時見微知著並不稀奇, 人人皆可一葉知秋。 變異若不 算小, 以偏便不易概全。 變異大小, 深深影響估計之精準性。 因此做估計時, 常須掛念變異, 常 要考慮如何才能減小變異, 而這就有賴“好的”估計方法。 只要變異屬於不易忽略的情況, 統計學 家便有用武之地。 另外, 對所欲估計的量, 若有一些事先的資訊, 也要善用, 有助於提高估計之 準確性。 總之, 估計人人都會, 但如何較準確的估計, 就是學問了。 只是怎樣算準確呢? 有兩個 錶, 一個停止不動, 永遠顯示上午6 點 32 分, 一個每日慢 1 分鐘, 何者較準? 有人以為是前者, 因 它每天有一次顯示正確時間, 而後者每 1,440 天 (1 天有 1,440 分), 才有一次顯示正確時間。 故 準確的定義為何, 得好好斟酌。 另外, 有人一葉知秋, 有人十葉知秋, 都是知秋, 顯然前者較有效 率。 所以除了準確性, 效率也該考慮。 可看出怎樣才是好的估計, 是有不同的衡量標準。

下一節我們便來看, 對好的估計, 會有那些要求。

三 . 估計之評比

假設有一銅板, 如何估計它出現正面的機率 p? 重複地投擲 n 次, 然後以總共出現之正面 數除以 n, 或說以相對頻率(relative frequency) 來估計 p。 不論你有沒有學過統計, 大約都會 想到此方法。 甚至這很可能是你唯一想得到的合理方法。

(5)

當然在上述估計中, 我們隱含地做了一些假設。 首先每次投擲, 銅板出現正面的機率要相 同, 不可以換用出現正面機率不同的銅板, 否則求出來的不知該是那一量之估計值。 其次各次投 擲間, 出現的結果要相互獨立。 如果看到第 1次得什麼面, 以後就都照抄, 如此 n 次下來, 不是 n 個正面, 就是 n 個反面。 則對 p 之估計, 只會是 1 或 0, 這樣顯然不行。

只要是可以重複觀測的試驗, 欲估計某事件發生之機率 p, 都可以採用前述相對頻率的方 法。 雖實驗可能有很多不同的結果, 但我們可將所有結果分成兩類, 其一是有興趣的事件 (對 應銅板出現正面), 其二是該事件之餘集 (對應銅板出現反面)。 觀測 n 次後, 數看看有幾次該 有興趣的事件發生。 在投擲銅板的例子中, 有興趣的事件, 就是銅板出現正面。 這種對一參數, 以一個值來估計, 便稱點估計(point estimation)。 現以 X1, . . . , Xn, 分別表各次試驗所得之 結果, 其中 Xi = 1 或 0, 就依第 i 次試驗, 該事件發生或未發生, i = 1, . . . , n。 依前述討 論, X1, . . . , Xn 乃假設為獨立且有共同分佈(independent and identically distributed, 簡 稱 iid), 且 P (Xi = 1) = p, P (Xi = 0) = 1 − p。 在統計裡若 X1, . . . , Xn 為 iid, 便稱此為 一組隨機樣本(random sample)。

有了 X1, . . . , Xn, 如何估計 p? 用樣本平均(sample mean)! 即以 Xn = 1

n(X1+ · · · + Xn)

來估計 p。 而 X1+ · · · + Xn 即為 n 次投擲中, 共得之正面數。 平均, 生活裡我們可說經常在 求平均。 以 Xn 估計 p 有那些優點呢? 首先因 P (Xi= 1) = p, P (Xi = 0) = 1 − p, 且

E(Xi) = 0 · (1 − p) + 1 · p = p, 1 ≤ i ≤ n, 故得

E(Xn) = E(1

n(X1+ · · · + Xn))

= 1

n(E(X1) + · · · + E(Xn)) = np n = p.

即 p 之估計量 Xn 的期望值為 p。

對一參數 θ 做估計時, 於觀測到 X1, . . . , Xn 後, 以它們的一個函數 Tn ( Tn 稱為統計 量(statistic), 用來做估計時, 又稱估計量(estimator)) 來估計 θ, 若滿足 Tn的期望值 E(Tn), 等於所欲估計的參數 θ, 即 E(Tn) = θ, 則 Tn 便稱為 θ 之不偏估計量(unbiased estimator), 簡稱為不偏的。 不偏性, 似乎是好的估計量所該具備的性質。 期望值有平均的意思, 做估計有時 高估, 有時低估, 但估計值總該在實際值附近打轉, 而不應傾向高估或傾向低估, 因此平均而言, 總該是準的。 否則就是有偏差, 即若 E(Tn) 6= θ, Tn 便稱為 θ 之一偏差估計量。

(6)

不難看出, 前述對 p 之估計, 不偏估計量並不唯一。 諸如 X1, (X1 + X2)/2, 0.2X2 + 0.3X3+ 0.5X6 等, 皆為 p 之不偏估計量。 只要 n ≥ 2, 便有無限多個對 p 之不偏估計量。

有些統計學家, 很在乎不偏性, 覺得好的估計量, 都至少該為不偏的。 此要求並非不合理, 只是有些不偏估計量會很荒謬。 例如, 設 X ∼ P(λ), λ > 0, 即 X 有參數 λ 之 Poisson 分 佈, 機率密度函數為

f (x) = eλλx

x! , x = 0, 1, 2, . . . . 現欲估計 θ = e−2λ。 取統計量 T = T (X) = (−1)X。 則

E(T ) =

X

x=0

(−1)xeλλx

x! = eλ

X

x=0

(−λ)x

x! = eλeλ = e−2λ = θ.

此處用到下述公式:

X

x=0

ax

x! = ea, a ∈ R.

故 T 為 θ 之一不偏估計量。 這樣的估計量有何不妥呢? 當觀測到的 X 為偶數 0, 2, 4, . . . 時, 以 1 估計 θ, 當 X 為奇數 1, 3, 5, . . . 時, 以 −1 估計 θ。 但 θ = e−2λ, 其中 λ > 0, 為一介 於 0, 1 間的數, 既不會等於 1也不會等於 −1。 估計量 T 雖為不偏, 明顯地卻為一極不合理的 估計量。 我們大致可以這麼說, 儘管有一些對於估計量的評比準則, 為很多統計學家所接受, 但 依這些準則, 仍有可能產生怎麼看都不像太好的估計量。

另外, 你可能也已看出, 光是要求不偏性是不夠的。 對前述投擲銅板的例子, 若用 X1 當做 估計量, 即只依第一次投擲的結果來估計 p, 其他資訊 X2, . . . , Xn 都不理會, 這樣的估計量, 顯然不會太好。 直觀上, 取樣愈多 (即 n 愈大) 估計要愈準才合理。 而當樣本數 n 趨近至 ∞, 更應準得不得了才對, 也就是估計量與所欲估計的參數, 差不多就該合一了。 這個想法引出了一 致性(consistent) 的概念。

對好的估計量之第二個要求是一致性。 在此對一數列之參數 θ 的估計量 Tn, n ≥ 1, 若滿 足 n → ∞ 時, Tn 機率收斂(converges in probability) 至 θ, 以

Tn p

−−−−→

n → ∞ θ (1)

表之, 便稱 Tn 為 θ 之一致估計量(consistent estimator)。 (1) 式成立的意思是

n→∞lim P (|Tn− θ| > ε) = 0, ∀ε > 0, (2) 或者等價地說, 對 ∀ε > 0 及 δ > 0, 存在一 k ≥ 1, 使得 n ≥ k 時,

P (|Tn− θ| > ε) < δ. (3)

(7)

看起來有點深奧, 這是屬於機率論裡極限的題材。 弱大數法則(weak law of large numbers) 告訴我們, 對一數列 iid 之隨機變數 X1, . . . , Xn, n ≥ 1, 只要期望值 E(Xi) = µ 存在, 則當 n → ∞ 時, 其樣本平均 Xn 會機率收斂至 µ, 即

Xn p

−−−−→

n → ∞ µ. (4)

所以在前述投擲銅板的例子中, 由於 Xn−−−−→p

n → ∞ p, 故 Xn 為 p 之一致估計量。 樣本平均 Xn, 不但是 p 之不偏估計量, 且是一致估計量。 至於 X1, (X1+ X2)/2, 0.2X1+ 0.3X3+ 0.5X6 等 p 之不偏估計量, 則非 p 之一致估計量。 通常一參數 θ 之不偏估計量, 往往有無限多個, 但 若再加上一致性的要求, 就會排除很多不太好的估計量。 不過要討論估計量是否有一致性, 先決 條件當然是樣本數 n 可無止盡的增大。

不偏性及一致性, 是我們首先會想到“好的”估計量, 似乎該有的兩個條件。 估計量仍有一 些其他評比之基本準則。 估計量如何才算好, 要依評比標準而定。

以一統計量 T = T (X1, . . . , Xn) 來估計 θ (或者 θ 的一函數 g(θ) ), 如何衡量此估計量 之表現呢? 一個最自然的度量法是看誤差 |T − θ| 之大小。 但此度量法並非盡如人意。 原因有 二: 其一為此度量為一隨機變數, 與所觀測到的 X1, . . . , Xn 有關, 並非一定值; 其二為此度量 與未知參數 θ 有關, 因此估計到底多準, 無法得知。 第一個缺點可以解決, 取期望值即可, 也就 是將誤差平均掉。 例如, 可以考慮平均絕對誤差 E(|T −θ|), 也可以考慮均方差(mean squared error, 簡稱 MSE) R(θ, T ) = E((T − θ)2)。 此處 T 為一隨機變數, 期望值是對 T 取 (而非 對 θ ), 或者說對 X1, . . . , Xn 取。 以 E(|T − θ|) 或 E((T − θ)2) 來度量誤差, 何者較適宜?

通常取後者。 主要原因是, MSE 通常比 E(|T − θ|) 較易計算。 又 MSE 可改寫為 E((T − θ)2) = E((T − E(T ) + E(T ) − θ)2)

= E((T − E(T ))2) + (E(T ) − θ)2

= Var(T ) + b2(θ, T ), (5) 其中 b(θ, T ) = E(T ) − θ。 上述第二等式成立, 是用到

E((T − E(T ))(E(T ) − θ)) = E(T − E(T ))(E(T ) − θ)

= (E(T ) − E(T ))(E(T ) − θ) = 0, 因 E(E(T )) = E(T ) (記住 E(T ) 為一常數)。

b(θ, T ) 稱為 T 之偏差(bias)。 Var(T ) 乃用以量測估計量 T 變異之大小, b2(θ, T ) 則 是量測偏差之大小。 前者顯示精準性, 後者顯示正確性。 比方說射飛鏢, 若射在靶上的點都很接

(8)

近, 我們可說射得很精準。 但說不定這些點都很偏離紅心, 因此正確性不夠。 我們實際接觸的估 計量, 常都滿足Var(T ) < ∞。 如果 Var(T ) = ∞, 則 R(θ, T ) = ∞, 這種估計量當然不好, 很少被考慮。

設有二 θ 之估計量 S, T , 所有可能的 θ 之集合, 以 Ω 表之。 例如欲估計銅板出現正面的機 率 θ, 則 Ω 可取成 [0, 1]。 但如果確定 θ 只有兩個可能的值0.5及0.7, 則 Ω 可取成 {0.5, 0.7}。

若 R(θ, T ) ≤ R(θ, S), ∀θ ∈ Ω, 且對某些 θ, 嚴格不等式成立, 則合理的作法是不採用 S。 此 時我們說T 較 S 為佳, 且稱 S 為不可採用的(inadmissible)。 一估計量 T , 若不存在較其為 佳之估計量, 便稱為可採用的(admissible)。 此處所謂可不可採用, 是以 MSE 為評比標準。 評 比估計量, 要留意是否為可採用的, 此概念用途廣泛。 例如, 在找對象時 (每人標準自然不盡相 同), 即使未找到最佳者, 至少也要選可採用的。 尺有所長, 寸有所短, 總要有某些長處, 不能樣 樣皆不如人。 在一團體 (如企業公司) 裡, 要儘量避免自己是一位不可採用的人。 否則不但無法 扮演重要角色, 當公司要裁員時, 可能也是較先被想到的。

是否有一比其他估計量都為佳的估計量呢? 除少數特例外, 答案是否定的。 假設存在一 個這種估計量 T , 則任取一 θ0 ∈ Ω, 且考慮估計量 S = θ0, 即恆以常數 θ0 估計 θ。 此 一估計量為高度精準 (Var(S) = 0), 而極不正確 (除非當 θ 很接近 θ0 )。 由 (5) 式, 此時 R(θ, S) = b2(θ, S)。 當 θ = θ0 時, b(θ0, S) = E(θ0) − θ0 = 0, 故 R(θ0, S) = 0。 因 T 較 S 為佳, 故 R(θ0, T ) 必須等於 0。 但 θ0 為 Ω 中之任一點, 故得 R(θ, T ) = 0, ∀θ ∈ Ω。 除了 一些特殊的情況 (如 Ω 中只有一個元素), 此乃不可能。

事實上, 由上一節中, 停止的錶亦有準確時候之例, 我們早就知道, 對於估計量, 不存在一 個永遠的第一名。 故除了比 MSE 之大小外, 我們得再加上其他評比的準則。 加上新的準則後, 可消除一些不合理的估計量 (如前述 S(X) = θ0 )。 在此一包含較少估計量之集合中, 我們尋 找最佳 (指 MSE 最小) 的估計量。 要知理想狀況當然是低偏差且高精準。 先控制偏差, 再考慮 精準性, 似乎是合理的(想想射飛鏢的例子)。 因此我們要求 E(T (X)) = θ, ∀θ ∈ Ω, 或等價地 說, 要求偏差等於 0, 即 b(θ, T ) = 0, ∀θ ∈ Ω。 如前所定義, 這種估計量 T , 稱為 θ 之一不偏估 計量, 或說 T 為不偏的。 若 T 為 θ 之一不偏估計量, 則 R(θ, T ) = Var(T (X))。

要求不偏除了合理外, 常可在所有不偏估計量中, 找到一較所有其他估計量“不差”的估計 量。 即有一估計量 T, 滿足 E(T) = θ, 且對任一其它不偏估計量 S, 皆有

R(θ, T) = Var(T) ≤ Var(S) = R(θ, S), ∀θ ∈ Ω. (6) 這種 T 稱為一致最小變異不偏估計量(uniformly minimum variance unbiased estimator, 簡稱 UMVUE)。 所謂“一致”, 是指對每一 θ ∈ Ω, T 之變異數皆最小。

數理統計中, 會給出一些有效的步驟, 以找出參數之 UMVUE, 此處不多討論。 不過必須 一提的是, 有時不偏估計量不存在, 因此也就沒有 UMVUE。 有時 UMVUE 雖存在, 但可能

(9)

是很荒謬的估計量, 或有時是不可採用的估計量, 或有時計算上很複雜。 前述對 P(λ) 分佈, 估 計 θ = e−2λ 的例子裡, T = (−1)X 雖為一極不合理的估計量, 但可以證明, 它是 θ 唯一之不 偏估計量, 因此當然也就是 θ 之 UMVUE。 在只有一個估計量的集合裡, 找最佳者, 不論是在 那一種意義下的最佳, 都不會是太令人樂於接受的估計量。 一般而言, 並沒有那一估計量是全方 位最佳的。 我們在所有不偏估計量的集合中找最佳估計量, 而所謂最佳乃指變異數最小。 僅是依 不偏及變異數最小來評比, 通常還合理。 但若找到的最佳估計量不盡如人意, 也不用太奇怪。 此 正如選美不論評比標準為何, 選出來的第一名, 不見得人人叫好。

UMVUE是在樣本數 n 固定下找的。 如果樣本數 n 可以無止盡的增加, 估計量的近似行 為, 便也可拿來評比。 我們期望在樣本數很大下, 估計量會有一些好的性質。 付出了較大的代價 (取樣增大), 總該有一些所得。 這方面的討論就是統計裡的大樣本理論(large sample theory)。

之前已給出一致估計量, 另外還有漸近不偏估計量(asymptotic unbiased estimator)。 即一數 列 θ 之估計量 Tn, n ≥ 1, 滿足

n→∞lim E(Tn) = θ. (7) 如果對 ∀n ≥ 1, Tn 皆為 θ 之不偏估計量, 即 E(Tn) = θ, ∀n ≥ 1, 則 Tn 當然也是 θ 之漸近不偏估計量。 但如果 Tn 不是不偏估計量, 退而求其次, 當樣本數很大時, 若 Tn 就“差 不多”是不偏的, 即 (7) 式成立, 那便也不錯。 其他還有漸近相對有效性(asymptotic relative efficiency)、 漸近有效估計量、 漸近常態等, 皆是大樣本下, “好的”估計量可能會有的性質。

設有 T1 = {T1n, n ≥ 1} 及 T2 = {T2n, n ≥ 1} 二數列之不偏估計量。 又設 Var(T1n) = (n + 100)/n2, Var(T2n) = 2n/n2, n ≥ 1。 則當 n = 1, 2, . . . , 99, 皆有 Var(T1n) >

Var(T2n), 此時 T2n 較佳; n = 100 時, Var(T1n) = Var(T2n) ; 但自 n = 101 起, 便皆有 Var(T1n) < Var(T2n), 且

n→∞lim

Var(T1n)

Var(T2n) = lim

n→∞

1/n2 2/n2 = 1

2 < 1.

當 limn→∞Var(T1n)/Var(T2n) < 1, 我們便稱 T1 比 T2 漸近有效。 表 n 夠大時, 欲達到同 樣的精準度, 估計量 T2 所需之樣本數比 T1 多。 樣本的取得有時是很不容易的, 從取樣之角度 而言, 在大樣本下, T1 比 T2 有效率。 另外, 設

Var(T1n) = n2

(n + 1)2(n + 2), Var(T2n) = 1

n, n ≥ 1,

則雖 Var(T1n) ≤ Var(T2n), ∀n ≥ 1, 但因 limn→∞Var(T1n)/Var(T2n) = 1, 故定義 T1, T2 之漸近有效性相同。

(10)

大樣本理論是統計裡重要的題材。 從微積分開始, 各種問題中, 極限下的性質常是大家感 興趣的。 有關估計量評比的介紹, 我們就此打住。 欲進一步了解的讀者, 可參考一般數理統計的 書。

四 . 估計的方法

估計要準確容易嗎? 不知大家是否有下述這類經驗: 去看電影, 或是去餐廳, 經常是人滿 為患, 看來景氣極佳。 但電影業, 餐飲業卻常抱怨生意不好做。 學生修通識課程, 常選不上, 似 乎班班爆滿。 但實際上卻有很多通識課程, 修課人數並不太多。 這究竟是怎麼回事。

假設有家餐廳, 有 100個座位。 週一至週五, 每晚只有 10個人去用餐, 而週六及週日, 兩晚 皆客滿, 若未預訂是沒有座位的。 一週 7 個晚上共 250 個人去用餐, 則平均每晚只有 250/7 .

= 35.71 個客人, 生意並不算太好。 但有80%(200/250) 的顧客, 去用餐時 (週末), 見到餐廳座無 虛席, 他們的印象是餐廳生意真好。 再看一例。 假設有 5班通識課程, 1班有 100個人修, 另 4班 各只有 10 人修。 5 班修課人數共 100 + 4 · 10 = 140 (人), 平均每班只有 140/5 = 28 (人)。

但卻有 100/140 .

= 71.43% 的學生, 上課得提早去搶位子。 現對這 5 班全部 140 個學生發問 卷, 調查其修課的班上有多少人? 又假設此 140張問卷皆收回, 則其中有 100張填 100人, 40張 填 10 人, 總共所得修課人數有 100 · 100 + 40 · 10 = 10, 400 (人)。 問卷顯示, 平均每班有 10, 400/140 .

= 74.28 (人)。

這類例子很多, 旅遊名勝景點, 遊客常抱怨這麼賺錢, 卻不提高服務品質。 連餐廳都不多設 幾處, 財源滾滾卻不想讓它們進來, 停車位也太少。 真實的情況是, 除了少數假日遊客摩肩接踵 外, 其餘的日子, 大多是門可羅雀。 在上述這種情況裡, 若遊客 (或學生) 由其親身體驗, 以估計 該景點平均每天有多少遊客 (或每門課有多少人修), 大部分人的估計, 都可能極不正確。

人類是習於觀察的。 觀察到天體運行的規律性, 四時的變化, 動物及植物的生長模式。 我 們做決策 (或做估計), 往往也是先觀測, 再依所得的資料(data, 或說數據), 而做出推論。 沒 有資料, 統計學家是束手無策的。 在 Conan Doyle 所著的福爾摩斯全集(Sherlock Holmes stories), The Adventure of the Copper Beeches 一書中, 寫著:

“Data! Data! Data!” he cried impatiently.

“I can’t make bricks without clay.”

福爾摩斯說沒有 data 無法做判斷, 正如沒有黏土 (clay) 無法做磚 (brick)。 但資料若有問題, 所得的推論當然不會好。 像是調查局如果情資的來源為媒體報導, 或政論節目內容, 可信度當然 不高。 資料的取得及整理, 在統計裡是一大學問, 本文不擬探討。 假設資料沒問題, 則有那些估 計的方法呢? 這要視估計的對象及不同的情況而定, 本節我們仍僅就參數的點估計討論。

(11)

業餘球類比賽, 單淘汰或雙淘汰是常採的方法。 實力雖不錯, 但運氣不好, 包括球員臨場表 現不佳, 裁判誤判, 或賽程排得不利, 可能早早被淘汰。 職業球賽如籃球、 棒球等之比賽, 則是依 整個球季之勝率, 以定出那些隊可晉級。 一個球季比賽場數很多, 像是職棒比賽, 一個球季少說 有百場, 美國大聯盟每隊更要打滿162 場。 計算勝率, 大致可稀釋掉運氣等因素, 以呈現每一球 隊的真正實力。 在上一節中, 我們以樣本平均 Xn, 估計 Xi 的期望值 E(Xi)。 表面上看起來, 是因期望值有平均的意思, 背後的理論依據為大數法則(law of large numbers)。 大數法則有 兩個版本, 比較簡單的是上一節所介紹的弱大數法則, 另一為強大數法則(strong law of large numbers)。

由於當 X1, . . . , Xn, n ≥ 1, 為 iid, 且 E(Xi2) 存在時, 弱大數法則告訴我們, X12, . . . , Xn2 的樣本平均 Xn2, 機率收斂至 E(Xi2)。 即

Xn2 = 1 n

n

X

i=1

Xi2−−−−→p

n → ∞ E(Xi2). (8)

所以若欲估計參數 E(Xi2), 可以 Xn2 做為估計量。 以平均估計期望值, 這樣所獲的估計量, 通 常還不太壞, 至少為不偏且有一致性。

例如, 設 X 有常態分佈, 期望值為0, 變異數為 σ2, 即 X ∼ N (0, σ2)。 因 E(X2) = σ2, 所以若欲估計 σ2, 且觀測到隨機樣本 X1, . . . , Xn, 則可以 Pn

i=1Xi2/n 做為估計量。 由於對 任一整數 r, Xr 的期望值 E(Xr) 稱為 X 之 r 次動差。 所以上述這種經由欲估計的參數, 是 X 的幾次方的期望值, 便用對應的 X 之次方的樣本平均來估計, 便稱動差法(method of moments), 所得之估計量, 稱為動差估計量(moment estimator)。 動差估計量並不唯一。 例 如, 設 X ∼ P(λ)。 因 E(X) = Var(X) = λ, 而 Var(X) = E(X2) − (E(X))2, 故

Xn 及 1 n

n

X

i=1

Xi2− (Xn)2 皆可用來當做 λ 之動差估計量。

這種依相對頻率來做估計, 稱為古典的作法(classical approach), 採這種主張的統計學 家, 稱為頻率學派(frequentist)。 在十九世紀, 這派想法可說是主導統計的應用。 直至今日, 頻 率的觀點, 仍是一很基本的統計思維。

底下介紹另一種估計法。

教室玻璃被打破了, 老師從平常最調皮的同學開始問。 有命案發生, 從現場採到的指紋開 始追查。 皆是因認為這些人嫌疑最大。 醫生看診, 常也是從病人的症狀, 推測那一種病最易產生 此症狀。 從所得之觀測值, 推測究竟參數為何, 會使得到此一觀測值之機率最大, 這也是一種常 用的估計方法。 在統計學裡稱為最大概似法(method of maximum likelihood)。 所得之估計

(12)

量稱為最大概似估計量(maximum likelihood estimator, 簡稱 MLE)。 這種估計法有其道理, 但會不會誤判? 當然會。 只是警方辦案, 不從有前科、 有地緣關係、 由現場蒐到的可疑事物開始 追查, 難道要從毫不相干者開始查? 那不是更不合理嗎? 統計理論顯示, 最大概似估計量, 有很 多好的性質。 例如, 常也就是 UMVUE, 常也有漸近常態分佈等。 因此這也是廣為被採用的一 種估計法。

例 1: 設一盒子中有不少白球及黑球, 假設只知數目比為 3 比 1, 但不知是白球多還是黑球 多。 依序隨機地抽取 3球, 每次取出後放回。 令 X 表所得之黑球數。 則由假設知 X 有 B(3, p) 分佈, 其中 p = 1/4 或 3/4, 即 X 之 p.d.f. 為

f (x|p) = P (X = x) =3 x



px(1 − p)3−x, x = 0, 1, 2, 3, 且 p = 1/4 或 3/4。

我們想根據觀測到之黑球數 x 來估計 p。 此估計並不算困難, 因只有二選擇: 1/4 或 3/4。

抽取後, 有四種可能的結果, 其機率值為

x 0 1 2 3

f (x|1/4) 2764 2764 649 641 f (x|3/4) 641 649 2764 2764

如果 x = 0, 就宜選 p = 1/4, 因為 27/64 的機率值較 1/64 為大。 也就是 p = 1/4 比 p = 3/4, 更會使 x = 0 發生。 所以 x = 0 出現時, 認為 p = 1/4 才較合理。 x = 1 時, 也宜 選 p = 1/4。 至於若出現 x = 2 或 3, 則 p = 3/4 當然是較合理的選擇。 故 p 之最大概似估 計值 ˆp 為

ˆ p =

(1/4, 若x = 0, 1, 3/4, 若x = 2, 3.

對同一參數所做之估計, 最大概似法與動差法, 有時會得到相同的估計量。 這並不足為奇, 因二者皆是很好的估計法, 難免英雄所見略同。 不過因畢竟是兩種不同的方法, 當然也有所得之 估計量不同的時候。

除了以上所介紹的兩種估計法外, 另有一種常用的估計法, 就是貝氏作法(Bayesian ap- proach), 持此主張者, 也稱貝氏學派(Bayesian)。 在前兩種估計法中, 欲估計的參數 θ, 被視為 一未知但固定的值。 但在有些情況, 我們對 θ 有一些事先的了解。 例如, 設 θ 為銅板出現正面 的機率。 有人以為, 由於這是政府發行的銅板, 不至於太離譜, θ 應在 0.5 附近, 甚至認為 θ 就

(13)

在 0.45至 0.55間, 且在這區間中的所有值, 可能性皆相同。 因此假設 θ 在區間 [0.45, 0.55] 均 勻分佈。 即 θ 有 U[0.45, 0.55] 分佈。

對 θ 假設有一事前分佈(prior distribution)。 此分佈可視為主觀的分佈(subjective dis- tribution), 因此乃做估計者主觀的看法。 當然主觀的看法, 也可以是依據過去的資料, 而做 出客觀的推斷。 要知或出於天生, 或因擁有的資訊很豐富, 有些人主觀的看法可能很客觀。 而 合理的思維是, 於取樣後, 根據所得之觀測結果, 修正對 θ 之分佈的看法, 如此便得到事後分 佈(posterior distribution)。 貝氏此一名稱的由來, 是因這一經修正所得的分佈, 是利用貝氏 定理(Bayes’ rule) 而得。 貝氏(Thomas Bayes, 1702-1761) 為英國牧師, 但其姓氏早已成為 一重要的統計名詞。

事後分佈是一條件分佈, 給定的條件是觀測到的樣本。 利用事後分佈, 以對 θ 做推估。 本 來我們對 θ 有一看法 (事前分佈), 看到樣本後, 看法改變 (事後分佈), 基於此新看法以估計 θ。

事後分佈與事前分佈往往有很大差異。 可以一簡單的例子來說明。 有人敲門, 若沒有其他資訊, 則可合理地假設是男或是女的機率, 各為 1/2。 這是事前機率。 但若由虛掩的門, 看到來者穿裙 子, 這資訊就要好好利用。 男生穿裙子的很少見吧, 大約只有蘇格蘭人, 假設任一男生穿裙子的 機率為 1/10, 000。 女生也不見得都穿裙子, 假設任一女生穿裙子的機率為 3/10。 所以任一敲 門者, 穿裙子的機率為

1 10, 000 ·1

2 + 3 10 · 1

2 = 3, 001 20, 000. 因此給定敲門者穿裙子的條件下, 來者是女生的機率為

P (女生|敲門者穿裙子) = P (敲門者為女生且穿裙子) P (敲門者穿裙子)

= 3 10· 1 3, 0012 20, 000

= 3, 000 3, 001

= 0.9996667777..

即在我們的假設下, 當觀測到敲門者“穿裙子”, 則敲門者是女生的機率, 由事先的 1/2, 增高至 一很接近 1 的值。 至於是男生的機率, 則從 1/2 降至很接近 0 的 1/3, 001。 事後分佈與事前分 佈, 可能會有極大不同, 貝氏學派認為不容忽視此點。 他們主張事先掌握的資訊 (事先分佈), 就 是該充分利用, 而也必須依觀測值做修正 (以到事後分佈), 再依據事後分佈, 進行推估。

註 1: 3, 000/3, 001 並非就是一直 0.9996667777 循環下去, 接著的幾位為 40753 等。

事實上, 若將此數展開為小數, 其循環節長達 1, 500 位。

一個常見的 θ 之貝氏估計量, 為給定觀測值 X 下, 事後分佈的期望值, 即 E(θ|X)。 我 們稱此為貝氏估計量(Bayesian estimator), 不過也還有很多其他不同的貝氏估計量。 近年來, 貝氏的作法愈來愈被廣為採用, 特別是在醫學及商業上。

(14)

上述這三種估計法, 反映三種不同的統計估計思維。 在做估計時, 有時是三種方式混合著 用。 視不同的情況或所擁有不同的資訊而定。 要善用這三種方法, 以得到較好的估計品質。

對於一參數 θ, 除了點估計外, 還有區間估計(interval estimation)。 即給出一隨機區間, 並指明此為 θ 之若干百分比 (通常取90%、 95%或99%等) 的信賴區間(confidence interval)。

信賴區間的討論, 可參考黃文璋 (2006) 一文。

不只是估計一參數 θ, 有時可估計 θ 的某一函數 g(θ), 或二參數 θ1, θ2 的某一函數 h(θ1, θ2) 等。 例如, 對 N (µ, σ2) 分佈, 估計 µ/σ。 這些都是有關參數估計的問題, 其他尚有分佈的 估計等。 估計論是統計裡一重要的題材, 這方面的探討很多。 本文為一初步的介紹, 無法多加討 論。 對估計論有興趣的讀者, 可參考一般數理統計的書。

五 . 迴 歸效應

本節我們介紹一種並非參數估計的估計法。

迴歸一詞, 為十九世紀英國統計學家高頓 (Francis Galton, 1822-1911) 所首先引進, 以 描述諸如父親身高與兒子身高等二變數間的關係。 設以 xi 表第 i 個父親的身高, Yi 表其兒子 之身高, i = 1, . . . , n。 高頓想建立一如下式之 x 與 Y 的關係:

Y = Q(x) + ε, (9)

即以父親的身高 x, 來預測兒子的身高 Y 。 為何父親身高以小寫, 兒子身高以大寫? 對那些父 親身高為 172公分者, 高頓並不將 172視為隨機變數。 但同是 172公分高的父親, 兒子則不一定 有多高, 所以將兒子身高 Y 視為一隨機變數。 在 (9) 式中, 隨機變數 Y , 可表示為一 x 的函數 Q(x) (不為隨機的量), 加上一項隨機的誤差 ε。 由所收集到的數據 (x1, y1), . . . , (xn, yn), 來 估計函數 Q(x)。 身高為 x 的父親, 其小孩的身高便為 Q(x) + ε。 此雖是一隨機變數, 但若誤 差項 ε 不太大, 則以 Q(x) 來估計 Y , 就不會太離譜。 比較一般的模式是, 對不同的 x, 誤差可 能不同。 所以可考慮下述模式:

Yi= Q(xi) + εi, i = 1, . . . , n. (10) 迴歸分析(regression analysis), 特別是線性迴歸(linear regression), 幾乎可說是一最 常用的統計方法。 有各種形式的迴歸, 如線性、 非線性、 多元、 參數 (parametric) 及非參數 (non-parametric) 等。 這其中最簡單的, 應屬簡單線性迴歸(simple linear regression), 即 Q(x) = α + βx, 而 α, β 為二常數。 稱“簡單”是為了與多元線性迴歸 (multiple linear regression) 區隔。

(15)

如前所述, 迴歸分析是為了探討一變數與另一變數相依的情形。 設有一簡單線性迴歸模式, 即設

Yi = α + βxi+ εi, i = 1, . . . , n, (11) 其中 α, β 為二未知常數。 又 ε1, . . . , εn常設為獨立, 但分佈不一定要相同。 有時僅假設 ε1, . . ., εn 為無相關, 即 Cov(εi, εj) = 0, 1 ≤ i < j ≤ n。 統計模型總是可以有各種假設, 只要看合 不合理, 及是否符合實際情況。 對 ε1, . . . , εn, 通常又假設期望值皆為 0, 變異數亦皆相同, 即設 E(εi) = 0, Var(εi) = σ2, i = 1, . . . , n。 此時由 (11) 式得

E(Yi) = α + βxi. (12) 在迴歸分析裡, 當知道 xi 之值, 我們常以 (12) 式右側, 做為 Yi 之估計值。 (12) 式給出 E(Yi) 為 xi 的函數, 稱為母體迴歸函數(population regression function)。 至於 α, β 如何估計 呢? 一個常用的方法是最小平方法(least squares method), 此法可追溯到法國數學家拉格 朗治(Joseph Louis Lagrange, 1736-1813), 及德國的高斯(Carl Friedrich Gauss, 1777- 1855)。 對於如 (11) 式之模式, 於觀測到 (x1, y1), . . . , (xn, yn) 後, 最小平方法乃基於使誤差 平方和

U(α, β) =

n

X

i=1

(yi− α − βxi)2 (13) 達到最小值的原理, 以求出 α, β。 將函數 U(α, β), 分別對 α, β 微分, 且皆令其為 0, 得

n

X

i=1

(yi− α − βxi) = 0,

n

X

i=1

xi(yi− α − βxi) = 0.

由上二式解出 α, β 之估計值

β =ˆ Pn

i=1(xi− ¯x)(yi− ¯y) Pn

i=1(xi− ¯x)2 , (14)

ˆ

α = ¯y − β ¯x, (15)

其中

¯ x = 1

n

n

X

i=1

xi, ¯y = 1 n

n

X

i=1

yi.

由上述方法所得之 α, β 之估計量, 便稱為最小平方估計量(least squares estimators)。 我們 便以 ˆα + ˆβxi 做為 Yi 之估計。

(16)

線性函數當然是一極簡單的函數。 簡單線性模型, 就是以一線性函數 α + βx, 由知道 x, 來預測 Y 。 這種作法, 不用知道 X, Y 二變數之聯合分佈, 樣本數 n 也不用很大。 如果將所觀 測到之 (x1, y1), . . . , (xn, yn), 描繪於 x − y 座標平面上, 所得的直線 y = ˆα + ˆβx, 便是在最 小平方法的意義下, 最能描述這些數據的一條直線。 底下給一例子。

例 2: McDonald and Studden(1990) 曾研究汽車排出碳氫化合物 (hydro- carbon) 的量。 他們得到下述成對總哩程數 x (單位為千英哩), 與碳氫化合物 y (單位為公克/英哩) 的 值如下:

(5.133, 0.265), (10.124, 0.278), (15.060, 0.282), (19.946, 0.286), (29.792, 0.333), (29.877, 0.343), (35.011, 0.335), (39.878, 0.311), (24.899, 0.310), (44.862, 0.345), (49.795, 0.319).

在此 n = 11, 且 P11

i=1xi = 304.377, P11

i=1x2i .

= 10461.814, P11

i=1yi = 3.407, P11

i=1yi2 .

= 1.063, P11

i=1xiyi .

= 97.506。 故得 x .

= 27.671, y .

= 0.310, 且 βˆ .

= 97.506 − 304.377 · 3.407/11 10461.814 − (304.377)2/11

= 0.00158,. ˆ

α .

= 0.310 − 0.00158 · 27.671 .

= 0.266.

即可以簡單線性迴歸函數 y = 0.266 + 0.00158x 來預測 y。 例如, 若汽車行駛 30,000 英哩, 則預測 y = 0.266 + 0.00158 · 30 = 0.3134(公克)。

我們繪出 (xi, yi), i = 1, . . . , 11, 及估計的簡單線性迴歸函數於圖 1。

圖1. 簡單線性迴歸函數, x 軸單位為千英哩, y 軸單位為公克/英哩。

(17)

高頓在研究父親與兒子身高的關係時, 發現較高的父親, 兒子有較高的傾向, 而較矮的父 親, 兒子亦有較矮的傾向。 這當然是眾所周知, 並非一了不起的發現, 不過就是遺傳而已。 但他 也發現那些較高的父親, 兒子往往卻稍矮些; 而很矮的父親, 兒子卻常稍高些。 此現象即為著名 的迴歸效應(regression effect), 高頓稱此現象為向平均迴歸(regression toward the mean)。

regression 有回歸, 後退, 或退化的意思。 在此即表靠向平均。 大致可以這麼說, 迴歸的意思就 是回歸。 就如我們常說的回歸正傳, 回歸祖國, 回歸專業倫理等。 而迴歸效應是向平均回歸。 這 是迴歸這一名詞的由來。 由於迴歸與回歸意思近似, 因此也有人使用回歸及回歸分析。

在高頓所獲得之1,078 對父子的身高, 父親的平均身高約為 68 英吋, 兒子的平均身高約為 69英吋, 高了一英吋。 樣本標準差則皆約為2.5英吋。 對一72英吋高之父親, 我們會猜想其兒子 應有 73英吋高, 而對一 64英吋高之父親, 會猜想其兒子應有 65英吋。 真實的情況是, 72英吋高 的父親, 兒子之平均身高約為 71英吋, 而 64英吋高之父親, 兒子之平均身高約為 67英吋, 皆向 平均 69英吋靠近。

其實不獨父子的身高, 考試成績亦有此現象。 計算兩次考試成績, 假設兩次全班的平均成 績差不多。 但第一次成績較高的那群學生, 第二次的成績常略降低, 而第一次成績較低的那群學 生, 第二次的成績常略提高。 迴歸效應再度發威。

是老天爺有心做一些平衡嗎? 倒也非如此。 以身高為例, 來解釋實際上的確會這樣。 假設 某地區 30 歲男子的身高, 最高者為 240 公分。 不需再高些, 就假設這群人兒子的平均身高亦為 240 公分。 因不致於全部兒子都等高, 故其中必會有比 240 公分還矮者, 也會有比 240 公分還高 者。 如此一代超越一代, 人類身高之極大值將不斷提高, 但情況顯然並非如此。 故身高 240公分 的那群父親, 其兒子的平均身高應小於 240 公分。 對身高最矮的那群父親, 其兒子的平均身高, 也有類似的解釋。

再以考試為例。 考試成績為真實的成績加上誤差。 第一次考高分者, 運氣總不會是壞的。 第 二次就不容易在好運之上再加上好運。 例如, 第一次考98分的人, 往上只有兩分的成長空間, 要 提高相當不容易。 而第一次只考 3分的人, 第二次又能再怎麼往下掉呢? 往上升還較可能。 這樣 看來, 迴歸效應的存在, 就不是太怪異了。 早期有些中小學老師以嚴厲著稱。 對考試成績不佳的 學生, 常予以處罰, 而對考得好的學生, 也少有讚美。 他們是不相信鼓勵這一套的。 因長期的經 驗告訴他們, 經過處罰後, 原先考差的學生, 有不少下次的確進步了。 至於原先考好的學生, 下 次卻常略有退步, 若當初還讚美他們, 不是讓他們更鬆懈, 退步更多? 因此那些老師堅信其作法 是對的。 你現在知道了, 這些成績的進步或退步, 很可能只是迴歸效應, 而非老師的作法生效。

六 . 結語

我們經常在做估計, 生活上、 商業上、 科學上、 政治上, 各種估計不斷地在進行。 讀者是否 注意到“做”這一個字的中間及左邊即為“估”。 各種估計法, 背後都有些原理, 也反映人們做決

(18)

策的某種思維。 沒有一種估計法, 能行走天下萬無一失。 本文只是對統計裡的估計, 略做介紹。

讓讀者得到一些基本的概念。 有興趣的讀者, 可從汗牛充棟的統計書中, 找到各種統計估計的方 法。

參考文獻

1. 黃文璋 (2006). 統計裡的信賴。 數學傳播季刊, 30 卷 4 期 (120), 民 95 年 12 月。

2. McDonald, G.C. and Studden, W.J.(1990). Design aspects of regression-based ratio estimation. Technometrics, 32, 417-424.

—本文作者任教於國立高雄大學應用數學系—

參考文獻

相關文件

 考試: 兩次期中考預計於 2019/11/11(星期一)與 2020/1/6(星期一)舉行。考 試時間皆為正課時間,但地點有可能不同,考試日期也有可能再做更改,請 同學隨時留意課堂宣佈事項。. 

將成本減去估計殘值後的數額,在估計耐用 年限內,以合理而有系統的方法分攤,作為

答:請參考課文 P.191-204 &P.259-269。本題需參考政策評估的內容設計本 案例的評估評估方案,惟方案內容無標準答案。.

家族企業評估投資項目的計算方法中, 「I 還本」期法是指需要多久可以回收一個投資計畫的投資 資本。

(一)初試:採筆試方式,題目類型為選擇題,每科目題數各 50 題(每題 2 分,各題未作 答不予計分,答錯倒扣 0.6 分) 。初試成績達參加複試標準(初試科目其中

(二)計算方式:雇主繼續僱用於前款計算期間內,預估成就勞動基準

就是為了讓我們能夠設計一個控制器 (con- troller) 來達到各種不同需求的目標, 如同我 們前面所舉的例子, 為了設計控制系統, 我們 就必須有一些先前的準備工作, 在這裡我們 將它分成 5

名稱 功能性評估重點 評估工具/方式 預估評 估時間