• 沒有找到結果。

機器行為的研究方法

在文檔中 AI 倫理治理與醫療防疫 (頁 37-42)

我們可以把告訴機器的行為目的表達成如圖2-4「左」邊的效用函數(Utility Function),例如這樣的效用函數可以要求模型與觀察到的數據之間的誤差 最小(最適化)。這個公式可以讀作:求取使該效用函數損失函數(Cost Function, 𝑙(𝑥))最小化或效益最大化的行為𝑎,其中𝑥為行為結果(Outcome),

𝐸則是期望值(Expectation),p(𝑥|𝑎)則代表𝑎的行為導致𝑥結果的機率。也

把目的視為某一個函數,該函數代表一個利益,或一個損失,並求取該 利益的最大化,或損失最小化。而各式各樣的機器學習任務定義即是通 過各式各樣的效用函數來實現。

資料來源:主講者簡報。

圖2-4 如何向機器表達行為目的

順帶一提的,所謂的「監督學習」係指求取(argmin𝑤)出函數跟觀察的誤 差最小;另一個所謂的「非監督學習」,則是指我所期望的𝐹(𝑥, 𝑤)分佈,

跟我所看到數據(Goal)一致。

(1) 機器行為的產生機制

不同效用函數給予了機器不同的行為目的學習任務,那麼機器行為的 產生機制為何呢?針對效用函數透過數據進行學習,數據給得越多,

學習的模式會不斷的進化。

我們給出表達行為目的之效用函數,那麼學習算法就在數據中通過學 習來產生行為,那麼行為的作法就剛才說的,就是使這個效用函數最 大化,或者最小化,也就是優化效用函數,那麼你數據給了,學出了 結果後。而且如果數據給的越多,這個學習模式還會不斷的進化。

但這個學習的模式基本上就是一個黑箱(Black Box),你無從得知道學 習的過程,我們只能從這個機器行為來反推學習的過程。我們獲取了 行為後,猜測演算法是如何進行學習,這大概就是我們今天對機器行 為的理解。

簡言之,我們設計了某個效用函數,獲取了數據,並以使這個效用函 數最大化作為機器行為的目的,接著找到使該效用函數最大化的參數,

機器行為可透過不斷的學習而進化,而我們透過行為觀察來反推,每 一次學習大概在其行為上起了何等作用。

(2) 機器行為的目的驗證機制

舉例來說,Elon Musk曾提出了一個非線性的效用函數(見公式1):

𝑦1(𝑡) = 𝑦̂1sin (2𝜋𝑓1𝑡) (公式一) 並且用該公式來表達「個人行爲的最大自由(Maximizing Freedom of Action for Everyone)」:但是問題來了,第一個問題是應該怎麼定義 所謂的自由?

第二個問題,我們如何讓人工智慧理解,這個所謂的行為自由是人類 的行為自由,而不是它自己的行為自由,以避免在經濟學中很重要的

「代理人問題(Principal and Agent Problem)」。即使在人與人的世界中,

代理人問題依舊是我們常常糾結之處,例如我們花錢委託律師,但是

是人工智慧的倫理性應該是外在的,還是內生的?

在目前的研究上,我們是把人工智慧的倫理性設為外在的。透過在效用 函數上不斷地定義倫理性,來告訴機器你不能做這個或是那個。然而,

這樣的作法是有局限性的,因為我們無法考慮到各種各樣的特殊情況並 類舉出所有可能性。比方說,早前衣索比亞航空公司(Ethiopian Airlines) 飛機墜機事件即是人工智慧的一個重大失敗。當飛機的自動飛行系統的 過驗證。根據Anicka Slachta的研究,目前94%的人工智慧醫療診斷研究都 沒有經過充分的驗證(Anicka Slachta, April 12 2019)。

但是驗證的本身也面臨兩個重大困難,第一個困難在於雖然我們要求機

數據偏差,來自於哮喘患者更容易被送進重症病房去,才獲得了較高的 存活率。所以求取最優化的本身,並不能夠揭示被隱藏起來的因果關係。

所以,驗證機器行為結果的正確性其實比想像中的複雜,而機器行為結 果若未經過驗證是非常危險的。

4. 行爲的根據(What is the way):爲什麽會得出這樣的結果

最後還有一個重點,就是機器行為的根據為何。我們必須要能夠解釋機 器行為,因為如果不可解釋的話,代表上述的機器行為結果的驗證有很 大的問題。換言之,「可解釋性」是人類對智慧系統設計的要求,智慧 系統必須能夠向用戶解釋其行為。然而,現有許多深度學習模型並不能 向使用者解釋其行為,設計者往往也無法理解其行為過程。(見圖2-5) 其實,對人工智慧的可解釋性從一開始就沒有給予應有的重視,定義機 器智慧的圖靈測試(Turing Test)說,當有一個人將一台機器帶入一個黑屋 子裡面,而外面有另一個人提出一個問題,並且從黑屋子中得到了回答,

但卻無法判斷這個從黑屋子裡得到的回答是人給的還是機器給的,那麼 我們就可以認為這台機器具備了智慧。然而,這樣的測試顯然是忽略了 可解釋性的重要性。

資料來源:主講者簡報。

圖2-5 如何理解機器行為做的對的緣由?

我們可以把圖靈測試改一改就可以判斷機器是否具備真正的智慧,你只 要在問完問題,得到答案後,再問一下,請告訴我你是如何得到這個問 題的答案?如果是人類在回答的話,他肯定能告訴你為什麼,而今天的

機器一般是說不出來。這就是今天人與機器間最重大的區別,機器不能 以「內生的倫理原則(Built-in Ethics)」取代外生的限制條件。

2. 行為目的之非確定性和交互性:

在文檔中 AI 倫理治理與醫療防疫 (頁 37-42)