• 沒有找到結果。

人工智慧之擬人化與社會互動能力

第三章、 人工智慧作為法律主體之論爭

二、 人工智慧之擬人化與社會互動能力

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

65

以過往法律主體之理論處理此一嶄新存在,恐有心有餘而力不足。某程度而 言,這也給與了人工智慧挑戰法律主體地位的正當性。

此外,我們也必須了解「法律主體」之概念在中世紀歐洲之後才逐漸與負 擔權利義務的意義連結,並且在其後與自然人的形象重疊進而難以釐清其關係

174。此外,在英國對於公司規範的發展上也能夠看出其務實開放的性質,以及 部分負擔責任、義務的要求並未自始即固著在法律主體之概念上。是以,在單 純法規範層面上,考量法律主體此一概念在過往法制上的開放性,即無法以

「法律主體之概念排斥自然人(或由自然人組成之團體)以外之可能」作為理 由,進而反對人工智慧作為法律上主體之可能。

二、人工智慧之擬人化與社會互動能力

除了從法人發展的歷史脈絡確認法律上主體的開放性之外,我們可能已於 各領域之中將某些被賦予特定外型之人工智慧(無論其程度高低)作為社交之 對象,並且如同正常自然人一般對待其存在。這種「擬人化

(Anthropomorphism)」的現象,經部分學者以哲學、心理學與倫理學之角度探 討,用以補強人工智慧作為主體的見解。此外,對於人工智慧於現今與可能的 未來參與社會實際運作的情形,亦有學者指出其具備一定之社會互動能力。

(一)人工智慧(機器人)擬人化之傾向

在 2007 年,記者 Joel Garreau 報導美軍阿拉莫基地進行自主機器人掃除地 雷測試,在經過一連串行動後,該機器人被地雷炸毀數條移動用肢幹,儘管全 身剩下一條腿仍持續於地上爬行,試圖繼續執行其被交付之任務。該測試負責 人卻立即宣布測試終止,並表示本次實驗不符人道175。此外,學者 Carpenter 亦

174 學者 Visa Kurki 認為這種 Legal subject 與 Person 兩個概念的混淆導致了在法律主體討論上的 混亂。See KURKI, supra note 153, at 53.

175 See Joel Garreau, Bots on The Ground(2007), available at https://www.pressreader.com/usa/the-washington-post-sunday/20070506/282192236550791 (Last visited:2020.6.5).

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

66

分析了美軍使用掃雷機器人時,對於其所產生之信賴與同袍情感如何影響人類 對於該機器人的判斷與互動,並認為擬人化的機器人在某些環境中可能更能有 效發揮其角色之功能,但人類與機器人間之互動會變得複雜化176。上述的案例 所展現之擬人化傾向,即為先前學者 Bryson 所指出之人工智慧「識別問題」。

在心理層面,有論者指出若賦予特定機器人姓名、個性描述與背景,將會 影響大眾對於該機器人之反應177。然而對於此等擬人化的傾向,學者 Kate Darling 不應認為對於僅存在著負面影響,在特定的情境下(例如上開軍事任 務),此種擬人化應該受到限制與貶抑,因為這種情感上的投射將會妨礙原本設 計所欲達成之目的,並且對於人類使用者或合作者產生危險性與執行任務效率 不佳的問題178;然而在其他情況下,擬人化的傾向或許能帶來其他好處,若以 各種醫療照護、社交型機器人等進行說明,透過賦予某種近似於人類的形象,

能夠使這些投入於醫療與社交用途的機器人更容易被社會大眾接受,進而達到 最初設計者促進人類利益之目的。基於這些特定用途的機器人「被視為社會主 體(social agents),而不是工具時179」,能對人類提供最有效的協助,那麼即有需 要對於擬人化進行分析及架構,而不是一概地否定大眾將其擬人化的傾向180

因此,學者 Kate Darling 即主張:

「法律區分事物(res)、主體(agents)與人(people),一方面既可以將所 有的機器人一概認定為客體,也應可接受大眾心理可能以不同角度 看待某些機器人之事實。若人工智慧或機器人在與人們的互動過程 中展現出了非常高的社會性(overwhelmingly social),那麼即得考慮

176 See Julie Carpenter, Just doesn’t look right: Exploring the impact of humanoid robot integration into explosive ordnance disposal teams, in HANDBOOK OF RESEARCH ON TECHNOSELF:IDENTITY IN A TECHNOLOGICAL SOCIETY 609, (Rocci Luppicini ed. 2013).

177 Kate Darling, 'Who's Johnny?'Anthropomorphic Framing in Human-Robot Interaction, Integration, and Policy, in ROBOT ETHICS 2.0:FROM AUTONOMOUS CARS TO ARTIFICIAL INTELLIGENCE 173, (Patrick Lin, et al. eds., 2017).

178 Id. at 175.

179 Id. at 176.

180 Id. at 180.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

67

設計一個全新的法律類別,而在這種情況下,機器人的智慧或能力 將無關緊要。181

(二)從主觀擬人化視角轉向客觀社會功能

儘管上開案例呈現出了人類對於非生命之機器具備將其擬人化之傾向,惟 反對擬人化之見解亦不在少數。學者 Brożek 及 Jakubiec 雖然承認現今於技術上 承認人工智慧之法律地位係屬可能,但以民俗心理學(Folk psychology)的理論作 為依據,他們提出了一個思想實驗:若是人們遭遇了一個外表與互動能力皆極 度擬人化的人工智慧,在人們得知其並非真正之人類的真相後,將會對它態度 有所不同──不再將其視為主體而僅僅係單純之客體,Brożek 等人並指出將主觀 意圖、傾向加諸於無生命之物體並不妥當182;而學者 Bryson 則認為目前一部分 人類對於人工智慧之擬人化實際上乃係過度身分認同,對人類社會整體發展非 常不利。

筆者認為學者 B. Brożek、M. Jakubiec 以及 Bryson 之說法目前似不具有強 烈的論據,Brożek 雖以上開思想實驗舉例,但其最後之結論乃為人們將不再視 該機器人為「道德代理183」,這種結論除了仍欠缺足夠的實證研究佐證外184,更 不應與「是否該將其視為法律主體」之問題相牽連。

而在相關科技仍在進展的情況下,實際上也無法很明確地肯定 Bryson 所說 的「過度身分認同的傾向」是否造成了什麼巨大的社會問題,或者存在著任何

181 Id. at 183.

182 Brożek & Jakubiec, supra note 168, at 301-302.

183 Brożek & Jakubiec, supra note 168, at 302.

184 儘管 Brożek 等人以部分發展心理學之研究指出:兒童傾向將機器人作為具有生命力智慧個 體,但隨著年齡增加,對於該認知將逐漸降低。其認為可表明機器人會被民俗心理影響而逐漸 排除在具有意圖的個體之外。但這也不表示在人工智慧程度漸增的情況下擬人化的傾向不會再 次升高。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

68

急迫而明確之「人類地位」風險185。此外,Bryson 無疑是對於部分人們自願性 地將心思與資源投入於人工智慧或機器人的舉動進行審查與否定,而在尚未釐 清過度身分認同是否有導致嚴重危害的情況下,儘管 Bryson 的質疑有部分可能 性,但實在不得作為否定任何人工智慧擬人、主體化的基礎。相反地,我們反 而在前述案例中可以觀察到,在科技的發展中甚而在社會生活中,人類是如何 傾向希望機器、人工智慧能夠逐漸擺脫冷冰的面貌而具備擬人的外觀,並且我 們與其互動之過程中,亦表現出了這種傾向。

有關承認人工智慧屬於法律主體與否之問題,無論係採肯定擬人化或反對 過度身分認同的看法,筆者認為若以大眾認同或是其擬人化之程度作為判斷是 否視為某種主體之條件,似容易成為模糊不清之標準,上開 Darling 或是 Brożek 等人與 Bryson 之說法即呈現出了明顯的衝突。一方面 Darling 強調擬人 化的優勢,Brożek 等人卻主張人們不會視人工智慧為主體,而 Bryson 反而指出 擬人化是一種過度身分認同之問題。此等觀察,亦將人類在社會道德上應如何 看待人工智慧與法律上應如何看待人工智慧混為一談,難以確立此等說法在法 律層面上之可證性,因此筆者認為上開說法至多僅能做為參考,而非進行法律 如何判斷之依據。

那麼若從社會層面觀察,是否存在著比起上開說法更適宜做為判斷標準的 主張?學者顏厥安特別指出,目前不具備「內在觀點186」的人工智慧中所具備

「智慧」之概念,其判斷之重點或許不再於智慧或心靈之存有問題,而是從社 會功能而言,人工智慧是否已逐漸趨近於人類,進而於特定脈絡下,人工智慧 若是得以表現出特定的功能反應,人們即有可能接受該系統猶如一個心靈187

185 人類是否會於將人工智慧或機器人擬人化之情況下,馬上以人工智慧或機器人代替既有人際 關係,目前仍不清楚其可能性,有論者反倒認為我們將找到一種人機之間的嶄新關係,而不是 取代既有的關係。 See Darling, supra note 177, at 177.

186 顏厥安(2018),〈人之苦難,機器恩典必看顧安慰〉,劉靜怡(編),《人工智慧相關法律議 題芻議》,頁 71,元照出版公司。

187 顏厥安,同上註,頁 79。

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

69

亦即,其已不再討論心靈、智慧等本體論之問題,轉而關注於人工智慧本身所 具備的社會功能性188

若依據學者顏厥安之論點進一步延伸至法律的層次,我們或許能更注重於 人工智慧與人類所共通之某部分功能性,若其能夠展演出特定之社會功能,並 且其行為與結果在法律的層面有著特定的意義(例如說創作、發明、交易之行 為),筆者認為即無須將重點置於探討該人工智慧究竟有無類似於人類之意識或 心靈,因為該人工智慧早已展現出了具有實際社會功能,並且得以被社會接受

189。同樣的,法律對於各種主體資格之承認似乎也呈現出此種特徵,舉例而 言,公司法人、船舶、寺廟並不具備人類之意識或心靈,然而其透過人類於背 後運作,這些原本不能算是實際具有生命的個體存在,於社會上便展現出了社 會互動的能力、更足以令法規範賦予其外顯行為各種法律意義。如此一來,即 可能據此承認人工智慧具有某種法律主體之地位。

因此,筆者認為法律主體地位之承認與否,其重心或許不應置於人類、大 眾心理如何看待人工智慧之存在,儘管這種傾向有利於提升人工智慧在大眾眼 中之地位,但這種以人類心理或情感將人工智慧擬人化之傾向,很有可能過度

因此,筆者認為法律主體地位之承認與否,其重心或許不應置於人類、大 眾心理如何看待人工智慧之存在,儘管這種傾向有利於提升人工智慧在大眾眼 中之地位,但這種以人類心理或情感將人工智慧擬人化之傾向,很有可能過度