• 沒有找到結果。

第三章、 人工智慧作為法律主體之論爭

三、 人工智慧主體化之條件

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

70

後,人類所產生之回饋與結果,不應以此作為判斷承認法律主體與否之必要條 件。

三、人工智慧主體化之條件

依照上述肯定論的說法,似乎立法者、法律本身得任意賦予法律主體地位 給任何一種個體,如此一來,肯定論者最後的論述是不是使得法律主體之理論 成為單純法律技術上之工具,而逐漸落入 Naffine 所分類的完全開放說,淪為毫 無標準的恣意判斷?若今日承認了人工智慧之法律主體地位,明日是否又應該 承認猿猴、植物為法律主體?針對此等質疑,筆者認為法律仍然需要值得信服 的實際理由,才能考慮承認某類個體──尤其是人工智慧之法律主體地位190。而 這實際理由,即存在於各個(而非整體)法規範中的具體利弊考量,以及各法 律主體透過明確規範訂下權利義務之程度差異。

(一)務實的利弊考量

既然上開反對及肯定見解之分析表明法律主體不宜與理性自然人或人類之 形象過於聯結,並且其於歷史發展上顯示出了一定的開放性,那麼人工智慧是 否得成為法律主體之判斷標準,即可能須從務實、具體的觀點出發,以決定哪 些個體可能會具備法律主體之地位。在此,筆者認為肯定論者至少必須回應

「為何法律主體的界線只到此為止而不是更加擴張」此一質疑,藉由說明某些 個體於各個法領域上作為法律主體能夠具體處理、避免甚而解決特定之問題,

展現出其具備參與、影響社會互動之能力,如此才得以考慮賦予其法律主體之 地位。

學者 John Dewey 指出若需具備某些屬性方得成為法律主體的話,則可能得 認為賦予某個體法律主體與否之判斷標準在於該個體的行為後果具有社會性,

190 Chen & Burgess, supra note 124, at 76.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

71

並且以法律施以權利義務會使其行為之後果產生變化。如此一來,樹木或動物 等個體無須賦予法律主體地位之理由即十分明顯──它們縱使行動的結果具有社 會性(生產果實或傷害人類)──但其行為並不會因為法律賦予其權利義務而有 所不同191。雖然這種說法以事後觀察其對於法律之反應做為考量,似乎有利於 區分法律主體與客體,但其論述仍有無法解釋之處。此一論點的前提在於必須 仰賴觀察個體是否有反應法律之能力,但是在目前邊緣案例之中(如未出生之 胎兒、植物人、嚴重精神障礙者等)其論點仍然無法有效地將這些個體納入法 律主體的範圍192。最終仍然須在某程度依賴其他法律主體理論輔助判斷。

而對於人工智慧主體化之上開紛爭,學者 Allgrove 則認為多半係來自於我 們問錯了如何判斷法律主體之問題。他認為問題並不在於「某一個體需要擁有 什麼樣的屬性才能成為法人?」或者是「對某一個體施加法律所產生之後續影 響為何?」,真正應該視為重心的是第三種問題:「法律會在什麼樣的條件下,

將某一個體視為法人(legal person)?193」。

在此,反對論者認為人工智慧主體化將會成為規避責任之工具,人類將會 隱匿在人工智慧主體之後,使得真正應負法律責任之人毋庸承擔任何風險194, 其亦指出在近年來人工智慧科技絕大多數皆於組織龐大之公司手中,將人工智 慧主體化,反而提升了一般人民與專業公司間之對抗難度。對此種人工智慧責 任層面上的批判,依筆者見解,可能得提出三點反駁之:

1.將人工智慧主體化並不代表自然人即可脫免所有責任。相反地,自然人 除了應擔負經過事件調查後所確定之責任外,在無法判斷自然人之責任歸屬、

191 Dewey, supra note 107, at 661.

192 Allgrove, supra note 107, at 37.

193 Allgrove, supra note 107, at 38.

194 Wagner, supra note 108, at 609.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

72

因果關係之情況,更可能與其他自然人透過事先對人工智慧主體投注之財產保 證或保險連帶承擔責任,實際上對於被侵害人之保護可能更為周全。

2.回顧公司法人之歷史,亦有論者表達公司法人之制度設計,將使經營者 得以脫免責任之憂慮,然而針對此種情形公司法目前已發展出「揭穿公司面 紗」之法理,並於司法學說及實務上有著足夠之討論與實踐。於人工智慧主體 化之情況下亦應可採取類似法理,用以對抗蓄意藏匿於人工智慧行為背後之自 然人或公司。學者 Allgrove 即特別指出,就「揭穿公司面紗」法理而言,應可 解釋為賦予公司此一社會個體法律地位之條件,而非否認其在法律上之真實存 在195

3.縱使人工智慧不加以主體化,發明者、公司經營者、製造者等之責任追 究仍然係目前難以處理之問題(如自駕車等責任、因果關係之判斷)。相反地,

將其主體化將可能要求其須事先透過註冊相關資料、向政府揭露部分程式運作 方式及訓練資料內容,並利用財產保證或強制保險以確保其負責管理、提供保 險及賠償之人。因此,對於責任之確定可能更為周全。

此外,或許有人會主張人工智慧在社會互動的情況下與外在個體產生之法 律關係與效果仍然可以直接歸於其所有人或使用人,正如同與自動販賣機之交 易實為與自動販賣機之所有人進行交易一般。然而,這樣的論點依然忽略了人 工智慧的自主決策能力在進行社會互動下的高度複雜性。法律之所以能將自動 販賣機與購買人之間的互動結果歸於其所有人乃係因該機器根本無「自我學 習、決策」之可能,自動販賣機僅能依照其設計之程式碼進行外在互動,然而 擁有足夠程度之自我學習、決策之人工智慧並不符合此種條件,其有可能不斷 地透過收集、分析外在環境資訊,在所有人與使用人無法控制之情況下自我進

195 “The ability to lift the veil is a condition of the attribution of legal personality, not a denial of it.”

Allgrove, supra note 107, at 69. 2004. 但部分學者對於揭穿面紗法理之適用效果,係採取較為悲 觀之態度,並不一定能有效利用。See Joanna J Bryson, et al., Of, for, and by the people: the legal lacuna of synthetic persons, 25 ARTIF INTELL LAW 3, 286 (2017).

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

73

步,因而其行為或能脫離原先所有人,甚而是發明人所能預測之結果。是以將 人工智慧與一般自動販賣機等機器類比,認為可依正常方式將法律關係與效果 歸於特定人即有所不當。

(二)各種主體之權利義務程度並非相同

部分學者主張法律上主體地位的判斷標準,並非係一個全有全無的概念,

而係依程度上之問題。學者 Wagner 認為先行判斷法律主體必須具備何種特質的 方法,雖然簡單易懂猶如勾選一份「洗衣清單」,但這種方式卻掩蓋了法律主體 是程度問題而不是全有全無之問題196,Wagner 並引用動物權利學家的說法作為 論證,指出不少動物亦具備某程度的人類特質,諸如智慧、社交能力、情感能 力等(已充分到在洗衣清單上某些格子打勾),卻不受法律承認為主體,在這種 情況下,確實很難明確說明法律上人與非人的界線依據為何。

上開見解認為並非缺乏一項特定要素即不可成為法律主體。那麼若是依照 個體之程度進行審查,將可能在肯定論及否定論之間產生另一種較為妥協之主 張:「並非所有人工智慧皆得以成為法律主體,只有充分證明其能力之人工智慧 方能成為法律主體197」。並且,這種觀點暗示著法律主體之權利義務也會隨著其 程度有所差異,承認法律主體並不涉及權利全有全無之二元選擇,在這一點 上,由法律條文觀察即可確定,例如公司法人自不可能享有自然人所專有之生 命權、繼承權等自然人才能持有之權利198,而人工智慧在這層意義上亦同199

196 Wagner, supra note 108, at 595. 此外,亦可參照松尾剛行(2019),〈關於 AI 的人格〉,2019 年第二屆人工智慧與法律國際學術研討會「新時代的法律衝擊:一場 AI 與法律的國際思辨」

大會手冊》,頁 148-150,(指出儘管目前日本主要係採全有全無之人格概念,但亦有學者主張 人格係「程度」之問題,筆者於會議中亦向松尾剛行先生確認這並非僅有一人採取之見解,如 有誤解文責由筆者自負。)

197 Chen & Burgess, supra note 124, at 91. 其雖然對於人工智慧之法律主體地位採取偏向否定之 見解,但仍肯定於討論其主體地位時必須個別區分審查其能力高低。

198 Wagner, supra note 108, at 599.

199 對於法律上的人(Legal person)權利義務不必同一的這一點,即使是 Bryson 也同意之。See Bryson, et al., supra note 195, at 277.

‧ 國

立 政 治 大 學

N a tio na

l C h engchi U ni ve rs it y

74

在此,學者 Nevejans 批判若承認具備足夠智能之人工智慧屬於法律主體,

則人工智慧(或者代表它們行使權力的自然人)未來可能會要求生命權、尊嚴 權、平等權、退休權或報酬權等權利,屆時反而將導致這些人工智慧不利於人 類使用或市場發展200。然而筆者認為這種看法目前看來實為多慮,若依照上開 權利義務依據主體性質不同而有其界限之看法,那麼人工智慧所應享受之權 利、負擔之義務僅限於立法者在現況考量下明文所規定之範圍內,亦即為人工 智慧在法律上能夠發揮特定功能之範圍。例如專用於創作發明之人工智慧可能 僅得擁有相關之智慧財產權及相關之訴訟權,或者投資型人工智慧可能作為法 律上主體,擁有部分之財產管理、交易權限等。因此,在短期的未來內尚無法 看見人工智慧能夠擁有自我意識與道德思維之情況下,應不會先行承認

Nevejans 所擔憂之生命權、尊嚴權、平等權、退休權或報酬權等權利,筆者站 在較為保守之立場,認為其除法律明文規定之權利義務以外,別無其他依據得

Nevejans 所擔憂之生命權、尊嚴權、平等權、退休權或報酬權等權利,筆者站 在較為保守之立場,認為其除法律明文規定之權利義務以外,別無其他依據得