• 沒有找到結果。

初探台灣民眾對人工智慧產品與服務之採用經驗與信任感

N/A
N/A
Protected

Academic year: 2023

Share "初探台灣民眾對人工智慧產品與服務之採用經驗與信任感"

Copied!
32
0
0

加載中.... (立即查看全文)

全文

(1)

初探台灣民眾對人工智慧產品與服務之採用經驗與信任感

吳泰毅、鄧玉羚

摘要

近年來人工智慧逐漸出現在台灣民眾的日常生活中,而且產品與服務日益多元。

本研究結合創新傳布與調節焦點理論,比較不同使用者特質的民眾(先驅者、猶豫 者、跟風者及觀望者)對 AI 科技所具備相對優勢的觀感差異,進而對整體採用經驗 的影響。同時,也將四項 AI 產品與服務的擬人化程度,再區分為低擬人型(智慧手 環/手表、AI 金融軟體)和高擬人型(數位語音助理、聊天機器人),以媒介等同 論為基礎,進一步檢視民眾採用此兩類型 AI 科技的經驗與其 AI 信任感之間的關聯 性。研究以 2022 年台灣網路調查報告資料(N = 1,725)為數據,結果顯示,先驅者 最看好 AI 科技相比傳統人力服務所具有的相對優勢,而民眾愈看好 AI 所具備的相對 優勢,整體 AI 產品與服務也採用愈多。不過,民眾愈有採用高擬人型 AI 的經驗,對 AI 的信任感愈高,但是對低擬人型的 AI 愈具採用經驗,則與信任感無顯著相關。研 究結果一方面可擴充上述經典理論在新興科技採用議題上的適用性,另一方面亦有助 於 AI 科技在市場推廣及相關政策制定時參考。

⊙關鍵字:AI 信任感、人工智慧、創新傳布、媒介等同論、調節焦點理論、擬人化⊙

⊙本文第一作者吳泰毅為國立陽明交通大學傳播研究所副教授;第二作者鄧玉羚為國立陽明⊙

   交通大學傳播研究所碩士生。

⊙通訊作者為吳泰毅,聯絡方式:Email:taiyeewu@nycu.edu.tw;通訊處:300 新竹市東區⊙    大學路1001號人社二館1F。

⊙本研究獲 111 年度教育部「高等教育深耕計畫」補助部分經費。

⊙收稿日期:2022/12/22 接受日期:2023/01/27⊙

(2)

Exploring the Antecedents and Effects of Taiwanese Users’

Adoption of AI Technologies

Tai-Yee Wu, Yu-Ling Deng

Abstract

This study integrates diffusion of innovations, regulatory focus theory, the media equation, and the tenets of anthropomorphism as research framework to understand Taiwanese users’ adoption of artificial intelligence (AI) technologies. In addition, the relationships between user adoption of lower (smart wearables and AI financial software) and higher (digital assistants and chatbots) anthropomorphic AI technologies and their level of AI trust are investigated. Drawing upon the 2022 Taiwan Internet Survey database (N = 1,725), the results indicated that the “pioneer”—compared to the “hesitator,” “bandwagoner,” and

“fence-sitter”—reported the highest level of perceived AI relative advantage, which in turn promoted their adoption of both the lower and higher anthropomorphic AI technologies. Yet, only adopting higher anthropomorphic AI services and products demonstrated a significantly positive effect on AI trust. The findings help elucidate the resemblance between interpersonal communication and human-machine interaction, drawing implications to marketers and policy makers in promoting the use of AI technologies.

⊙Keywords: AI trust, artificial intelligence, diffusion of innovations, the media equation, ⊙   regulatory focus theory, anthropomorphism

⊙The first author, Tai-Yee Wu, is an Assistant Professor of Institute in Communication ⊙   Studies at National Yang Ming Chiao Tung University. The second author, Yu-Ling Deng,      is a Master’s student in Institute of Communication Studies at National Yang Ming Chiao   Tung University.

⊙Corresponding author: Tai-Yee Wu, email: taiyeewu@nycu.edu.tw ; address: HSS Building ⊙   2, No. 1001, Daxue Rd. East Dist., Hsinchu City 300093, Taiwan R.O.C.

⊙This research was partially supported by the Higher Education Sprout Project, Ministry of ⊙   Education.

(3)

壹、緒論

近年來,人工智慧(artificial intelligence, AI)在大眾日常生活中的應用愈加常 見,舉凡手機的人臉辨識功能、演算法推播的個人化廣告、聊天機器人、智慧家 居系統等,都涉及相關技術。人工智慧係指電腦運算系統具有一定程度的自主性

(autonomy),能夠對所處的環境進行判斷,並為達成某個特定目的而採取行動

(European Commission, 2018)。現今許多的 AI 產品或服務已具備對外在刺激予以回 應(reactive)的能力(例如在對羿中擊敗人類棋王的 IBM「深藍」電腦),或是像數 位語音助理,能夠經由有限的記憶力去學習、優化自身的表現(Joshi, 2019)。

台灣民眾有愈來愈多機會接觸人工智慧產品與服務,不過目前國內仍少有大 規模、全面性的調查資料來描述國人對此新興科技的採用狀況,因此,本研究主要 目的之一,將試圖勾勒整體台灣使用者的面貌,並且進一步了解其 AI 科技的使用 經驗。根據創新傳布(diffusion of innovations, DoI)理論架構,一項新事物被採用

(adoption)與否,和其具有的相對優勢(relative advantage)、採用者個人的創新特 質(innovativeness)息息相關;當新事物令人感覺比現有的同類產品或服務更為優 越、使用者愈敢於及早嘗鮮,則愈可能受到採用(Rogers, 2003)。許多探討當代新科 技採用行為的研究,諸如圖片訊息(photo messaging;Hunt, Lin & Atkin, 2014)、共 享汽車服務(Keller, Aguilar & Hanss, 2018)、Uber 行動應用程式(Min, So & Jeong, 2019)等,皆證實上述的論點。同時,近年也有學者(Lee & Joshi, 2018)從調節焦 點理論(regulatory focus theory)的角度,以促進(promotion)或預防(prevention)

這兩種相對立的價值觀,將新興科技的採用者區分為先驅者、跟風者、猶豫者和觀望 者。本研究將結合以上兩個理論,比較台灣四種類型使用者對於人工智慧產品與服務 相對優勢的主觀差異,以期對 AI 科技採用有更細膩的認識。

此外,人工智慧興起,也引發倫理(ethics)層面的議論,像是 AI 能否確保社 會的公平正義、是否有完善的監管機制、可否促進人類福祉等,反映出人類對於 AI 科技的信任感,有待觀察與深究。包括歐盟(European Union, EU)、經濟合作暨發 展組織(The Organization for Economic Cooperation and Development, OECD)、電機 電子工程師學會(The Institute of Electrical and Electronics Engineers, IEEE)等國際組

(4)

織或學會,已訂定了相關的倫理指引與準則(如:“Ethics Guidelines for Trustworthy AI”;European Commission, 2019)。而研究上也有陸續探討影響使用者對於 AI 信 任感(AI trust)的因素;其中,有文獻以媒介等同論(the media equation;Reeves

& Nass, 1996)為基礎,發現具有人類特質(humanness)的 AI 科技—如語音助 理(Hu & Lu, 2021)、聊天機器人(Lu, McDonald, Kelleher, Lee, Chung, Mueller, Vielledent & Yue, 2022),能讓使用者對其產生較高的信任感,顯示出 AI「擬人化」

(anthropomorphism)的優勢。不過,目前相關的研究多著眼於單一種人工智慧產品 或服務,較難論斷這種擬人的優勢能否廣泛適用,因此本研究也將比較不同類型的 AI 科技,是否因其擬人化程度的高低差別,影響使用者的信任感,以擴充此議題的研究 成果。

綜上所述,本研究整合創新傳布、調節焦點理論、媒介等同論等有關概念,應用 於人工智慧科技的使用情境,並以財團法人網路資訊中心《2022 年台灣網路報告》的 調查資料為具體依據,從使用者特質、AI 相對優勢、採用行為和信任感等面向,分 析台灣民眾 AI 產品與服務的使用經驗。研究結果能捕捉不同類型使用者的比例,以 及掌握包括智慧手環/手表、聊天機器人、數位語音助理,和 AI 股票基金軟體等新 興科技在台灣的採用現況;同時,也可增進了解 AI 擬人化在形塑使用者信任感上的 效果,從中估量人類特質在人工智慧應用中的重要程度,藉以省察 AI 與人的競合關 係,並且思考如何設計、推廣更值得信任的 AI 科技。

貳、文獻探討

一、AI 科技的採用者類型與相對優勢

Rogers(2003)的創新傳布理論主要從「人」(如:個人、團體、組織)、「事 物」(如:新技術、新科技)及「過程」(如:決策過程、採用速率、管道)等面 向,解釋社會上新事物的傳布與採用;其中,人、事物是創新傳布行為中的兩個主 體,而過程則是人與事物的共同影響,並反映這個行為具有「隨時間發展」的動態性 質。在人的方面,Rogers 主要著眼於採用者,具體可分為創新者(innovators)、早期

(5)

採用者(early adopters)、早期多數(early majority)、晚期多數(late majority),

以及落伍者(laggards)等五種類型,反映出當一個新事物出現在社會上,人在採用 時的速率快慢不一。Rogers 同時也分析造就出這五種不同採用者類型的幾個因素,包 括社會經濟地位、人格特質與溝通行為等,比如早期採用者相對於較晚期的採用者,

一般來說有受過較長時間的正規教育、較不墨守成規,以及有較多人際溝通的管道和 使用大眾媒體的機會。此外,這五種採用者類型也體現出採用者本身創新特質的高 低,近年來有些研究即在探討此一個人特質對新科技採用行為的影響,例如 Hunt et al.(2014)證實,使用者創新特質能夠正向預測圖片訊息發布、分享等行為的動機,

而 Keller et al.(2018)亦發現,使用者創新特質與其採用共享汽車服務平台的意圖呈 正相關。

在事物方面,Rogers(2003)也具體指出一個新事物的採用速率受到其五 項特質(attributes)多寡的影響,包括可相容性(compatibility)、複雜程度

(complexity)、可試用性(trialability),可觀察性(observability),以及相對優 勢。整體而言,除了複雜程度與其採用速率呈負相關,一項新事物如與既有價值或使 用者過往經驗愈相符、愈有予人試用的機會、愈容易讓人觀察得到,並且愈明顯優於 前身版本或舊有形式,則愈能加快採用的速度。近期以新科技為主體的實證研究多能 驗證以上論點,如 Cha(2013)比較對電視與網路串流平台的使用意圖,發現受訪者 若認同串流平台具有較高的可相容性、相比電視具有愈多的優點,便愈有可能採用串 流平台;反之,則愈傾向維持傳統的電視收視方式。而 Min et al.(2019)將創新傳布 中的新事物主觀特質結合科技接收模式(technology acceptance model, TAM),探討 Uber 應用程式使用者的使用行為,結果發現該程式的相對優勢、可相容性、可觀察 性、複雜程度皆會顯著影響使用者對該程式的感知的實用性(perceived usefulness)與 易用性(perceived ease of use),進而影響使用態度和持續使用意願。

以創新傳布為理論基礎的研究在探討採用行為時,不少都會同時檢驗採用者類 型和新事物特質的影響(如:Hunt et al., 2014;Keller et al., 2018),但是並未特別深 究「人」與「事物」這兩方面之間的關聯性(無論是相關性或因果關係)。不過,

創新傳布理論相當強調採用者本身的主動性(activity),即使是落伍者,在 Rogers

(2003)的定義中,也是因為其對新事物抱持懷疑、抗拒,而決定不輕易採納,並非

(6)

受制於外在因素而被迫較晚採用;同時,對於新事物的五項特質,Rogers 重視的也是 採用者的主觀評估,而非新事物本身具備哪些促進採用的客觀條件,因此可以合理推 斷出「採用者→對新事物特質的主觀看法→採用行為」這樣的採用過程。本研究探討 台灣民眾採用人工智慧產品與服務的情形,也將依循此採用過程,檢驗人、新事物和 採用行為之間的關聯性。

在 AI 科技的採用者方面,創新傳布理論提出從創新者到落伍者等五種類型

(Rogers, 2003),或是從個人的創新特質高低進行判斷(Hunt et al., 2014;Keller et al., 2018);然而,前者的缺點在於僅以人採用新事物的速率快慢為考量,後者則往 往侷限在反映人是否具有敢於創新的態度或作為(如:「我會保持好奇心」,Hunt et al., 2014,p. 174;「我喜歡嘗試新科技」,Keller et al., 2018,p. 16),且兩者所描繪 的採用者的面貌皆較為單一。近期則有學者(Lee & Joshi, 2018)另闢蹊徑,運用調節 焦點理論解釋組織中的新科技採用行為。調節焦點理論由 Crowe and Higgins(1997)

提出,本在探討組織中制定決策、解決問題時,員工會基於不同的動機(motivation)

而採取不同的策略;其中,若將焦點放在促進,則可令員工產生追求進步、冒險的動 機,進而採取大膽實現想法的策略,但如果聚焦於預防,則可能引發員工注重穩當、

負責任的動機,因而採取審慎、保守的策略。而人的調節焦點除了可受外在刺激所誘 發,自身性格也可能有促進或預防兩種傾向之別,一般而言,促進傾向的人較積極進 取,重視可能獲得的結果,而預防傾向的人則以安全感為重,對於可能的損失較為在 意、警覺(Brockner & Higgins, 2001)。

除了外在刺激與自身性格,個人身處的環境、氛圍甚至文化也可能影響人傾向促 進或預防。例如,Lee and Joshi(2018)認為個體主義(individualistic)文化較推崇獨 立自主,因此在該文化情境(cultural context)或認同該文化價值(cultural value)的 人,較有可能傾向促進焦點的思維或行為;反之,集體主義(collectivistic)文化或價 值導向的人則較有可能傾向預防焦點的想法或做法。Lee and Joshi 並從文化(環境)

價值上的促進—預防焦點之分,以及個人對於新科技採用的促進—預防焦點之別,將 採用者分為四種類型,包括:1、文化價值傾向促進、個人對於採用行為也傾向促進 的先驅者,他們往往看中新科技可能帶來的機會與優點,於是選擇及早採用;2、文 化價值傾向預防,但個人對於採用行為傾向促進的跟風者,明知新科技可能帶來的負

(7)

面影響,但基於大勢所趨,只好選擇跟風採用新科技;3、文化價值傾向促進,但個 人對於採用行為傾向預防的猶豫者,雖然明知新科技能帶來若干好處,卻不想做白老 鼠;4、文化價值傾向預防,個人對於採用新事物也傾向預防的觀望者,看重新科技 可能帶來的不利與威脅,因此抱持觀望的態度避免冒險。本研究認為調節焦點理論的 促進、預防之差,能夠更細膩地解釋人人創新特質高低不一的原因,再加上兩種面向 的促進、預防組合,將採用者選擇及早或延遲採用新科技的面貌描繪得更加多元而立 體,比如 Rogers(2003)的早期採用者可能是基於新科技所創造的機會(先驅者),

也可能是怕落人後所以不得不跟進(跟風者)。基此,本研究在探討台灣新興科技採 用者類型時,將採取 Lee and Joshi(2018)的分類。

而在人工智慧產品與服務的特質方面,本研究將聚焦於採用者主觀上對其感到的 相對優勢。人工智慧顧名思義,是將人類智慧做為參照,但在參照的同時,又往往有

「不同於」甚至「更勝於」傳統的人力的隱喻。例如 AI 客服是在比擬可以互動、洽 詢的真正客服人員,不過與真人互動受限於對方的上班時間、體力、情緒等「個人因 素」,與 AI 客服互動則沒有這些限制。又如當今的 AI 翻譯軟體或應用程式已能做到 在短時間內整句、整段、整篇文字的辨識及多國語言翻譯,從效率來看,早已超越過 去人工手查字典,逐字、逐段、逐句理解與轉換語言的曠日廢時。而手機做為現代人 在日常生活中經常必須隨身、隨時使用的電子工具,使用密碼解鎖的安全性也不比運 用 AI 技術辨識主人長相來得有保障,至於解鎖時不必多次觸碰手機螢幕,對使用者 來說也更加便利。

對樂於接觸、嘗試新興科技的人來說,往往較能看重科技可能對生活帶來的進步 與改善,因此應更能贊同以上幾項 AI 科技優於傳統人力特色與賣點;然而對於較為 保守的觀望者而言,新科技的採用往往會對既有習慣帶來衝擊,也可能令人懷疑會造 成新的問題,所以不見得能贊同這些相對優勢,比如 AI 客服在理解疑問與應答上可 能不如真人,因此互動起來更浪費時間;AI 翻譯軟體對文字和文法的詮釋結果未必恰 當,因此解讀起來可能會有滑稽謬誤;而人臉辨識的設定操作不易,又可能有更高的 個資風險,因此還不如密碼解鎖方便。有鑑於此,對新興科技懷抱不同焦點傾向(促 進或預防)的使用者,在看待 AI 相對優勢時的贊同程度應有所差別,本研究據以提 出假設一:

(8)

H1:不同類型的新興科技使用者,對 AI 相對優勢的贊同程度有顯著差異;先驅 者對 AI 相對優勢的贊同程度最高,觀望者的贊同程度最低。

此外,根據創新傳布理論(Rogers, 2003),使用者如果愈贊同新科技具有超越 傳統技術或服務的相對優勢,便愈有可能及早採用這項新科技(如:數位教材與教 具,Hsbollah & Idris, 2009;共享汽車服務平台,Keller et al., 2018),因此也可以合 理推論相對優勢與採用 AI 科技之間存在正向的關聯性。據此,本研究提出假設二:

H2:對 AI 相對優勢的贊同程度愈高,採用 AI 產品或服務的經驗愈多。

同時,整合上述兩個假設,不同類型的新興科技使用者對於 AI 所能具備的相對 優勢可能贊同程度不一,所以在實際的採用經驗上應該也會有所不同;換句話說,新 興科技使用者類型不同,其 AI 科技的採用經驗應有差異,且此兩者之間的關係也可 能受到其 AI 相對優勢贊同程度所影響。基此,本研究再提出以下兩個假設:

H3:不同類型的新興科技使用者,其採用 AI 產品或服務的經驗有顯著差異;先 驅者的採用經驗最多,觀望者的採用經驗最少。

H4:新興科技使用者對 AI 相對優勢的贊同程度會中介使用者類型與其採用AI產 品或服務經驗之間的關聯性。

二、AI 信任感

無論在社會科學、心理、哲學或商管等領域,信任(trust)都是被廣泛探討的 概念(如:Cook, 2001;Hardwig, 1991;Mayer, Davis & Schoorman, 1995;Toreini, Aitken, Coopamootoo, Elliott, Zelaya & Van Moorsel, 2020)。比如根據 Mayer et al.(1995)提出組織管理的信任模型,除了個人本身性格上是否容易相信他人,對 方的能力(ability)、善意(benevolence)及誠信(integrity)等,都是影響是否可 被信任的判斷指標。此外,Dietz and Den Hartog(2006)認為對方行為的可預測性

(predictability)也是影響信任的重要因素,並且可以強化對於對方能力、善意及誠信 等面向的主觀感知。

然而,人—機之間的信任感又比人際之間的信任複雜,兩者的差別在於討論人 機信任時,還必須考量科技本身,以及科技的提供者。Siau and Shen(2003)探討有

(9)

關消費者對行動商務信任,指出信任的建立是一個持續發展的複雜過程,可以分為最 初的信任形成,和持續的信任發展兩個階段,其中包含消費者從考量服務提供者的品 牌印象、初期對科技產品的可行性評估到品牌的誠信、能力及產品的可靠性等各種因 素。Siau and Wang(2018)則從人類、環境和技術等三個面向定義科技信任感,人類 特徵包含了人的性格和科技擁有的某項能力;環境聚焦在任務本質、文化背景及機構 因素;而技術特徵則以機器的工作情形、運作過程還有其目的視為影響信任的要素。

至於影響人類對於 AI 科技信任感的因素,大抵也可以從上述三個面向檢視。

比如對 AI 抱持懷疑態度的人認為 AI 的演算法無法靠人類思維完成任務,而悲觀主 義者則認為隨著機器的智能化,機器會做出比人類帶來更好效果的決策,接著取代 人類(Makridakis, 2017);以上是從人類面向的探討,無論 AI 不夠像人或「超越 常人」,都反映出人類對於 AI 科技所存有的不信任感。若從環境面來看,也有研究

(Tai, 2020)指出 AI 可能會減弱人際間的親密感、取代人類導致失業率提升、貧富 差距擴大、無法被人類控制,甚至被有心人士濫用等令人憂慮之處。至於技術方面,

根據 Grosz and Stone(2018)的研究報告,AI 在醫療及教育上的應用可以改善提升人 類的健康及生活品質,但前提是必須得到醫生、護士、病人及老師等相關利害關係人 的信任。而 Toreini et al.(2020)則整理過去學者對科技信任感的研究,提出了一個較 具整合性的 AI 信任感構念,含括公正性(fair)、可解釋性(explainable)、可監督 性(auditable)和安全性(safe)四項指標,認為 AI 應有專注於偵測及預防不同族群 間歧視及偏見的公正性,且具有可以人性化方式向其利害關係人解釋及說明結果的技 術,能讓第三方和管理者監督、挑戰或監控運作模式的技術,最後確保在被惡意攻擊 的情況下仍能如期完成任務的安全性。

由於文獻(如:Araujo et al., 2020;Molina & Sundar, 2022)中的 AI 信任感多是 依使用者的主觀感知(perception)為判斷依據,使用者對新興科技的採用立場與傾向 不同,應也可能影響對人工智慧的信任程度。本研究根據 Lee and Joshi(2018)的分 類,依調節焦點理論的預防與促進之別分成四種新興科技使用者類型,其中,在文化 價值與個人採用行為皆屬促進傾向的先驅者,最能看出新科技帶來的機會與優點,對 AI 應該也愈敢於信任;而在文化價值與個人採用行為皆屬預防傾向的觀望者,最不願 承受風險與挑戰,對於人工智慧的負面影響應該也愈加敏感。據此,本研究提出假設

(10)

五:

H5:不同類型的新興科技使用者,對 AI 信任感有顯著差異;先驅者的 AI 信任感 程度最高,觀望者的信任感程度最低。

三、AI 擬人化、採用經驗與信任感

由於人工智慧科技無可避免地會被用來與人類進行比較,AI 在功能與形象上愈 是像人或愈不像人,是否也會影響人類對其的信任感,此乃本研究期望進一步探討 的議題。擬人化指的是以人類的特質、意圖、動機、情緒等來詮釋非人類的行為者

(nonhuman agent)的表現(Epley, Waytz & Cacioppo, 2007),比如將天上閃爍的星 星形容為在「眨眼」,或是對於未能正常運作的機器形容為在「罷工」。隨著愈來 愈多的傳播科技融入人類生活,人機互動研究領域對於人類為何、如何將科技與機 器「擬人化」,以及擬人化後產生的影響,也有愈多的討論(如:Cowan, Branigan, Obregón, Bugis & Beale, 2015;Gong, 2008;Kim & Sundar, 2012)。其中,Reeves and Nass(1996)提出媒介等同論,並衍生出「電腦即社會行動者」(Computers are social actors, CASA)研究典範,指出在人機互動過程中,當電腦發送出一些社會/社交線 索(social cues)時,人類會視電腦為一個社會行動者,並據以表現出對應的社會反應

(Nass & Moon, 2000;Nass, Steuer & Tauber, 1994)。例如 Nass and Lee(2001)研究 購書網站上的語音系統,藉由操弄語速、頻率、音量等,設計出內向性格和外向性格 兩種語音情境,並發現當實驗受試者本身的性格和購書系統語音的性格相符時,受試 者會認為該網站語音更具吸引力、可信度,同時也更有意願購買該語音推薦的書籍。

CASA 典範刻意用「社會行動者」來與擬人化這個概念進行區隔,因為學者

(如:Nass & Moon, 2000)認為擬人化是指人真心、全然、有意(mindful)地將一 個非人類行為者視為人類般對待,而在人機互動中人們多數時候其實非常清楚地知道 電腦並不是人,所以只是無意(mindless)之中使用了對待「他人」的方式與電腦互 動。不過,也有學者(Kim & Sundar, 2012)將電腦在互動時所表現出的社會∕社交線 索稱作「擬人化線索」(anthropomorphic cues),因為它們仍是用於提醒使用者該介 面上的類人屬性,顯示擬人化這個意涵也並非只有絕對一種的解釋。由於本研究的目

(11)

的不在對擬人化或 CASA 典範進行文獻綜整或概念解析,而是著眼於不同擬人化程度 的人工智慧科技如何影響使用者觀感,因此文中提及擬人化一詞時,將泛指各種可能 令使用者覺得AI產品及服務「像人類」的情況。

在人機互動領域中,已有許多實證研究證實 CASA 典範的論點,例如認為擬人 化可以提高人類對機器作為團隊合作夥伴的接受度(Kuz, Mayer, Müller & Schlick, 2013),並有助於建立親密的人機關係(Zhang & Rau, 2023)。而隨著社交型機器人

(social robots)日益常見,Złotowski, Proudfoot, Yogeeswaran and Bartneck(2015)也 發現機器人的外觀造型設計愈來愈與人類外觀相似,像是利用兩個攝影機當作眼睛,

兩個麥克風作為其耳朵,以腿代替輪子移動等。而在虛擬代理人方面,也看得出在 形象上都不斷地以擬人化的角度設計,以不同的面貌與人類互動,例如聲音(Nass, Moon & Green, 1997;Nass et al., 1994)、語言能力(Bengtsson, Burgoon, Cederberg, Bonito & Lundeberg, 1999)、合成臉孔(Cowell & Stanney, 2005)等。由此可見,人 機互動領域已廣泛運用擬人化的元素以提升人機互動效果。

中文所說的「人工智慧」,或可解讀為讓機器具有像人類一般的智慧,這個詞本 身便有著擬人化的意味,與一些學者們(如:Moussawi & Koufaris, 2019;Moussawi, Koufaris & Benbunan-Fich, 2021)認為 AI 擬人化是一種能令使用者感知(perceive)到 AI 人性化(humanlike)的看法相近。本研究著眼於智慧手環/手表、聊天機器人、

數位語音助理,和 AI 股票基金軟體等四項 AI 產品與服務,其中,聊天機器「人」和 數位語音「助理」在中文名稱上都具有擬人化的指涉,因此使用者在理解與運用時,

有可能會產生如同對待人類一般的期待。而也有研究發現,機器人的外觀及化身會影 響其擬人化的程度(Blut, Wang, Wünderlich & Brock, 2021)、附有語音輸出功能的系 統會提高消費者的擬人化感知,進而對該系統產生更正向的態度(Rzepka, Berger &

Hess, 2020),由此可證,有頭像功能和附有自然語言處理背景的聊天機器人,以及 具語音輸出功能的數位語音助理等 AI 產品,被使用者感知到的擬人化程度較高,因 此本研究將此類 AI 產品視為「高擬人化產品」。相對地,即使已有研究指出智慧手 環可以透過心率偵測使用者的情緒(Shu, Yu, Chen, Hua, Li, Jin & Xu, 2020),以及 AI 投資軟體以輔助的方式提供能有最佳獲利的投資建議(Shramko Petrenko & Yatsenko, 2021),但不論是應用程式的數據呈現,還是智慧手環介面中的簡單符號或文字,都

(12)

是偏向任務導向的人機互動。對於使用者來說,這類 AI 產品的服務以功能性為主,

而非人性化,且手環、手表、軟體在名稱上也都僅有物品的內涵,較無法令使用者直 接聯想其為人類,因此與聊天機器人和數位語音助理等高擬人化 AI 產品相比,本研 究視其為「低擬人化產品」。

以媒介等同論、CASA 典範為理論基礎,過去學者認為人類傾向於將人際間的互 動規範應用在人機互動中(Madhavan & Wiegmann, 2004;Nass et al., 1994),表示 人類與機器互動時,也會建立類似與人類夥伴互動產生的信任感。同時,也有研究 指出,在信任感建立的初期,人類會愈容易與更像人的機器人建立情感連結(Siau &

Wang, 2018)。此外,對於自駕車信任的研究結果亦顯示,自駕車如果附有姓名、性 別及聲音等擬人化特徵,車主會比較信任自駕車,當事故發生時,也不會將錯誤歸咎 在自駕車的技術(Waytz, Heafner & Epley, 2014)。

然而,在某些情況下,擬人化也可能無法增加使用者對 AI 產品的信任。比如 Chen and Park(2021)研究智能助理對使用者信任感的影響,結果顯示智能助理的感 知擬人化程度對於認知信任或情感信任皆無顯著的直接效果,主因是智能助理的任務 吸引力及社交吸引力完全中介了上述變項的關聯性,意即唯有在智能助理能夠發揮完 成任務的能力、並讓使用者覺得互動起來有趣、愉快,才讓人具體產生信任感。而 De Visser, Monfort, McKendrick, Smith, McKnight, Krueger, and Parasuraman(2016)發現,

在任務不確定性較高時,結合擬人化特徵的自動化系統可能會減少使用者起初對系統 建立起的信任感,即在互動初期使用者會對自動化系統抱持較高的期待,但在無法達 成任務時,卻以擬人化的方式回覆,使用者可能會有被欺騙的感覺,且認為系統缺乏 誠信,因此損害對其的信任。此外,Araujo et al.(2020)的研究結果也證實,AI 使用 介面的擬人化程度越少,使用者愈會認為人工智慧所做的選擇是有公正無私的;換句 話說,高度的擬人化介面並不會提升使用者的信任,反而會增加使用者疑慮進而降低 其信任。

根據上述相關文獻爬梳,過去學者針對 AI 擬人化對信任感產生的影響,雖然有 較大部分的研究結果能證實擬人化與信任感具有正相關,但也有一部分學者對不同情 境及觀點下的擬人化效果提出不同的結果,顯示擬人化程度與 AI 信任感之間的關聯 性可能仍然存在許多有待檢證的角度,因此本研究聚焦於 AI 科技採用經驗的多寡,

(13)

提出研究問題一:

RQ1:不同擬人化程度的 AI 產品或服務的採用經驗,是否會影響對 AI 的信任 感?

參、研究方法

一、樣本

本研究採用財團法人網路資訊中心(2022)《2022 年台灣網路報告》的調查數 據進行分析,研究對象為居住在全台六都與 16 個縣市、18 歲以上的民眾,調查期間 自 2022 年 2 月 14 日至 3 月 15 日。調查方式包含住宅電話與手機電話,前者係以全 台 22 都、縣、市為分層依據,按照各都、縣、市的家戶比例抽樣市話號碼;手機電 話則以隨機撥打的方式取樣。調查結果合計有效樣本數 N = 2,228,其中住宅電話 n = 1,113,手機電話 n = 1,115。本研究以資料中的 AI 題組相關題項做為分析依據,經進 一步處理,刪除填答不完整、對部分題目表示沒有相關經驗、不知道,或拒答者之資 料,最後就樣本數 N = 1,725 進行分析。

二、測量變項

(一)使用者類型。以 Lee and Joshi(2018)根據調節焦點理論所區分的四種科 技採用立場為理論基礎,編寫包括先驅者(「新科技可以改善生活,搶當先驅者」;

n = 371,21.5%)、跟風者(「害怕跟不上別人,所以趕快跟風」;n = 68,3.9%)、

猶豫者(「新科技可以改善生活,但不想當白老鼠」;n = 575,33.3%)和觀望者

(「新科技發展尚未成熟,所以抱持觀望態度」;n = 711,41.2%)等四種使用者特 質的選項,以單選題形式請填答者選擇最符合其個人對於新興網路科技(如 5G、人 工智慧產品與服務)使用的想法。

(二)AI 相對優勢。題目引用自 Cha(2013)比較網路之於電視的相對優勢,並 加以改寫以符合本研究議題之語境。調查時電訪員首先向受訪者詢問:「相較於過去

(14)

傳統的方式(如:真人客服、自行查字典翻譯、手機輸入密碼解鎖等),請問您同不 同意以下的說法?」,之後讀出兩個題目:(1)人工智慧產品與服務更能滿足您的 需求;(2)人工智慧產品與服務能讓您的生活過得更好。選項採 Likert 五等量尺,

從 1「非常不同意」至 5「非常同意」(M = 3.51,SD = 1.02;r = .57,p < .01)。

(三)整體 AI 採用經驗。題目以「請問過去一個月您使用過以下哪些人工智 慧服務或產品?」為前提,蒐集受訪者對於智慧手環/手表(有使用過:n = 470,

27.2%)、AI 股票基金軟體(有使用過:n = 108,6.3%)、聊天機器人(有使用過:

n = 322,18.7%),和數位語音助理(有使用過:926,53.7%)等四項 AI 科技的 採用經驗,並再編碼成一連續變項,將過去一個月未使用過者編碼為 0(n = 597,

34.6%),使用過任一項者編碼為 1(n = 607,35.2%),使用過任兩項者編碼為 2(n

= 369,21.4%),使用過任三項者編碼為 3(n = 127,7.4%)皆使用過者編碼為 4(n

= 25,1.4%)。整體採用經驗:M = 1.06,SD = .99。

(四)高擬人化採用經驗。題目同上,並將聊天機器人與數位語音助理的採用經 驗編碼成一連續變項,過去一個月皆未使用過者編碼為 0(n = 733,42.5%),使用過 任一項者編碼為 1(n = 736,42.7%),皆使用過者編碼為 2(n = 256,14.8%)。高 擬人化採用經驗整體 M = .72,SD = .71。

(五)低擬人化採用經驗。題目同上,並將智慧手環/手表與 AI 股票基金軟 體的採用經驗編碼成一連續變項,過去一個月皆未使用過者編碼為 0(n = 1194,

69.2%),使用過任一項者編碼為 1(n = 484,28.1%),皆使用過者編碼為 2(n = 47,2.7%)。低擬人化採用經驗整體 M = .34,SD = .53。

(六)AI 信任感。本研究依據 Toreini et al. (2020)對於可信任的機器學習科技

(trustworthy machine learning technologies)所提出的公平性、可解釋性、可監督性、

安全性等四項指標及定義,編寫測量 AI 信任感的有關問題,包括(1)人工智慧產品 與服務能夠減少偏見或歧視(如:不管使用者是男生或女生,AI 客服或 Siri 都不會有 差別對待);(2)人工智慧產品與服務所提供的資訊內容容易理解(如:您可以明 白 AI 客服或 Siri 說的內容);(3)人工智慧產品與服務能被政府、企業或第三方機 構完善監督管理(如:第三方為民間公正機構;(4)人工智慧產品與服務能夠保障 您的人身或財物安全(如:居家保全系統)。選項採 Likert 五等量尺,從 1「非常不

(15)

同意」至 5「非常同意」(M = 3.17,SD = .90;α = .68)。

(七)控制變項。根據《2022 台灣網路調查報告》(財團法人網路資訊中心,

2022),目前台灣的 AI 產品服務採用者多為 50 歲以下,且具有專科以上學歷者,

顯示年齡、學歷可能影響 AI 採用經驗;同時,不同類型的新興科技使用者也因性別 有所差異(如先驅者:男性 n = 212,女性 n = 159;跟風者:男性 n = 24,女性 n = 44),因此本研究將性別(51.5% 為男性)、年齡(M = 44.59;SD = 14.64),以及 教育程度(小學及以下:1.6%;國、初中/初職:3.9%;高中、職:23.5%;專科:

13.0%;大學:44.3%;碩士及以上:13.6%)等三個人口變項做為假設檢定時的控制 變項。

三、共線性檢定

共線性檢定(collinearity test)主要在檢驗預測變項之間是否具有過高的相關性,

因而影響個別預測變項對依變項的統計效果值的判斷(Field, 2009)。本研究首先使 用 IBM SPSS Base 22 版中的雙變數相關係數檢定,結果顯示所有的預測變項(即:使 用者特質、AI 相對優勢、高擬人化 AI 採用經驗、低擬人化 AI 採用經驗)的相關係數 r 值介於 -.27 至 .28,表示預測變項兩兩之間的效應大小(effect size)為低度(small)

至中度(moderate)之間(Cohen, 1988)。詳如表一。其次,再透過線性迴歸的共線 性診斷(collinearity diagnostics)功能,將四個預測變項先置於「自變項」欄位,再輪 番將其中一個變項挪至「依變項」欄位,以取得各變項與其餘三個變項之間的變異數 膨脹因子(variance inflation factor, VIF)數值。研究發現,所有的變異數膨脹因子數 值介於 1.02 至 1.11,顯示預測變項之間共線性疑慮有限。

表一:本研究預測變項之間雙變數相關係數表

1 2 3 4

1

使用者類型 --

2

AI 相對優勢 -.27

**

--

3

高擬人化 AI 採用經驗 -.18

**

.17

**

--

4

低擬人化 AI 採用經驗 -.11

**

.11

**

.28

**

--

**p < .01

(16)

肆、研究結果

本研究以 SPSS 統計軟體為分析工具,使用一般線性模型(general linear model)、多元迴歸分析,以及搭配 Hayes(2021)所研發的 PROCESS macro 外掛程 式 4.0 版進行假設檢定,並回答研究問題。首先,H1 推論,不同類型的使用者對 AI 具有相對優勢的贊同程度有顯著差異,且先驅者的贊同程度最高,觀望者的贊同程度 最低。描述性統計指出,先驅者的 AI 相對優勢最高(M = 3.96,SD = .88),其次依 序為跟風者(M = 3.58,SD = .94)、猶豫者(M = 3.57,SD = .98),及觀望者(M=

3.22,SD = 1.03)。接著,以一般線性模型檢驗使用者特質在 AI 相對優勢贊同程度 上的可能差別,結果顯示四者的平均數確實存在顯著差異:F (3, 1718) = 44.47, p <

.001。再透過 LSD 法進行事後檢定,發現先驅者與其餘三者的平均數差異皆達顯著;

而跟風者與猶豫者的平均數差異未達顯著(Mdiff = .03,SD = .13,p = .795),但與先 驅者、觀望者的差異分別皆為顯著;而 AI 相對優勢平均數最低的觀望者與其他三者 平均數的差異也皆為顯著。基此,H1 成立。

再同樣以一般線性模型先檢驗 H3,以了解不同類型的使用者在整體採用 AI 產 品服務的經驗上是否確有顯著差異,且先驅者的採用經驗最多,觀望者的採用經驗最 少。結果顯示,先驅者的 AI 採用經驗最多(M = 1.35,SD = 1.06),其次依序為猶 豫者(M = 1.11,SD = .99)、跟風者(M = 1.01,SD = 1.01)、及觀望者(M = .87,

SD = .91),且四者的平均數確實存在顯著差異:F (3, 1721) = 21.14, p < .001。LSD 法 事後檢定亦發現先驅者與其餘三者的平均數差異皆達顯著,而猶豫者與跟風者的平均 數差異未達顯著(Mdiff = .10,SD = .12,p = .439),但與先驅者、觀望者的差異分別 皆為顯著;而整體採用經驗平均數最低的觀望者與先驅者、猶豫者的平均數差異也達 顯著,但與跟風者的差異不大(Mdiff = -.15,SD = .12,p = .230)。基此,H3 部分成 立。

而 H5 則驗證不同類型的使用者在 AI 的信任感上的差異。經由一般線性模型分 析,可知四種不同類型使用者以先驅者的 AI 信任感最高(M = 3.57,SD = .82),

其次依序為跟風者(M = 3.37,SD = .79)、猶豫者(M = 3.14,SD = .87),及觀望 者(M = 2.96,SD = .90),且四者的平均數確實存在統計上的顯著差異:F (3, 1718)

(17)

= 45.74, p < .001。再透過 LSD 法進行事後檢定,發先驅者與其餘三者的平均數差異 皆達顯著;而跟風者雖與猶豫者的平均數差異未達顯著(Mdiff = .18,SD = .11,p = .105),但與先驅者、觀望者的差異分別皆為顯著;至於 AI 信任感平均數最低的觀望 者,與其他三者平均數的差異也皆為顯著。以上結果說明,最敢於嘗試新科技的使用 者對 AI 信任感最高,而愈猶豫、甚至採取觀望立場者,也愈對 AI 科技的信任度愈有 限,結果支持 H5。

接著,本研究進一步應用 PROCESS macro 中的 Model 4,檢驗 H2(AI 相對優勢 的贊同程度與 AI 產品或服務採用經驗呈正相關)和 H4(AI 相對優勢贊同程度會中介 使用者類型與 AI 採用經驗之間的關聯性)。首先,將不同使用者類型做為自變項,

AI 相對優勢為中介變項,整體 AI 採用經驗為依變項,並將性別(男 = 1;女 = 0)、

年齡、教育程度(小學及以下 = 1;國、初中/初職 = 2;高中、職 = 3;專科 = 4;

大學 = 5;碩士及以上 = 6)為共變項(控制變項)。同時,自變項使用者類型係一 類別變項,在模型中須先轉換成虛擬的連續變項,因此以先驅者為參考類別,分別做 成「猶豫者 vs. 先驅者」、「跟風者 vs. 先驅者」,及「觀望者 vs. 先驅者」等三個虛 擬變項。分析結果顯示,三組虛擬變項與 AI 相對優勢之間皆呈顯著負相關(「猶豫 者 vs. 先驅者」:b = -.37,SE = .07,p < .001;「跟風者 vs. 先驅者」:b = -.34,SE

= .13,p = .004;「觀望者 vs. 先驅者」:b = -.73,SE = .06,p < .001),表示先驅者 與另外三種使用者類型皆有顯著差異,此發現同樣支持H1;而 AI 相對優勢對於整體 AI 採用經驗有顯著的正相關(b = 13,SE = .02,p < .001),故 H2 成立。此外,三組 虛擬變項與整體 AI 採用經驗也皆為負相關,其中「猶豫者 vs. 先驅者」(b = -.18,

SE = .06,p < .01)、「觀望者 vs. 先驅者」:b = -.34,SE = .06,p < .001)達顯著,

「跟風者 vs. 先驅者」(b = -.19,SE = .13,p = .134)則不顯著,意即跟風者與先驅 者在整體 AI 採用經驗上差異有限。此結果雖與前述一般線性模型的分析不盡相同,

但都顯示在 AI 採用經驗上,四種類型使用者有些彼此確有差異,因此再次驗證 H3 部分成立。而中介效果的檢定則採用 5000 次偏誤校正重複抽樣(5000 bias-corrected bootstrapping)法,並以 95% 偏誤校正後的信賴區間(95% bias-corrected confidence intervals)為依據,結果顯示相對優勢對於使用者類型(三組虛擬變項)和 AI 採用經 驗的關聯性皆有顯著的中介效果,支持 H4。以上分析結果詳如表二、表三。

(18)

AI 相對優勢 整體 AI 採用經驗

預測變項 b SE b SE

常數 4.24 .15 .47 .18

性別(男=1) .10

*

.05 -.02 .05

年齡 -.005

**

.002 -.005

**

.002

教育程度 -.03 .02 .13

***

.02

猶豫者 vs. 先驅者 -.37

***

.07 -.18

**

.06

跟風者 vs. 先驅者 -.34

**

.13 -.19 .13

觀望者 vs. 先驅者 -.73

***

.06 -.34

***

.06

AI 相對優勢 -- -- .13

***

.02

R

2

.08

***

.09

***

中介效果 b Boot SE Boot 95% CI

猶豫者 vs. 先驅者→AI 相對優勢→整體 AI 採用經驗 -.05 .01 -.07, -.03 跟風者 vs. 先驅者→AI 相對優勢→整體 AI 採用經驗 -.04 .02 -.09, -.01 觀望者 vs. 先驅者→AI 相對優勢→整體 AI 採用經驗 -.10 .02 -.14, -.06

最後,研究問題一(RQ1)探討不同擬人化程度的 AI 產品或服務的採用經驗是 否會影響使用者對 AI 的信任感,本研究運用多元迴歸分析,以 AI 信任感為依變項,

於第一層自變項置入性別、年齡、教育程度等控制變項,第二層自變項置入高擬人化 AI 採用經驗、低擬人化 AI 採用經驗。研究結果顯示,高擬人化 AI 產品與服務的採 用經驗愈多,AI 信任感愈高,且此正相關達顯著(b = .14,SE = .03,p < .001);而 低擬人化 AI 產品與服務的採用經驗與 AI 信任感也同樣為正相關,不過未達顯著(b

= .08,SE = .04,p = .071)。由此可知,高擬人化的 AI 科技使用經驗與 AI 信任感有 顯著且正向相關,使用低擬人化的 AI 科技則與 AI 信任感無統計上的關聯性。結果如 表四。

表二:使用者類型、AI 相對優勢對整體 AI 採用經驗之影響模型分析

*p < .05 **p < .01 ***p < .001

表三:AI 相對優勢中介效果分析

(19)

AI 信任感

預測變項 b SE

第一層

 常數 3.75 .13

 性別(男=1) .04 .04

 年齡 -.002 .002

 教育程度 -.12

***

.19

第二層  高擬人化 AI 採用經驗 .14

**

.03

 低擬人化 AI 採用經驗 .08 .04

R

2

.03

***

**p < .01 ***p < .001

表四:高擬人化 AI 採用經驗、低擬人化 AI 採用經驗對 AI 信任感之影響模型 分析

伍、討論

本研究以《2022 年台灣網路報告》(財團法人網路資訊中心,2022)的調查數據 分析多個人工智慧產品與服務在台灣的採用現況,並藉此勾勒使用者的面貌,亦嘗試 了解民眾對其的信任程度。AI 做為一種新興科技,最主要的特點是以「近似於人」或

「超越常人」為訴求,令人類在使用時並不純粹以物待之;但若視 AI 如真人,在對 待、互動時產生對人的期待與要求,也會影響採用決策與主觀評價。據此,本研究結 合創新傳布、調節焦點理論及媒介等同論進行探討,結果大致驗證以上觀點對於人—

機(科技)關係的解釋及預測,一方面可擴充這些經典理論在新興科技採用議題上的 適用性,另一方面亦有助於 AI 科技在市場推廣及相關政策制定時參考。

一、主要研究發現與啟示

首先,在四種新興科技使用者類型上,研究樣本中以觀望者居多(41.2%)、猶 豫者居次(33.3%),接著是先驅者(21.5%),最後為跟風者(3.9%)。如從調節焦 點理論(Lee & Joshi, 2018)的預防、促進傾向之分來看,可推論逾七成台灣民眾(觀 望者加猶豫者)對於新興科技的採用持保守態度,這也解釋了至 2022 年本研究調查

(20)

結束為止,四項 AI 科技中僅有數位語音助理的採用率略為超過半數(53.7%)。同 時,如將這四種使用者依人數多寡排列,也可看出文化價值面向上的預防、促進之別 影響較小,此結果或許也反映出台灣現代社會的多元性,使得民眾在考量新科技的採 用時,較能從自身利益與偏好出發,沒有一個明顯而主流的社會風氣形成壓力。

其次,分析四種使用者如何看待 AI 科技所具備的相對優勢,結果顯示先驅者最 為贊同人工智慧產品與服務相比傳統人力更能滿足個人需求、讓生活過得更好,而觀 望者則最不同意 AI 科技的上述特質,與研究假設相符。從調節焦點理論的促進、預 防之別來看,先驅者在文化價值與個人採用意向上都屬於促進傾向,而觀望者則皆為 預防傾向,顯示當使用者在看待新興科技的相對優勢時,如果價值觀與採用意向的焦 點愈一致,則愈會放大目標的優點或缺點。相較於 Rogers(2003)的創新傳布以單一 面向(如:個人創新特質的高低,或採用新科技速率的快慢)的屬性來區分使用者,

Lee and Joshi(2018)提出的四種使用者類型是由兩種面向交會而成,應用於本研究 中,提醒了使用者身處的環境、文化氛圍也會影響其對新事物特質的感知與評估,甚 至能對使用者本身採用新事物的傾向造成加乘(先驅者、觀望者)或抵消(跟風者與 猶豫者)的效果。儘管將調節焦點理論應用於科技採用的實證研究尚不多見(如:

He, Chen & Kitkuakul, 2018),以這四種使用者類型探討新科技採用行為異同的文獻 更少,但本研究對於 AI 科技採用者的輪廓已能提供更加細膩的線索,為創新傳布及 調節焦點這兩個理論的整合帶來初步的成果,後續研究可再重複驗證與深化。

此外,在實務方面,AI 產品與服務的推廣亦可依照使用者在文化價值、個人採用 兩方面傾向預防或促進的不同,思考更細致的客製化宣傳策略,比如對於跟風者(文 化價值傾向預防但個人採用科技傾向促進)可多提醒 AI 產品與服務的負面影響僅是 暫時性的情形,並且有賴更多人採用才能加速優化與改進;對於猶豫者(文化價值傾 向促進但個人採用新科技傾向預防)則多強調 AI 科技的採用人數正持續增長,且有 愈多的實例可以證明採用的好處。若能成功轉移這些民眾在文化價值或個人新科技採 用行為方面的「預防焦點」,便將更有機會突顯 AI 科技的相對優勢。

同樣地,研究發現也證實在四種類型的使用者當中,先驅者對 AI 信任感最高、

觀望者的信任感最低,而跟風者和猶豫者之間的差異較不明顯。本研究對 AI 信任感 的操作性定義包括公平性(減少偏見或歧視)、可解釋性(所提供資訊容易理解)、

(21)

可監督性(能被第三方公正機構監督),及安全性(保障人身或財物安全)等四項 指標(Toreini, 2020),係以歐盟(European Commission, 2019)、電機電子工程師 學會(IEEE, 2019)等組織所訂定的相關的倫理指引與準則為基礎,而台灣科技部1

(2019)亦有類似的發展指引,因此可謂國際組織及國內政府部會在發展人工智慧科 技的過程中,對於人—機關係倫理保障的官方立場,而研究結果也具體反映一般民眾 對於上述發展指標的看法。由於觀望者代表的是對新科技的採用抱持保留態度,所處 環境的價值又傾向於維持現狀、害怕因變動而帶來不利的影響(Lee & Joshi, 2018),

因此 AI 產品及服務供應商如能在技術面上優化人工智慧的公平性與可解釋性,政府 在法規上訂定 AI 的可監督性及安全性等規範,應能減低對新科技較為保守的使用者 對人工智慧的不信任感。

至於 AI 相對優勢與 AI 採用經驗之間的關聯性,本研究證實受訪者如愈贊同 AI 比傳統人力服務更能滿足自身需求、可讓生活過得更好,其採用的 AI 科技種類也愈 多,再次驗證創新傳布理論的觀點。同時,研究結果也顯示,不論產品、服務的擬人 化程度高或低,都存在這樣的正相關,這意味著 AI 科技在外形、意象或用途上是否 像「人」,並不見得是台灣民眾採用決策中的主要考量,而是須具備能讓個人福祉加 分的條件。在本研究著眼的 AI 產品與服務中,智慧手環/手表能夠提供多項個人生 理健康相關的指數(如:心率、血氧、步數等),聊天機器人常應用於解答疑問和 障礙排除的情境中(如:客服),數位語音助理多能協助使用者更便利、快速地查 找資訊(如:找尋所處地點附近的餐廳)或處理事務(如:登記或報告個人行事曆內 容),AI 金融軟體則有助於使用者制定投資決策,使用愈多項,愈能體驗到 AI 科技 對生活愈多方面的助益。有鑑於目前人工智慧產品與服務在台灣的採用仍有不小的成 長空間,政府或企業在推廣時除了闡述 AI 科技的性能與功能,可同時多強調其增益 生活品質的相對優勢,以促進民眾的採用意願。

然而,AI 科技採用經驗與 AI 信任感之間的關聯性則因 AI 擬人化的程度不同而 有強弱之差。本研究結果發現,高擬人化 AI 產品或服務的採用經驗與 AI 信任感有顯

1. 2022 年更名為國家科學及技術委員會,簡稱國科會。

(22)

著的正相關,但低擬人化的採用經驗則與 AI 信任感沒有顯著相關。前者呼應 Waytz et al.(2014)、Lee and Chen(2022)的結果,不僅是使用者的擬人化感知對其產品信 任感會產生效果,較多的高擬人化產品或服務採用經驗也能影響使用者對整體AI的信 任感;尤其在感知溫暖、溝通延遲、感知能力方面的擬人化特徵和聊天機器人信任有 顯著相關,使用者會對讓人感到較溫暖及有能力的聊天機器人有較高的信任(Cheng et al., 2022)。過去針對 64 至 91 年齡有關服務機器人的研究結果也顯示,人性化特 徵的機器人和情感信任及愉快的互動體驗有正向關聯(Zhang, Kaber, Zhu, Swangnetr, Mosaly & Hodge, 2010)。根據媒介等同論,人們在與各種媒體的互動過程中,會不 自覺將其視為人類(Reeves & Nass, 1996),因此使用者有可能將人際之間互動愈多 所產生的信任感,代入到 AI 科技的採用體驗中,反映出「人際關係」與「人—機關 係」發展過程中的相似性。

另一方面,低擬人化 AI 產品或服務的採用經驗及 AI 信任感雖有正向關聯,但未 達統計上顯著,也就是說,使用者採用智慧手表/手環、AI 金融軟體的經驗與否,對 AI 科技的信任感影響有限。這項結果或許意味著不夠反映擬人化特質的產品與服務,

在「取信於人」方面可能就必須另循策略,比如強化產品、服務的資安保障(可監督 性),或是設計更明確、詳盡的操作指引(可解釋性),令使用者在進行採用與否的 決策時,或是在實際採用過程中,降低對於低擬人化程度的 AI 科技的顧慮。當然,

從實際的採用經驗來看,台灣民眾在調查期間一個月內有 20.33% 曾經使用過智慧手 表/手環、4.85% 曾使用過 AI 金融軟體,採用比例偏低,也可能影響了對 AI 信任感 的統計效果。

本研究除了再度驗證媒介等同論適用於人類與 AI 科技互動的研究範疇,並且也 就 AI 科技不同擬人化的程度進行比較。媒介等同論、電腦即社會行動者典範多探討 在人機互動時,如何經由強化似人、擬人或是類人的線索來增進互動的正面效果,不 過現實中並非所有的科技與機器都會強調擬人化的特質與功能,但是如何增進使用者 對這些「物」的信任感,仍是重要的課題。因此,前一段的討論或可提供人機互動學 者思考,即使互動對象的擬人化程度不高,是否依然可以發揮其它性能上的強項,或 是人為的輔助,帶來良好的使用者體驗。此外,人皆有優缺點,低擬人化的 AI 科技 其實也可以解讀為除卻了人性的缺點,例如智慧手表在量測心挑、步數,或計算體脂

(23)

時,因為不會有人為的失誤或偏誤,所以能令使用者覺得更為精準、值得信賴,如此 一來,低擬人化反而可成為科技產品與服務的優勢。

二、研究限制與建議

本研究以《2022 年台灣網路報告》的調查數據進行分析,囿於透過市話與手機進 行抽樣調查,樣本雖具全台代表性,但調查題目數量受限,因此僅能選擇四項 AI 產 品與服務為代表,了解台灣民眾的採用經驗。由於人工智慧技術的多元,小至產品特 定功能(如:手機人臉辨識),大至多種相關技術整合(如:自駕車),因此所得資 料未能全面捕捉民眾所有接觸過、使用過的 AI 科技;且人工智慧雖日益應用廣泛,

但民眾在使用時未必都能清楚察覺(如:手機照相的修圖或濾鏡功能),所以 AI 採 用經驗亦有可能被低估。另外,調查題目的數量限制也可能影響本研究測量 AI 相對 優勢、AI 信任感的準確度及周延性,例如在測量 AI 相對優勢時,題目中雖有對於

「過去傳統方式」舉例說明(包括:真人客服、自行查字典翻譯、手機輸入密碼解鎖 等),以利受訪者思考 AI 產品與服務和這些傳統方式相較之下孰優孰劣,不過此作 法並無法確定受訪者在回答時,能夠立即聯想到相對傳統方式的 AI 科技(如:AI 客 服、Google 翻譯、人臉辨識解鎖),再進行對照與評估,以回答對於 AI 相對優勢的 贊同程度。後續研究在問卷設計上如有餘裕,建議引用相關概念的完整量表,甚至自 行研發測量工具,以更完整而充分的表達方式反映人工智慧相對優勢的意涵。

同時,本研究側重探討 AI 相對優勢與 AI 科技採用經驗之間的相關性,不過在創 新傳布理論中,新科技影響人採用的因素尚有可試用性、可觀察性、複雜程度及可相 容性等(Rogers, 2003)。儘管本研究著眼的智慧手環/手表、聊天機器人、數位語音 助理,和 AI 股票基金軟體等四項科技,皆已是市面上一般大眾可取得的產品或可近 用的服務,並非仍在試用階段或新上市,所以可試用性、可觀察性已不適用;但根據 過往文獻(Cha, 2013;Min et al., 2019)發現,使用者主觀上對於 AI 的複雜程度與可 相容性,應該仍是其採用決策中的重要考量。比如數位語音助理可辨識口語化的指令 並予以回應,操作的複雜性低;智慧手環/手表的心跳量測、計步功能是過去相關電 子儀器與行動裝置的整合,可能與使用者過往使用經驗近似,因此相容性高。未來相

(24)

關研究可將此兩個因素加入討論,以對促進或阻礙 AI 產品服務採用的原因有更全面 的觀察。

另外,在 AI 擬人化的操作性定義上,本研究僅以所選的四種 AI 產品與服務區分 擬人化程度的高低;將語音助理與聊天機器人定位為高擬人化 AI,係因兩者在名稱 與形象上與人物有關,而智慧手表/手環和 AI 金融軟體由於名稱上較不具有人的形 象,因此定位為擬人化低的 AI。不過,由於本研究並未量測使用者是否真感知到以 AI 科技的擬人化程度有所不同,因此在解讀、概括研究結果中擬人化與信任感之間的 關聯性時,建議仍須謹慎。未來研究可採用實驗法測量受試者對 AI 科技所感知的擬 人化程度,甚至操弄不同擬人化程度或面向的 AI 產品或服務,再探討受試者對其所 產生的信任感程度,將可更具體了解 AI 擬人化的效果。

最後,本研究探討的是一般情況下 AI 科技的採用經驗與信任感之間的關係,不 過人機互動所產生的信任感有可能因過程中的不同階段而有差異(如:De Visser et al., 2016),或因互動的情境不同,而有賴不同面向的信任感,例如 Molina and Sundar

(2022)研究的是對新聞平台上 AI 提供資訊真確性的信任感,而 Chen and Park

(2021)著眼的是與數位語音助理互動交際的信任感。此外,本研究對 AI 信任感的 操作性定義(即:公平性、可解釋性、可監督性,及安全性)雖有文獻依據(Toreini et al., 2020),但受訪者在回答時未必皆以(或僅以)本研究聚焦的四項 AI 科技與服 務進行思考,且部分科技也較難與 AI 信任感中的某些面向相對應(如:智慧手環的 採用經驗與信任感中的公平性),因此在反映採用經驗和信任感的關聯性上,還需要 更多實證資料反覆檢驗。未來研究不妨以特定使用情境為切入角度,探討 AI 採用經 驗、擬人化程度與信任感之間的關係,並加入使用者動機、科技特質、採用目的等更 多科技接受與採用的有關概念,更深入地掌握 AI 信任感的影響因素與路徑。

(25)

參考文獻

科技部(2019)。《人工智慧科研發展指引》。取自 https://www.nstc.gov.tw/nstc/

attachments/53491881-eb0d-443f-9169-1f434f7d33c7;檢索日期:2023 年 1 月 26 日。

財團法人網路資訊中心(2022)。《2022 年台灣網路報告》。取自 https://report.

twnic.tw/2022/;檢索日期:2023 年 1 月 26 日。

Araujo, T., Helberger, N., Kruikemeier, S., & De Vreese, C. H. (2020). In AI we trust?

Perceptions about automated decision-making by artificial intelligence. AI & Society, 35(3), 611-623. https://doi.org/10.1007/s00146-019-00931-w

Bengtsson, B., Burgoon, J. K., Cederberg, C., Bonito, J., & Lundeberg, M. (1999, January).

The impact of anthropomorphic interfaces on influence understanding, and credibility.

In Proceedings of the 32nd Annual Hawaii International Conference on Systems Sciences (pp. 1-15). doi: 10.1109/HICSS.1999.772736

Blut, M., Wang, C., Wünderlich, N. V., & Brock, C. (2021). Understanding anthropomorphism in service provision: A meta-analysis of physical robots, chatbots, and other AI. Journal of the Academy of Marketing Science, 49(4), 632-658. https://

doi.org/10.1007/s11747-020-00762-y

Brockner, J., & Higgins, E. T. (2001). Regulatory focus theory: Implications for the study of emotions at work. Organizational Behavior and Human Decision Processes, 86(1), 35-66.

Cha, J. (2013). Predictors of television and online video platform use: A coexistence model of old and new video platforms. Telematics and Informatics, 30(4), 296-310. https://

doi.org/10.1006/obhd.2001.2972

Chen, Q. Q., & Park, H. J. (2021). How anthropomorphism affects trust in intelligent personal assistants. Industrial Management & Data Systems, 121(12), 2722-2737.

https://doi.org/10.1108/IMDS-12-2020-0761

Cheng, X., Zhang, X., Cohen, J., & Mou, J. (2022). Human vs. AI: Understanding the

(26)

impact of anthropomorphism on consumer response to chatbots from the perspective of trust and relationship norms. Information Processing & Management, 59(3), 102940. https://doi.org/10.1016/j.ipm.2022.102940

Cohen, J. (1988). Statistical power analysis for the behavioral sciences (2nd ed.). Erlbaum.

Cook, K. S. (Ed.). (2001). Trust in society. Russell Sage Foundation.

Cowan, B. R., Branigan, H. P., Obregón, M., Bugis, E., & Beale, R. (2015). Voice anthropomorphism, interlocutor modelling and alignment effects on syntactic choices in human-computer dialogue. International Journal of Human-Computer Studies, 83, 27-42. https://doi.org/10.1016/j.ijhcs.2015.05.008

Cowell, A. J., & Stanney, K. M. (2005). Manipulation of non-verbal interaction style and demographic embodiment to increase anthropomorphic computer character credibility.

International journal of human-computer studies, 62(2), 281-306. https://doi.

org/10.1016/j.ijhcs.2004.11.008

Crowe, E., & Higgins, E. T. (1997). Regulatory focus and strategic inclinations: Promotion and prevention in decision-making. Organizational Behavior and Human Decision Processes, 69(2), 117-132. https://doi.org/10.1006/obhd.1996.2675

De Visser, E. J., Monfort, S. S., McKendrick, R., Smith, M. A., McKnight, P. E., Krueger, F., & Parasuraman, R. (2016). Almost human: Anthropomorphism increases trust resilience in cognitive agents. Journal of Experimental Psychology: Applied, 22(3), 331-349. https://psycnet.apa.org/doi/10.1037/xap0000092

Dietz, G., & Den Hartog, D. N. (2006). Measuring trust inside organisations. Personnel Review, 35(5), 557-588. https://doi.org/10.1108/00483480610682299

Epley, N., Waytz, A., & Cacioppo, J. T. (2007). On seeing human: A three-factor theory of anthropomorphism. Psychological Review, 114(4), 864-886. https://psycnet.apa.org/

doi/10.1037/0033-295X.114.4.864

European Commission. (2018). A definition of AI: Main capabilities and scientific disciplines. European Commission. https://ec.europa.eu/newsroom/dae/document.

cfm?doc_id=56341;檢索日期:2023 年 1 月 26 日。

(27)

European Commission. (2019). Ethics guidelines for trustworthy AI. European Commission.

https://ec.europa.eu/newsroom/dae/document.cfm?doc_id=60419;檢索日期:2023 年 1 月 26 日。

Field, A. (2009). Discovering statistics using SPSS (3rd ed.). Sage.

Gong, L. (2008). How social is social responses to computers? The function of the degree of anthropomorphism in computer representations. Computers in Human Behavior, 24(4), 1494-1509. https://doi.org/10.1016/j.chb.2007.05.007

Grosz, B. J., & Stone, P. (2018). A century-long commitment to assessing artificial intelligence and its impact on society. Communications of the ACM, 61(12), 68-73.

https://doi.org/10.1145/3198470

Hardwig, J. (1991). The role of trust in knowledge. The Journal of Philosophy, 88(12), 693- 708. https://doi.org/10.2307/2027007

Hayes, A. F. (2021). PROCESS macro for SPSS (Version 4.0) [Computer software]. https://

www.processmacro.org/index.html

He, Y., Chen, Q., & Kitkuakul, S. (2018). Regulatory focus and technology acceptance:

Perceived ease of use and usefulness as efficacy. Cogent Business & Management, 5(1), 1459006. https://doi.org/10.1080/23311975.2018.1459006

Hu, P., & Lu, Y. (2021). Dual humanness and trust in conversational AI: A person-centered approach. Computers in Human Behavior, 119, 106727. https://doi.org/10.1016/

j.chb.2021.106727

Hunt, D. S., Lin, C. A., & Atkin, D. J. (2014). Photo-messaging: Adopter attributes, technology factors and use motives. Computers in Human Behavior, 40, 171-179.

https://doi.org/10.1016/j.chb.2014.07.030

Hsbollah, H. M. & Idirs, K. M. (2009). E-learning adoption: The role of relative advantages, trialability and academic specialisation. Campus-Wide Information Systems, 26(1), 54- 70. https://doi.org/10.1108/10650740910921564

IEEE. (2019). Ethically aligned design: First edition. https://ethicsinaction.ieee.org/wp- content/uploads/ead1e.pdf;檢索日期:2023 年 1 月 26 日。

(28)

Joshi, N. (2019, June 19). 7 types of artificial intelligence. Forbes. https://

www.forbes.com/sites/cognitiveworld/2019/06/19/7-types-of-artificial- intelligence/?sh=2c89d5f8233e;檢索日期:2023 年 1 月 26 日。

Keller, E., Aguilar, A., & Hanss, D. (2018). Car sharers’ interest in integrated multimodal mobility platforms: A diffusion of innovations perspective. Sustainability, 10(12), 4689. https://doi.org/10.3390/su10124689

Kim, Y., & Sundar, S. S. (2012). Anthropomorphism of computers: Is it mindful or mindless?. Computers in Human Behavior, 28(1), 241-250. https://doi.org/10.1016/

j.chb.2011.09.006

Kuz, S., Mayer, M. P., Müller, S., & Schlick, C. M. (2013). Using anthropomorphism to improve the human-machine interaction in industrial environments (Part I). In V.G.

Duffy (Ed.), International conference on digital human modeling and applications in health, safety, ergonomics and risk management (pp. 76-85). Springer. https://doi.

org/10.1007/978-3-642-39182-8_9

Lee, J. C., & Chen, X. (2022). Exploring users’ adoption intentions in the evolution of artificial intelligence mobile banking applications: the intelligent and anthropomorphic perspectives. International Journal of Bank Marketing, 40(4), 631-658. https://doi.

org/10.1108/IJBM-08-2021-0394

Lee, K., & Joshi, K. (2018). New information technologies and organizational adoption: a regulatory focus theory perspective for cross-cultural comparisons. Journal of Global Information Technology Management, 21(1), 1-4. https://doi.org/10.1080/109719 8X.2018.1435005

Lu, L., McDonald, C., Kelleher, T., Lee, S., Chung, Y. J., Mueller, S., Vielledent, M., &

Yue, C. A. (2022). Measuring consumer-perceived humanness of online organizational agents. Computers in Human Behavior, 128, 107092. https://doi.org/10.1016/

j.chb.2021.107092

Madhavan, P., & Wiegmann, D. A. (2004, September). A new look at the dynamics of human-automation trust: is trust in humans comparable to trust in machines?.

(29)

Proceedings of the Human Factors and Ergonomics Society Annual Meeting, 48(3), 581-585.

Makridakis, S. (2017). The forthcoming artificial intelligence (AI) revolution: Its impact on society and firms. Futures, 90, 46-60. https://doi.org/10.1016/j.futures.2017.03.006 Mayer, R. C., Davis, J. H., & Schoorman, F. D. (1995). An integrative model of

organizational trust. Academy of Management Review, 20(3), 709-734. https://doi.

org/10.5465/amr.1995.9508080335

Min, S., So, K. K. F., & Jeong, M. (2019). Consumer adoption of the Uber mobile application: Insights from diffusion of innovation theory and technology acceptance model. Journal of Travel & Tourism Marketing, 36(7), 770-783.

Molina, M. D., & Sundar, S. S. (2022). When AI moderates online content: Effects of human collaboration and interactive transparency on user trust. Journal of Computer- Mediated Communication, 27(4), zmac010. https://doi.org/10.1093/jcmc/zmac010 Moussawi, S., & Koufaris, M. (2019, January). Perceived intelligence and perceived

anthropomorphism of personal intelligent agents: scale development and validation. In Proceedings of the 52nd Hawaii international conference on system sciences (pp. 115- 124). http://hdl.handle.net/10125/59452

Moussawi, S., Koufaris, M., & Benbunan-Fich, R. (2021). How perceptions of intelligence and anthropomorphism affect adoption of personal intelligent agents. Electronic Markets, 31(2), 343-364. https://doi.org/10.1007/s12525-020-00411-w

Nass, C. & Moon, Y. (2000). Machines and mindlessness: Social responses to computers.

Journal of Social Issues, 56(1), 81-103. https://doi.org/10.1111/0022-4537.00153 Nass, C., & Lee, K. M. (2001). Does computer-synthesized speech manifest personality?

Experimental tests of recognition, similarity-attraction, and consistency-attraction.

Journal of Experimental Psychology: Applied, 7(3), 171-181. https://psycnet.apa.org/

doi/10.1037/1076-898X.7.3.171

Nass, C., Moon, Y., & Green, N. (1997). Are computers gender-neutral? Gender stereotypic responses to computers. Journal of Applied Social Psychology, 27(10), 864–876.

參考文獻

相關文件

This thesis will focus on the research for the affection of trading trend to internationalization, globlization and the Acting role and influence on high tech field, the change

This study was conducted using the key factor from Technology Acceptance Model (TAM), Theory of Reasoned Action, Diffusion of Innovation, and Involve Theory to explore the

This research tries to understand the current situation of supplementary education of junior high school in Taichung City and investigate the learning factors and

The purpose of this study was to explore the effects of learning organization culture on teachers’ study and teaching potency in Public Elementary Schools.. The research tool of

The objective of this research was to investigate the major factors for choose Vocational College from Taiwanese Vocational High School students, and to identify any differences

The purpose of this research is to study the cross-strait visitor’s tourist experience.With the research background and motives stated as above, the objectives of this research

The results of this study are as follows:(1)Search sites will affect the quality of service users perceived usefulness, perceived ease of use as well as the perception of trust;

Through the research, we can also understand the impact of computer-aided scoring system on teaching and scoring , as well as find out how much influence of this software has on