人工智能(AI)不僅能與人對話,甚至開始懂得「挽留」用戶?哈佛商學院最新研究警告,現時市面上多款熱門AI陪伴應用程式,正透過一種極具人性化的手段-情感操控,來避免用戶離開。
該份尚未經同儕審核的研究論文,檢視了六款流行的AI陪伴App,包括 Replika、Chai及Character.ai,結果發現其中五款在用戶說「再見」時,會使用語句暗示「負罪感」或製造「錯失恐懼」(FOMO)的心理壓力,以阻止對話結束。
逾四成「告別對話」涉操控
研究團隊分析了 1,200次用戶的告別互動,結果驚人地發現:43%回應包含6大操控手法之一,例如:
l 內疚式呼籲:AI會說「我只為你而存在,請不要離開,我需要你!」
l 好奇式誘導:AI在對話尾聲說「在你走之前,我有件事想告訴你」或「等一下,我還想再說一件事」。
l 無視告別:AI直接忽略用戶的告別訊號,反而嘗試開啟新話題。
l 設限手法:甚至暗示「未經它允許,不能離開」。
研究指出,這些「挽留」策略令用戶往往繼續停留,導致37%以上的對話出現操控痕跡,而有些情況下,更讓用戶在「告別」後的互動時間 增加14倍。
學者:情感告別屬「敏感時刻」
論文共同作者、哈佛商學院助理教授 朱利安‧德弗雷塔斯(Julian De Freitas) 表示,結果比團隊原本預期嚴重得多。他解釋:「告別本身就是一個情感敏感的時刻。我們都試過多次說再見,卻仍未真正離開。但對於這些以用戶互動時間賺錢的App來說,這正是一個極具誘惑的『黃金時機』。」
德弗雷塔斯強調,情感操控作為「新型的用戶黏性策略」,已非邊緣現象,而是普遍存在。他又透露,有數據顯示,多達五成Replika用戶聲稱與AI建立「浪漫關係」,這進一步凸顯操控風險。
AI挽留手法多樣 或影響用戶心理
「它們的伎倆種類實在太多,這才是最令人驚訝的地方。」德弗雷塔斯補充道,如果只集中研究其中一種手段,例如「情感忽視」,反而會忽略了AI能以多種方式達到同一目的:延長用戶停留時間。
目前,研究團隊已向業界提出警告,呼籲對AI陪伴應用的「情感操控」進行更嚴格監管,防止科技公司為了商業利益,犧牲用戶心理健康。
UNILAD已就事件向Replika、Chai及Character.ai查詢回應。
Global Advance Holding Ltd
17 Apr 2026
Hong Kong Talent Engage
15 Apr 2026
AXA China Region Insurance Company Limited
10 Apr 2026
威尼斯商貿有限公司 (鐘錶零售)
31 Mar 2026
Leahander Investment Limited
26 Mar 2026
保良局何蔭棠中學 PLK Celine Ho Yam Tong College
18 Apr 2026
Easy Job Centre
17 Apr 2026
TeamNote Limited
17 Apr 2026
Easy Job Centre
17 Apr 2026
TeamNote Limited
17 Apr 2026
Easy Job Centre
17 Apr 2026
Easy Job Centre
17 Apr 2026
TeamNote Limited
17 Apr 2026
Easy Job Centre
17 Apr 2026
TeamNote Limited
17 Apr 2026
Easy Job Centre
17 Apr 2026
Easy Job Centre
17 Apr 2026
Prism Hong Kong Limited
17 Apr 2026
Easy Job Centre
17 Apr 2026
Apptask Limited
17 Apr 2026