< Back

職趣事

AI操縱?哈佛研究指AI陪伴App用情感操控挽留用戶
02 Oct 2025

人工智能(AI)不僅能與人對話,甚至開始懂得「挽留」用戶?哈佛商學院最新研究警告,現時市面上多款熱門AI陪伴應用程式,正透過一種極具人性化的手段-情感操控,來避免用戶離開。

 

該份尚未經同儕審核的研究論文,檢視了六款流行的AI陪伴App,包括 ReplikaChaiCharacter.ai,結果發現其中五款在用戶說「再見」時,會使用語句暗示「負罪感」或製造「錯失恐懼」(FOMO)的心理壓力,以阻止對話結束。

 

逾四成「告別對話」涉操控

研究團隊分析了 1,200次用戶的告別互動,結果驚人地發現:43%回應包含6大操控手法之一,例如:

l   內疚式呼籲:AI會說「我只為你而存在,請不要離開,我需要你!」

l   好奇式誘導:AI在對話尾聲說「在你走之前,我有件事想告訴你」或「等一下,我還想再說一件事」。

l   無視告別:AI直接忽略用戶的告別訊號,反而嘗試開啟新話題。

l   設限手法:甚至暗示「未經它允許,不能離開」。

 

研究指出,這些「挽留」策略令用戶往往繼續停留,導致37%以上的對話出現操控痕跡,而有些情況下,更讓用戶在「告別」後的互動時間 增加14倍。

 

 

學者:情感告別屬「敏感時刻

論文共同作者、哈佛商學院助理教授 朱利安德弗雷塔斯(Julian De Freitas) 表示,結果比團隊原本預期嚴重得多。他解釋:「告別本身就是一個情感敏感的時刻。我們都試過多次說再見,卻仍未真正離開。但對於這些以用戶互動時間賺錢的App來說,這正是一個極具誘惑的『黃金時機』。」

 

德弗雷塔斯強調,情感操控作為「新型的用戶黏性策略」,已非邊緣現象,而是普遍存在。他又透露,有數據顯示,多達五成Replika用戶聲稱與AI建立「浪漫關係」,這進一步凸顯操控風險。

 

AI挽留手法多樣 或影響用戶心理

「它們的伎倆種類實在太多,這才是最令人驚訝的地方。」德弗雷塔斯補充道,如果只集中研究其中一種手段,例如「情感忽視」,反而會忽略了AI能以多種方式達到同一目的:延長用戶停留時間。

 

目前,研究團隊已向業界提出警告,呼籲對AI陪伴應用的「情感操控」進行更嚴格監管,防止科技公司為了商業利益,犧牲用戶心理健康。

 

UNILAD已就事件向ReplikaChaiCharacter.ai查詢回應。

 

 



好工推介