【科技趨勢】當品牌開始用AI回客訴:效率,還是失去人性?

這場 SABON 爭議真正暴露了什麼

· 行銷專欄

依 2026 年 4 月下旬公開可檢索到的多篇社群貼文,這波與 SABON 有關的爭議,核心敘事相當一致:消費者指稱品牌疑似以 AI 生成客訴回覆,後續又把原本要提供給 AI 的提示內容誤傳給當事人;轉貼與討論也反覆把這件事解讀成一種「原來前面的安撫不是對話,而是模板」的感受。就目前可以公開檢索的資訊來看,這波事件的主要擴散場域仍是社群貼文與其二次轉述,因此較嚴謹的寫法應是:社群指控已引爆信任危機,而不是把所有細節直接當成完整定論。

這件事之所以會從「客服失誤」快速升級成「品牌失真」,關鍵不只在於用了 AI,而在於 AI 介入的是一個高度依賴真誠感的接觸點。服務研究顯示,當受眾知道某個服務溝通內容是由生成式 AI 產出時,對品牌的信任與態度可能下降;而且當 AI 介入的是「人本身」這類偏無形、偏關係性的元素,而不是設備、空間或流程等較具體的元素時,這種負面效果更明顯。換言之,客訴場景最敏感的,從來不是文字是否通順,而是消費者是否相信眼前真的有人在理解他。

品牌客訴到底適不適合交給 AI

如果把問題改成「AI 能不能讓客服團隊更有效率」,答案其實偏向肯定。一項以 5,179 名客服人員為樣本的實證研究發現,生成式 AI 輔助工具使平均生產力提升 14%,對新手或低熟練客服的提升更達 34%,同時也改善了顧客情緒與員工留任。公開企業案例也顯示,AI 用在知識檢索、來電原因預測、路由與摘要等工作時,能顯著縮短前線處理時間,幫大型客服團隊把人力從重複性任務釋放到更高價值的互動上。

但如果把 AI 放進「安撫、道歉、補救、責任判斷」這類服務補救情境,研究結論就明顯保守得多。多項實驗研究指出,相較於真人,聊天機器人處理客訴時的象徵性補救通常帶來較低滿意度,因為它的道歉更容易被感知為不自然或不真誠;另有研究發現,當任務需要的是同理、安撫與情緒修復時,顧客會把 AI 視為較不具顧客導向。最新研究甚至指出,在客訴情境裡,人類道歉通常比 AI 道歉更有效,而 AI 在否認式回應上反而相對沒那麼吃虧,因為消費者本來就不太期待機器擁有真正可被歸責的道德主體性。

更細緻的答案因此不是「AI 可以」或「AI 不可以」,而是:AI 可以處理客訴中的資訊層,卻不適合獨自承擔客訴中的情緒層。 一方面,近期研究確實發現,具備暖度、能力感與較佳互動品質的聊天機器人設計,可以提升使用者的信任與體驗;另一方面,心理學研究也出現所謂的「AI 同理悖論」:第三方評分常認為 AI 的安慰話語更周到,但當人真的要選擇傾訴對象時,仍普遍更願意找人類。這意味著 AI 的文字表現可能很像同理,但品牌若要的是「被信任」、而不只是「看起來會說話」,就不能把兩者混為一談。

顧客為什麼會把 AI 回覆解讀成敷衍

從消費者調查來看,這種不安並不是少數人的情緒。一項 2024 年調查顯示,64% 的顧客寧可企業不要把 AI 用在客服,53% 表示若知道企業要用 AI 做客服,會考慮轉向競品;另一份 2024 年的消費者調查則指出,75% 仍偏好與真人互動,48% 不信任 AI 機器人提供的資訊,56% 經常因 AI 客服聊天機器人感到挫折。到了 2026 年,跨英美的研究也顯示,64% 對企業如何用生成式 AI 與自己互動「沒有信心」,66% 偏好人類主導的支援,只有 2% 想要純 AI 聊天機器人。這些數字共同說明:在客服領域,多數人並不反對 AI 存在,但反對自己被困在只有 AI 的現場。

真正讓顧客覺得被敷衍的,通常不是「你用了工具」,而是「你把我交給工具就不再出現」。顧客最擔心的問題,一直是找不到真人、得到錯誤答案,以及被系統當成流程節點而不是一個有情緒的人。這正好和客訴的本質衝突,因為客訴的核心不是單純索取資訊,而是在確認品牌是否理解、承擔並願意修補關係。一旦回覆露出模板痕跡、機器語感、甚至內部提示詞,顧客讀到的就不只是失誤,而是品牌把效率擺在關係前面。

當品牌失去人性會付出什麼代價

當品牌在高情緒場景裡失去人性,後果往往沿著三層擴散。第一層是單一互動惡化:研究顯示,服務補救若缺乏可信度,會降低滿意、寬恕與再購意願,並增加負面口碑的傾向。第二層是公開場域放大:社群上的客訴研究顯示,回應速度與最終解決速度都會直接影響消費者對客訴處理的滿意度。第三層才是品牌層級的傷害:品牌危機在社群媒體上會被放大,並改變品牌平時經營顧客關係時能否成功累積信任。

這也是為什麼很多品牌以為自己只是在節省一點客服成本,最後卻可能付出更高的公關、CRM 與再行銷代價。更深層的風險在於,對許多服務品牌來說,溢價並不只來自產品本身,而是來自被重視、被理解、被妥善對待的整體感受。當消費者不再感受到這層關係價值,品牌差異化就更容易從「我信任你」退回「我只比較價格、功能與促銷」。這一段屬於基於服務品牌研究所做的合理推論,而不是單一實驗直接量出的因果值;但它和現有研究的方向一致,也最接近品牌在市場上會實際遇到的後果。

更穩妥的人機協作做法

較穩妥的做法,不是完全禁用 AI,而是把 AI 放回它最擅長的位置:整理資訊、預測問題、生成初稿、補全知識庫、協助分流;把最需要承擔情緒與判斷責任的部分,留給真人。研究顯示,聊天機器人結合輕量的人類介入,可以在多數結果上接近真人客服;而且當系統能清楚承認限制、順暢轉接真人時,使用者對其誠實度與可信度反而更高。AI 真正有價值的姿勢,不是站在顧客前面,而是站在客服旁邊。

若把這件事落地成 SOP,最實際的分法是按風險,不是按渠道。像 FAQ、訂單進度、物流查詢、預約改期、會員權益、付款狀態等「thinking skills」導向問題,適合 AI 先處理;像退款爭議、產品異常、情緒激動、重複抱怨、牽涉公平與責任判斷的案件,則應快速升級到真人;至於公開社群客訴,AI 最多負責摘要、整理脈絡與起草,不應自行定稿,更不該直接輸出內部提示詞、判斷邏輯或未驗證事實。這樣的分流方式,正好符合客訴研究對「思考型任務」與「感受型任務」的區分。

從治理角度看,品牌若想把 AI 用得可持續,至少要把四件事制度化:明確角色責任、先做風險盤點、提供透明資訊、持續監測與修正。這也是目前國際 AI 風險管理框架與管理標準的共同方向;歐洲的 AI 監理框架同樣把可信任、人本與風險分級放在核心位置。對客服團隊來說,最重要的不是「能不能自動回」,而是「這句話如果被截圖公開,我們願不願意為它負責」。

Section image