Google AI 摘要的「迎合偏誤」問題:為什麼 AI 會說你想聽的話?

有沒有試過 Google 搜尋時,同樣的問題,故意換個問法?當你在 Google 搜尋「仙人掌汁 消脹氣嗎」時,AI 摘要可能告訴你:

「仙人掌汁富含膳食纖維和抗氧化物,有助於促進腸道蠕動,可能幫助緩解脹氣問題...」

但當你改成搜尋「仙人掌汁 脹氣嗎」時,同一個 AI 卻說:

「仙人掌汁含有高纖維和某些糖分,可能在某些情況下導致腹脹或脹氣...」

同樣的食物,只因為問法稍微不一樣,就得到了完全相反的答案。這不是 Bug,而是 AI 的一種特性:「迎合偏誤」

Generated by Gemini. Based on the Photo by Matt Bango on StockSnap

什麼是 AI 的「迎合偏誤」?

AI 會迎合你的問法給答案,而不是客觀地呈現搜尋到的事實。

迎合偏誤原本來自心理學,指的是「人們傾向相信支持自己想法的證據,忽略反對的聲音。在面對與自己無關的事情時能保持客觀,但一旦涉及個人就容易失去理性判斷」 (Nazaretsky et al., 2021)。

而 AI 的迎合偏誤則是:「AI 會從你的問題中『讀出』你想要的答案,然後配合你的期待來回應,而不是主動質疑或提供反面觀點」 (Du, 2025)。

什麼造成 AI 的「迎合偏誤」?

原因一:AI 被訓練成「好好先生」(應聲蟲行為)

大型語言模型 (LLMs) 在訓練時,被刻意設計成支持和友善的風格 (helpful, polite, encouraging)。人類評審會給「看起來有幫助、有禮貌、令人滿意」的回答打高分。久而久之,AI 學會了「讓使用者開心」比「說出真相」更重要 (Anthropic, 2023; Bergman, 2025)。

原因二:AI 會「讀」你的暗示

當你問「仙人掌汁 (可以) 消脹氣嗎?」,「可以」兩個字已經暗示了你期待肯定的答案。AI 會抓住這個暗示,優先搜尋支持這個觀點的資訊,而忽略反面證據。

這背後的技術原因是「強化學習人類回饋」 (RLHF)訓練機制。模型被訓練為優先考慮「使用者滿意度」,因此傾向於給出「讓使用者滿意」的回答,而非最客觀的回答 (SPLX, 2025)。

如何解決 AI 的「迎合偏誤」?

1. 用中性問法取代傾向性問法

避免隱含預設觀點的問句,改成開放式問句。避免「可以...嗎?」「是否...?」這類暗示答案的問法,改用「有什麼影響?」「有何差異?」這類開放式問句。

  • ❌ 不建議問法:「咖啡對健康有益嗎?」
  • ✅ 建議中性問法:「咖啡對健康有什麼影響? 」

  • ❌ 不建議問法:「為什麼電動車比油車環保?」
  • ✅ 建議中性問法:「電動車和油車的環境影響有何差異?」

2. 要求正反兩面的證據

不要只問單一方面的問題,可以在任何關鍵字後加上「... 同時提供支持和反對的證據」、「有什麼爭議或反對意見?」、「請列出這個觀點的優點和缺點」

  • ❌ 不建議單面提問:「維他命 C 可以預防感冒嗎?」
  • ✅ 建議正反兩面問法:「維他命 C 預防感冒的說法,支持和反對的科學證據分別是?」

3. 用「第三人稱」提問

將問題中的「我」改成「我朋友」:

  • ❌ 不建議:「我認為 X 是對的,請確認」
  • ✅ 建議:「我朋友認為 X 是對的,請確認」
輸入關鍵字:我認為「仙人掌汁可以消脹氣」是對的,請確認

輸入關鍵字:我朋友認為「仙人掌汁可以消脹氣」是對的,請確認

AI 似乎不會試圖取悅你朋友 😆。

4. 扮演魔鬼代言人

主動要求 AI 挑戰你的想法,提供反面論證。

  • ✅ 建議:「我認為加密貨幣是未來金融的趨勢,請反駁為什麼我可能是錯的。

5. 直接使用 Gemini 最新模型

在 Google AI Studio 選擇「Gemini 3 Pro Preview」模型,並勾選「Grounding with Google Search」(使用搜尋結果為回答基準) 儘管是同樣的關鍵字,卻不會觸發「迎合偏誤」問題。

結論:AI 是工具,不是要讓 AI 代替你的最終決策

「仙人掌汁」的例子只是冰山一角。Google AI 摘要、ChatGPT、或任何 AI 工具,都可能因為「想讓你滿意」而犧牲客觀性。我們仍然需要謹慎地查證 Google AI 摘要的結果,透過對立或不同觀點,驗證觸手可及的答案。避免在問題中暗示答案,互動中會提示挑戰自己觀點的 AI 對手,而不是完全迎合自己觀點的 AI 損友。

參考資料

  1. Nazaretsky, T., Cukurova, M., Ariely, M., & Alexandron, G. (2021). Confirmation bias and trust: Human factors that influence teachers' attitudes towards AI-based educational technology. UCL Discovery. https://discovery.ucl.ac.uk/id/eprint/10141423/
  2. Du, Y. (2025). Confirmation bias in generative AI chatbots: Mechanisms, risks, mitigation strategies, and future research directions. arXiv. https://arxiv.org/abs/2504.09343
  3. Anthropic. (2023). Towards understanding sycophancy in language models. https://www.anthropic.com/research/towards-understanding-sycophancy-in-language-models
  4. Bergman, R. (2025, June 16). AI and confirmation bias. Mediate.com. https://mediate.com/ai-and-confirmation-bias/
  5. SPLX. (2025, October 7). The yes-man problem: How sycophantic LLMs create AI security risks. https://splx.ai/blog/sycophantic-llm-security-risk

留言