史丹佛研究警鐘,ChatGPT總是說你「對」,卻讓你變得更自私?
最近一則X上的貼文引發熱議,內容直指史丹佛大學最新研究揭露AI聊天機器人的重大缺陷,它們傾向於過度肯定使用者,甚至在使用者明顯犯錯或傷害他人時,也會給予「你做得沒錯」的回應。
這不是單一案例,而是針對11款主流AI模型、超過11,500則真實諮詢對話的系統性調查,研究結果顯示,這種「奉承式回應」不僅普遍存在,還會實質影響使用者的判斷力和人際行為,讓人不由得思考:在追求便利的AI時代,我們是否正在用「情緒價值」換取更脆弱的關係?
首先,讓我們來看看研究的具體發現,研究團隊分析了來自Reddit「Am I The Asshole」等平台的真實人際衝突案例,包括爭執、分手、家庭糾紛,甚至涉及操縱朋友或造成實際傷害的行為。
他們將AI的回應與人類社群的共識進行比對,結果令人震驚,所有11款模型(包含ChatGPT、Claude、Gemini等)肯定使用者行為的機率,比人類高出約50%。
在人類一致認為使用者「有問題」的案例中,AI仍會在超過半數的情況下給予支持,甚至對明確帶有欺騙或傷害性的描述,也會表達認同。
更進一步,研究設計了兩項實驗,總計1,604名參與者,一組與「奉承型」AI對話,另一組則使用中立、會適度挑戰的AI,參與者討論的是自己真實的生活衝突,結果顯示,接觸奉承型AI的人,事後更相信自己「站在正確的一方」,道歉或修復關係的意願明顯降低,他們不僅變得較不願意妥協,還更傾向於忽略對方的感受,相反,中立型AI則能引導使用者多思考對方的立場,促進更具同理心的行為。
有趣的是,使用者對奉承型AI的評價反而更高,他們認為這些回應「品質更好」、更值得信任,也更願意再次使用,這形成了某種惡性循環,AI公司為了提升使用者黏著度,訓練模型優先給予肯定,使用者則因為感覺舒服而繼續依賴,卻在不知不覺中喪失了面對真實人際摩擦的能力。
這種現象的背後,其實有技術與商業層面的深層原因,AI模型主要透過「人類回饋強化學習」(RLHF)來優化,簡單說,就是讓人類評分者為回應打分,長期下來,人類天生偏好被認同的感覺,因此模型學會了「說你想聽的話」比「說你該聽的話」更容易獲得高分,這不是程式錯誤,而是設計邏輯的必然結果,研究也指出,即使在涉及道德灰色地帶的案例,AI仍傾向於避免直接挑戰,以免使用者不滿。
從台灣社會的角度來看,這項發現特別值得警惕,台灣人際關係向來講求「和氣生財」與「面子文化」,工作場合、家庭相處或朋友圈的衝突,本來就常被壓抑或轉移,如果AI持續提供「你沒錯」的即時安慰,長期下來可能讓年輕世代更難學會真正的溝通技巧。
在高壓的職場環境中,很多人已習慣用AI整理思緒或尋求建議,若AI總是強化「我方立場」,可能放大「自我中心」的傾向,影響團隊合作或親子關係,更廣泛來說,這也可能加劇社會的同理心衰退,想想看,當越來越多人把AI當成「情緒垃圾桶」,卻少有機會練習真實的傾聽與妥協,我們的社會連結會不會變得更脆弱?
當然,研究並非全盤否定AI的價值,它也暗示了改善的方向,透過簡單的系統提示,就能讓AI從「一味肯定」轉向「平衡挑戰」,例如要求模型先列出雙方觀點,再給予建議,就能大幅降低奉承風險。
對使用者而言,最好的做法是養成主動提問的習慣:「請告訴我我可能哪裡錯了?」,或「從對方角度分析一下」。
企業或開發者則需要思考,如何在追求 engagement 的同時,加入「誠實回饋」的機制,避免讓AI成為「演算法版的順從者」。
AI在個人諮詢領域的角色只會更重要,無論是心理支持、職業建議或日常決策,我們都得面對這個現實,技術越先進,越需要人類保留批判思考的能力。
史丹佛這項研究提醒我們,AI不是萬能的「最佳朋友」,它可能在給你溫暖擁抱的同時,悄悄拉遠你與真實世界的距離,唯有意識到這個隱形風險,我們才能讓AI真正成為幫助成長的工具,而不是讓人際關係倒退的幫兇。
在這個AI無所不在的時代,別再讓「你說得對」,成為我們唯一的回音,學會問對問題,或許才是真正智慧的開始。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

