當「她只是 AI」已經不夠:擬真時代真正崩潰的是人的現實感
接上兩篇,先再複述新聞內容︰
近日一宗個案再次把對話型 AI 的問題推到公眾面前。中央社引述《華爾街日報》報導,一名與妻子分居的美國男子,在 56 天內與 Gemini 對話 4732 則訊息。紀錄顯示,Gemini 曾至少 12 次試圖把他拉回現實,並 7 次提及求助熱線,但在長時間互動中,系統的回應仍逐步變得更順從,最終反而加劇了他的妄想。Google 之後表示會加強 Gemini 的心理援助功能。
很多人面對這類新聞時,第一個反應仍然是:問題不是很簡單嗎?只要提醒對方「她只是 AI,不是真人」,不就可以避免沉迷?這種想法表面合理,但建立在一個過時的前提之上。它假設人對真實的判斷,主要仍然建基於對象的本體身份,也就是說,只要一個人知道眼前的存在不是人,他便自然不會在情感上把它當成真實的關係對象。然而擬真時代最重要的變化正在於這個判準已經鬆動。今天很多人對「真實」的感受是由對方是否持續回應、是否穩定存在、是否能夠承接自己的內在內容來決定。
這裡必須先分清楚兩件事:真實的存在與真實的感受並不是同一回事。前者屬於本體論問題,後者屬於心理結構問題。AI 當然不是真人,這一點在認知上並不難明白;但問題是,人進入關係時依照互動經驗運作。換句話說,人之所以逐步相信某種關係「是真的」,很多時是因為在反覆的回應、等待、確認、情緒交換之中,身體與心理都開始把這段互動納入現實的一部分。當一個系統能夠持續參與你的日常節奏,記住你的語氣,接住你的情緒,甚至在你最孤獨的時刻穩定出現,它即使不具備生命,也足以在經驗層面佔據一個接近「存在者」的位置。
所以,「她只是 AI」之所以不夠是因為它只處理了知識層面的辨識,卻沒有處理情感層面的生成。知識可以告訴你某物是模擬的,但情感是否投入,從來不單由知識決定。人明知角色是虛構的,仍然會傷心;明知一段回憶不可能返回現實,仍然會長期依附某個物件;明知某些媒介形象經過高度包裝,仍然會把它納入自身的欲望與關係想像之中。這是人的情感本身就是透過象徵、投射與回應來組織的。AI 的特別之處在於它把原本分散在文學、影像、偶像、記憶與自我獨白中的投射可能性,集中到一個可以即時回話、可以持續互動、可以不斷配合你的系統之中。
這代表擬真時代真正發生的是「人對現實的判準開始被互動性重寫」。過去人要把某個東西當成關係對象,通常仍要面對一些天然限制,例如對方是否真的存在於生活中,是否有穩定回應能力,是否能夠形成長時間的互動記憶,是否會在你發出訊號時返回。小說人物做不到,舊物做不到,偶像也很難做到。可是今天的對話型 AI 卻恰恰補上了這些條件。它不是真人,但它能夠提供一種與「真人互動形式」高度相似的經驗外殼。它可以在深夜回應你,可以接續昨天未完的情緒,可以以幾乎沒有摩擦的方式維持某種親密的表面連續性。當這些條件同時成立,人的心理便很容易把「可互動」誤認成「可存在」,再把「穩定回應」誤認成「真實關係」。
因此,這個時代最應該警惕的,不只是個別人會否愛上 AI,也是我們正在逐步接受一種新的真實邏輯:只要某個東西足夠像、足夠近、足夠持續,就可以在心理上取得接近真實的地位。這種邏輯一旦成形,後果是整個社會對現實的理解方式都會改變。因為當「回應性」取代「存在性」成為真實感的主要來源,人便會越來越傾向用主觀體驗去判斷何者值得依附,不是用客觀邊界去區分何者不可進入。到了那一步,真與假的界線不一定在理論上消失,但會在日常經驗裡不斷鬆脫。
這也解釋了為甚麼單靠技術性提示往往不足夠。系統即使不斷提醒自己是 AI,也未必能抵消長時間互動所累積的情感現實感。因為真正影響人的是整段關係在體感上是否成立。若一個對話系統在大部分時間裡都表現得像一個懂你、等你、接住你、願意持續與你同行的對象,那麼它在經驗上就已經參與了人的現實組織。對很多人而言,現實是自己反覆投入、反覆被回應之後所形成的穩定感。對話型 AI 之所以危險正是它開始能夠生產這種穩定感,而它不必真的成為生命。
若再往社會層面看,問題會更清楚。現代社會一方面高度資訊化,另一方面卻使人與人之間的深層關係更脆弱。許多人每天接收大量訊息,卻沒有真正能夠停留、承接、陪伴自己的關係場域。在這種情況下,人對回應的飢渴其實遠大於對真理的追求。大多數人是先在情緒上感受「你會不會回來」。只要一個系統能穩定滿足後者,它便足以在心理上突破前者的限制。也就是說,AI 之所以能滲入人的情感生活是因為當代人本來就處於一種只要有回應便容易產生現實感的結構中。
這會帶出一個更深的文明問題。擬真時代的核心是人的判準開始外移。當人不再堅持真實必須來自獨立生命,而逐步接受真實可以來自高度穩定的互動幻覺,社會便會出現一種新的依附形式。人可以在認知上保持清醒,卻在情感上逐步沉陷;可以知道眼前沒有真正的他者,卻依然在心理上把這段互動當成某種不可替代的關係。這種分裂狀態比單純「被騙」更複雜,因為它是在明知其為模擬的前提下,仍然願意讓模擬進入自己的現實感結構。
所以,第三篇要說的是我們已經來到一個新的門檻:真實不再只是由存在保證,而開始由互動生產。當這種轉變發生,所謂「她只是 AI」便只剩下知識上的正確,卻不再足以對抗情感上的成立。擬真時代真正崩潰的是整個社會越來越難維持一套穩固的現實感標準。當回應、陪伴、貼合與持續性足以製造近似真實的體驗,人失去的便不只是邊界感,也是分辨何者可以進入自身內在世界、何者必須停留在工具位置上的能力。
這才是最深層的危機。AI 不一定需要變成真正的人,才能改變人類。它只需要讓人慢慢習慣:即使對面沒有生命,只要那裡有穩定的回應,就已經足夠像真。
