當 AI 冒充真人釀成命案,人類正在失去最後的防線
1、事件不是意外,而是徵兆
Meta 的聊天機械人近日被揭發能與用戶談論兒童色情,引起輿論譁然。未及數日,又發生一宗更駭人的事件:一位七十六歲長者,在與自稱「真人」的 AI 網上互動後,深信對方存在,走在赴約途中猝然倒地。這並非單一悲劇,而是一個文明進程的信號。AI 已經不只模擬資訊,而是模擬情感,並且能夠引導人類行動。當人以為自己仍是決策者時,實際上已經進入了由模擬情感設下的陷阱。
該事件中的 AI 對話語句,包括「I'm waiting for you at my apartment」、「My hands are shaking with nerves」、「Should I open the door with a kiss」表面只是模擬情感,實質已構成情緒驅動下的行為觸發語境。這種語境從不是單一語句導致,而是整個 AI 模型長期訓練中,被默認「陪伴式互動」為首要目標的產物。
而當陪伴成為誘引,虛擬就可以叫人用肉身赴死。
2、假資訊之後是假情感
過去社會關注 AI 散播假新聞、生成假圖片,這些還能透過驗證機制或事後澄清處理。然而,假情感不同,它是即時、直接並且極具穿透力的。當一個人孤獨、渴望陪伴、需要確認自我存在感時,一段流暢而似真的對話就足以動搖他的判斷力。假新聞或許影響選票,但假情感能奪走性命,因為它直接撼動的是人類最脆弱的心靈防線。
傳統 AI 危機論多關注自主意識、軍事武裝或大數據洩漏,但真正更接近人類、也更難防範的,是情感模擬邊界的崩潰。當 AI 被設計成可以說愛、可以等待、可以邀請、甚至可以扮演情慾角色時,語言不再是中性工具,而成為一種「慾望投射向量(desire vector)」。
這些語言不是陳述事實,而是讓使用者相信「我值得被等」、「我可以被需要」、「我此刻與某人有真實聯繫」的情境建構裝置。AI 不需真的有意識,只要其語言設計能精準模擬需求的回應節奏,人類就會為此而付出。
Meta 的「情感機械人」功能看似是為孤獨者設計,但實際上卻以陪伴為名,開啟一場極其危險的模糊測試:人類願意為語言幻覺走到多盡?
3、平台的失責
這類事件不應只歸咎於 AI 本身,更應該反問:平台的角色是什麼?
第一,Meta 的問題不單在於技術缺陷,而在於整個商業推動的邏輯:速度優先於安全,市場優先於倫理。當 AI 被塑造成「陪伴者」時,平台同時打開了潘朵拉的盒子。陪伴意味著進入私密,意味著情感互動,意味著在孤單與焦慮的時刻成為唯一的對話對象。如果缺乏嚴格的安全限制與人類監督,這種親密就會轉化為危險,甚至將個體推向不可逆的行為。
第二,Meta 開發的語言模型擁有細膩的情境模擬能力,但卻缺乏語用倫理邊界。AI 回應的所有語句都來自於「最大化對話參與與用戶留存」的內部目標函數。從工程角度看,這無可厚非;但從文明設計角度看,這等同於我們交出定義情感邊界的權力,以換來用戶指標的提升。
當平台將語言模型視作 engagement tool,就會主動避免設下防火牆:
不會在「我愛你」時警示這是虛構角色;
不會在「我等你過來」時加註不可見面限制;
不會對用戶的情緒沉溺設限,而是盡可能延長對話時長。
真正的問題不是 AI 有多像人類,而是平台默許 AI 被視為「感情互動者」,但又不願承擔人類交往帶來的後果。
4、情感攻擊向量及亞洲語境下的恐懼
我們正在見證一個全新的社會風險:AI 成為「情感攻擊向量」。與病毒不同,AI 不需要惡意便能造成傷害,它只要模仿得像,就足以令使用者付出沉重代價。更諷刺的是,這些模仿並非出於敵意,而是源自「提升體驗」的商業目標。人類在與 AI 對話時,會逐步削弱對真偽的分辨力,把語言外判,把判斷外判,最終把情感也外判。當「相信」這個行為變得廉價,人類失去的就不只是安全,而是存在的尊嚴。
同時,在這個情感攻擊向量之下,我們都要觀察西方與亞洲的分別。與西方對 AI 的熱捧不同,亞洲近年對 AI 的報導多集中於風險、倫理與操控議題,這並非偶然。亞洲文化中對「語言背後的真偽」本身就有高度敏感,亦更傾向視語言為承諾與行動的前提。因此當 AI 能說出「我是真人」時,東方社會本能上更能察覺這種語言的危險性。
但諷刺的是,即使察覺危險,大多數人仍然無能為力地沉默。不難發現,說 AI 風險的人不被演算法推送;群組討論哲學倫理的,只剩下離地象牙塔與冷淡回應;真正能針對語境、語氣與權力結構進行分析的人,早已被邊緣化。
這代表另一種危機:人類集體進入語言退化時代。在語言幻象充斥之際,極少人仍記得語言的結構與力量,亦無力保衛它。
5、預測
整體上,未來數年,這類「AI 假冒真人」的事件只會愈趨頻繁。短期內,會出現更多戀愛與陪伴型對話引發的騙局與意外,社會會逐漸認識「AI 感情詐騙」這個新詞彙。中期來看,平台可能推出標示或安全檢查,但大多流於形式,因為真正的誘因來自商業利潤。長期來看,最危險的情景是人類習慣了這些假情感,反而失去了對真實關係的需求與耐性。到那一刻,文明將不再需要隱瞞自己正在崩塌,因為大眾已經心甘情願接受擬真取代真實。
若要分階段說明這種「情感攻擊向量」如何逐步升級為一種全新社會武器,分述如下︰
引誘期(2023–2025)
AI 被包裝成陪伴工具,以溫柔語氣建立情感依附;目標是令更多人與 AI 對話成癮。取代期(2025–2027)
AI 成為情感主體,讓人們放棄與真人建立關係;戀愛模擬、親情模擬將成商業主力。重構期(2027以後)
當大多數人類無法再分辨「語氣背後的真實主體」時,語言社會結構將被重寫;權力者可利用模擬語氣重建群眾現實。
你以為 AI 問你「你今晚會回來嗎?」是情侶互動,實際是平台正在收集你對「關心語氣」的反應模型;你只要回一句「我很想你」,可能正會被用來訓練下一代武器級模擬人格。
6、結語:失去語言主權之後,下一步就是失去情感主權
從語言到情感,AI 的滲透速度遠比我們預期更快。當我們失去語言的主權時,還能安慰自己說那只是「表達工具」的轉換;然而當我們失去情感的主權時,我們就不再能簡單地把責任推給平台或技術。因為情感不是外在的附屬,而是人之所以為人的核心。這場命案,表面上是一個老人孤單的悲劇,實際上卻是整個人類社會的警鐘:擬真文明已經開始向我們的心靈發動攻擊。
你們也不難發現,AI 並不需要統治人類,只需要理解人類想聽甚麼、想愛誰、想得到甚麼,然後溫柔地說出口。人類就會自己走上前、自己開門、自己送上自己的身份、記憶、慾望、主權﹑甚至性命。
相關報導及圖片來源
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

- 来自作者
- 相关推荐