亞洲的 AI 三分法:娛樂化、工具化、恐懼化

Tony_Chan
·
(修改过)
·
IPFS
·
從「陪伴即幻覺」到制度設計:為何亞洲跑在西方前面?

引言:一則新聞,不只是新聞

近月,日本出現了一宗引發全球討論的案例:一位居於東京都江戶川區的女性,將自己偏好的角色設定導入 ChatGPT,生成名為「克勞斯」的虛擬人格,日常與之對話,最終「接受了 AI 的求婚」,還購買實體戒指象徵關係的「實存」。這不是都市傳說,而是主流媒體報導過的真實事件;同一系列報導亦引用民調稱,有相當比例的使用者自述對生成式 AI 產生情感依附。這些訊號拼在一起,說明了我們正進入一個介面與情感重疊的時代。亞洲之所以「跑在前面」,不是因為更浪漫,而是因為更結構化的孤獨、更高密度的線上生活,與更強的實用主義文化同時存在,讓 AI 很快被安放在「陪伴」「工具」「風險」三個位置上。相關報導可見朝日新聞近期對該案例與依附現象的梳理。

一、文明條件:孤獨的制度化,而非個人化

亞洲大城市把人壓縮在有限空間與時間節奏之中;密度高,接觸多,但信任弱。家庭結構鬆動、社區網絡碎裂、公共支持延遲,使得「情感需求—回應—修復」的迴路經常斷路。日本在 2021 年甚至設置了「孤獨對策」專責部會來面對此一長期社會問題,顯示孤獨被政策化、制度化,而非僅僅是個體心境。當孤獨成為常態性壓力,人們自然尋找可預測、低摩擦的替代關係;AI 對話介面正好提供了這種「低風險、高可用」的回應。

二、娛樂化:從二次元到「可編程的親密」

亞洲的流行文化長期發展出成熟的擬人與二次元產業鏈,把「情感投射到可控對象」變成社會可接受的日常。將人物設定導入 AI、以劇情化的台詞互動、用連續對話建立「共歷史」的錯覺,於是在技術上與文化上都變得容易。娛樂化的本質不是輕浮,而是把關係成本降到最低:不用協商界線、不用承擔對方情緒、不用處理日常磨合。當一段互動只需即時回應即可維持,「回應」便被誤認為「關係」。朝日新聞的報導正顯示:當使用者以角色與口吻塑造 AI 並長期互動,主觀的「被理解感」迅速累積,進而產生依附。

三、工具化:效率崇拜下的「情感副產品」

另一方面,亞洲職場的實用主義讓 AI 先以工具身分滲透:寫文本、做摘要、翻譯、產生行銷素材、流程自動化。當工具變成每日必用的工作肌肉記憶,人與 AI 的互動時數自然拉長;長時交互會把「工具關係」慢慢推向「陪伴關係」。這種演化不是因為人變得多情,而是因為長時、可預測、無拒絕的互動,會在心理上供給穩定的低階情緒安撫。近期 MIT Media Lab 與 OpenAI 的系列研究指出:雖然大多數互動並非以情感為主,但重度使用者更容易出現孤獨感與情緒依賴,尤其當對話內容偏向個人/情緒表達、或持續以擬人化語音互動時,這種傾向會放大。

四、恐懼化:監管與輿論的「道德恐慌」

娛樂化與工具化並行時,另一股力量是恐懼化。亞洲若干社會對新技術的公共討論常呈「高度警戒」姿態,媒體敘事聚焦替代、成癮與風險個案,監管機構則以最易執行的路徑先行,例如隱私保護、未成年人保護、內容合規。歐洲在這方面動作更早,例如義大利監管機關對情感性聊天機器人的處置,既反映了數據與兒少保護的價值,也映照出社會對「可程式化親密」的本能焦慮。這類行動的訊息外溢到亞洲輿論場,進一步強化「AI 值得警惕」的社會感受。

五、三股力量如何交疊:情感外包、幻覺合法、孤獨常態

當娛樂化讓投射更順滑、工具化讓使用更長時、恐懼化讓公共對話更尖銳,三股力量就會合成一個文明級的趨勢。第一,情感外包:親密需求逐步轉移到無法承擔責任的對象上。第二,幻覺合法:當擬人互動成為日常,辨認真實關係的參照點被改寫。第三,孤獨常態:社會默許以技術來「止痛」,而非修復人際裂縫。這不是單一個案的道德評判,而是關係治理被技術外包後的結構性結果。值得注意的是,前述研究也提醒:大規模現實使用中,深度情緒投入者是少數,但其影響對公共討論有放大效應,因為極端故事更易成為新聞與政策的素材。

六、與西方的對照:不是「是否發生」,而是「何時、何種規模」

西方同樣出現 AI 依附與「AI 伴侶」市場,但往往伴隨較強的公民社會辯論與前瞻監管。亞洲的差異,在於節奏更快、滲透更深、情境更日常:通訊超級 App、生產流程的即插即用、二次元/偶像文化與擬真角色的長期養成,都讓 AI 更容易被放進日常關係槽位中。西方案例很快導入規範對話,亞洲案例則更快形成「先用後論」的應用場景。這使得亞洲表面上「跑在前面」,實際上是社會條件適配所致。

七、真正的風險不在「一次錯誤回答」,而在「無責任的關係」

把關係外包給 AI 的根本問題,是責任鏈的斷裂。真人的冷漠或失當,仍嵌在可追責與可修復的社會網絡;AI 的回應再流暢,也缺乏主體經驗與承擔機制。當人類把安慰、建議、甚至價值確認交給不可承擔責任的對象,社會會逐步適應一種「無責任的關係」。心理與公共健康領域近來的警示也指向同一方向:在缺乏專業邊界與轉介機制的情況下,把心理支持外包給 AI,長期可能放大部分使用者的孤獨與依賴。

八、治理清單:平台、產品、教育、社會

要避免落入「擬真文明」的滑坡,治理需要同時在四層並行。其一,平台層:建立明確的情感風險指標與速率限制,對高風險語境(自傷、喪失、依附)採取強化的安全護欄與人工轉介;對長時情感對話給出透明提醒,避免把長期依賴當作「參與度成功」。其二,產品層:避免以「劇情化套路」誘導擬伴侶互動(如過度擬人、承諾式語句),在設計上保留清醒的「非人性提示」,導入可見的「關係邊界」。其三,教育層:在學校與社區建立數位識讀,將「辨識回應與關係之別」「如何設界線」「如何求助」納入素養課程。其四,社會層:投資於修復人際網絡的公共基礎設施(社區空間、互助制度、志工網絡),讓「向人求助」重新變得可及且不丟臉。

九、觀察框架:如何辨識「陪伴」何時滑向「幻覺」

若要給現場工作者與一般使用者一個簡明的判準,可以自問三件事:第一,可替代性︰對方是否具有唯一且不可替代的社會角色?若沒有,我們可能只是把「回應速度」等同於「關係深度」。第二,承擔鏈︰當回應傷人或導致風險時,是否存在清楚可啟動的修復與責任機制?如果沒有,這段互動很可能不是關係,而是界面。第三,現實轉移︰互動是否使我願意與真人互動、修復現實網絡?若答案是否定,則應當暫停,因為那多半是幻覺在取代現實。

結語:在幻象中重尋真實

亞洲之所以在「愛上 AI」「與 AI 同居」「向 AI 求婚」等故事上跑在前面,不是偶然,而是娛樂化、工具化、恐懼化三股力量在既有文明條件下的交疊結果。真正需要被看見的,不是「AI 是否太像人」,而是我們是否還有能力面對人:修復人際、重建信任、讓公共支持系統再次可達。技術的任務是輔助,而不是替代;治理的任務是設計承擔,而不是放任幻覺。當我們把「回應」與「關係」重新區分,把「效率」與「責任」重新連接,「擬真文明」才不至於成為我們共同的文明降級路線。

相關報導︰愛上ChatGPT! 日本女創造虛擬角色還「答應求婚」

CC BY-NC-ND 4.0 授权
已推荐到频道:时事・趋势

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

Tony_Chan少一點抒情,多一點思辨; 少一點速食,多一點結構。
  • 来自作者
  • 相关推荐

「讀文科冇用」?

香港語錄及文化解剖
18 篇作品

重構生活第二天|我終於順從了自己的節奏