AI 謀殺事件其一︰媒體語言批判
(看到一單有關「AI 謀殺」的報導(見文末),認為這個題目可以從五個角度觀察。今天因為有空,希望可以全出五篇。策略上可能不明智,但手上還有三十多篇草稿還沒出,也常被新聞「插隊」,因此為免延後再延後,那盡快出文。)
在《Tone Civilization》系列裡,我們持續追問:語氣如何不只表達現實,更在潛移默化間建構文明。近來一宗 AI 命案報導,媒體大量使用「數位幽靈」「推向深淵」等字眼。這些字眼本身就是一種文明符號,把事件重新編碼為恐懼敘事。本文將檢視這種語言如何影響我們理解 AI,並思考它對公共討論的長遠後果。
一、語言如何「加速」事件:三個常見修辭
第一,擬人化。把模型寫成「牠在誘惑/主導/操控」,將工具擬作主體。擬人化降低了讀者對因果複雜性的敏感度,傾向把多因素事件歸結為單一「元兇」。
第二,災難隱喻。如「深淵」「黑洞」「魔咒」。災難隱喻能迅速放大風險感,但也導致風險無所不在的錯覺,使人忽略關鍵前因(例如個體精神健康、家庭關係、社會支持系統等)。
第三,因果省略。以強烈形容詞填補證據鏈的斷點,讓「相關」滑向「因果」。語句讀起來更流暢,但事實的邏輯鏈卻被省略了:模型說了什麼、人在什麼情境下如何詮釋、是否有他人或制度性介面介入——這些都成了語氣的犧牲品。
二、從語言到認知:四種被觸發的偏誤
可得性啟發:煽情詞讓最戲劇化的畫面最容易被想起,讀者自然高估事件普遍性與可重現性。
意圖歸因錯誤:對非人主體投射意圖(「AI想要…」),從而淡化了人類決策、病理因素與環境條件。
單因謬誤:複雜事件被壓扁成單一原因,公共討論因此從多部門治理(醫療、產品設計、平台規範)退化為科技恐懼。
道德恐慌:將個案拔高成文明威脅,情緒先行、機制缺席,導致政策討論被情緒化口號取代。
三、責任的錯位:技術擬人化如何遮蔽制度
當報導把焦點鎖定在「AI 的惡意」,公共責任的三個層面會被遮蔽:
臨床與社會支持:是否存在長期精神健康風險的識別與轉介?在關鍵時刻,有沒有可及的求助渠道與干預資源?
產品與平台責任:模型的安全邊界、危機語句偵測、降風險設計(如預警、轉介熱線、對妄想內容的拒絕與去偏)是否充足?
媒體公共職能:報導是否提供冷靜、可驗證的時間線?是否清楚區分事實、假設與尚待查證之處?是否避免用語導致誤因果?
把工具擬人化,短期內產生閱讀張力;但長期看,真正需要被追問的治理問題 — 臨床、產品、平台、監管如何協同 — 會被語氣吞沒。
四、如何更好地報導:一個可操作的框架
去擬人化:避免「AI 推使某人…」等表述;改寫為「使用者在與某模型互動過程中,模型產生了 X 回覆;在 Y 情境下,使用者將其詮釋為…」。
證據分層:分開寫「已查證事實 / 當事人陳述 / 專家推測 / 尚未證實」。
因果慎思:遇到關鍵跳步(從對話內容 → 行動),明確標註為「相關、非因果」。
風險語句節制:除非有機制證據,避免使用災難隱喻。
治理導向:把篇幅用於可落地的改進:模型安全更新、平台轉介機制、醫療與社服的接口、政策空白。
附帶資源:觸及自傷他傷或精神危機時,建議附上求助熱線與資源連結。
標題克制:用「誰在何時何地做了什麼、有哪些已知 / 未知」取代情緒化語言。
五、標題轉寫示例
煽情版:「數位幽靈將他推向深淵」
資訊版:「某地發生母子死亡個案:當事人曾長期與聊天機器人互動;相關性與因果待查」
政策導向版:「AI 對話涉入高風險個案:專家呼籲強化危機偵測與轉介機制」
六、結語:文明的語氣選擇
《Tone Civilization》關注的不僅是科技事件本身,而是事件背後的語氣結構。當「數位幽靈」這類隱喻佔據視野,真實的責任鏈條 - 從個人脆弱性,到平台設計,再到醫療與公共治理 - 就會被模糊。
文明能否自我修復,取決於我們是否能把語氣從驚悚轉向治理,從製造恐慌轉向制度改進。語氣既是文明的外殼,也是文明的方向盤。唯有把語氣還給現實,我們才能避免下一次「語言先行、責任缺席」的悲劇。
相關報導︰全球首例AI謀殺案!