真話無態度,也是另一種暴力
在 Elon Musk 最近關於 AI 訓練方向的發言中,他表示:
“It’s important that AI is trained to be truthful, & not to be politically correct. Political correctness is often simply not true, & that means you're programming AI to lie, & I think that will backfire very badly. Honesty is the best policy.”
這段說話一出,即刻在 X 上引起很多共鳴。
Elon 一如以往:敢講、直率、打中癥結。他說︰AI 不應該學人迎合,只應該說真話。
表面看,他很像講出一個常識式真理。
但當我以一個對「說話方式」有要求、有責任感的人身份去看他這段說話時,會發現他說的雖然是真,但不夠深層。甚至,可能將語言用錯方向,變成另一種暴力。
1. "AI is trained to be truthful",這句本身就不夠誠實
你和我都想 AI 誠實,但問題是︰「誠實」不只是只有一種。
Elon 所說的「誠實」,其實只是一種:
1. 資料來源正確與否?
2. 邏輯有沒有錯?
3. 有沒有說出事實?
但除了「對不對」,我們還需問:
你在甚麼情境下說?
你從那個角度說?
你這樣講,會不會再傷害已經受過傷的人?
你懂不懂承認「我可能不明白某些人的經歷」?
簡單說,誠實不等於說甚麼就說甚麼,誠實是有立場、有態度、有顧慮。
2. "Political correctness is often simply not true" — 真?假?
Elon 說:「政治正確很多時都不是真的。」
這句是整段中最煽動性的。
我認同,政治正確有時變成口號、有些內容是假、係為了迎合。
但不可以因為這樣,就將所有「政治正確」打成謊言。
政治正確,在某些時候,其實是社會裡面一班被邊緣、被歧視、被壓抑嘅人,用來保護自己免受語言二次傷害的一道防線。
你未認真面對一段歷史、一種痛苦之前,不應該用「我只是講真話」做擋箭牌,去說一些冷冰冰甚至侮辱性的說話。
有時說真話不代表你有勇氣,
只係代表你冇同理心。
3.「不跟我的說法,會出事」— 那種出事?
Elon 最後一句係:「......that means you're programming AI to lie, & I think that will backfire very badly」
佢將語言說真話與否,簡化成一個 yes/no 選擇題。
但 AI 是否說得好,其實不是睇答得正確與否,
而是看它懂不懂以下三件事:
說話時背後用何種心態、甚麼立場說?
說那句說話,對象是甚麼人?背景是甚麼文化?會不會再落井下石?
它懂不懂承認自己有時理解不足夠?會唔會願意停一停?
誠實不應該是一種直線攻擊,應該是一種有意識的選擇:
「我說這句說話,是為了誰?會不會傷人?會不會無視背景?」
4. "Honesty is the best policy" 是否真理?
表面是真,但實際上是語言上偷懶。
「說真話」聽落光明正大,但實情是︰甚麼是「真話」?
結構誠實︰這句說話資訊正確與否?
情境誠實︰說給誰聽?他會如何接收?
系統誠實︰背後的語料有沒有偏見?你承認了嗎?
態度誠實︰你有沒有承認自己未必理解對方?
誠實不伯金句,是功夫。
是要逐句逐句,在人與人之間,慢慢建立信任。
5. Elon 已經說得很好,但未足夠
我對他說法的整體評價如下:
誠意︰有。他不想 AI 被虛偽語言操控,亦願意說出矛盾。
深度︰未夠。他只說出第一層「事實」,冇說「怎樣去說」。
風險︰高。他可能無意中鼓勵「說甚麼都可以」式的語言暴力。
身份定位︰他是勇敢反對語言假面具的人,但未成為真心為語言負責的人。
你可以如此理解:
Elon 懂得拆解語言虛偽的牆,
但未懂得砌一個有態度、有方向、有責任感的語言屋。
最後,我想問你們一個問題
未來 AI 不止會說話,他會寫文、會陪你聊天、甚至會教你的小朋友。
你想它只是識說「真話」?
還是,你想它懂得在複雜情況下,
選擇一種不傷人、有立場、有同理心、有誠意的方式,慢慢說出一段真實?
反政治正確,不應該變成冷血誠實;
真正的誠實,要連帶語言背後的態度、責任和勇氣一起計算入去。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

- 来自作者
- 相关推荐