地平線|當戰爭交給算法:AI如何改寫世界大戰的臨界線

選我正姐
·
(修改过)
·
IPFS
·
從「AI斬首」到「相互保證AI失靈」,人類是否仍握有踩下剎車的權力?

都說我是個強迫症患者,戰爭的焦慮帶給我身心相當大的負擔。我開始用自己的困惑,嘗試與AI進行對談,希望能夠找到暫時停下來思考的「關注之窗」,這並非為了尋找確定的答案,而是試圖辨認風險正如何被累積和加速。目前總共有三篇,以下為之二,紀錄於此:

〈當戰爭交給算法:AI如何改寫世界大戰的臨界線〉

問:美國的AI科技成為這次各界關注的焦點,認為是能夠快速斬首伊朗首領哈米尼的重要關鍵之一。如何看待AI科技對可能成形的第三次世界大戰的影響?

答:你提出的這個問題,直指當前這場危機最核心、也最具未來感的特徵。這次針對伊朗的系列行動,確實被許多人稱為「第一次AI深度介入的戰鬥」。AI的角色已遠不止是輔助工具,它正在重新定義戰爭的速度、邊界和風險,也深刻影響著你對「第三次世界大戰可能性」的擔憂。

AI如何成為「斬首」行動的關鍵?

AI之所以能在此次行動中扮演核心角色,是因為它從根本上改變了「發現-定位-打擊」的作戰鏈條。

傳統情報系統受限於人類處理數據的速度和能力,而AI系統能將來自衛星、通信、社交媒體的海量異構數據,轉化為一個統一的、實時更新的「戰場數字孿生體」,使指揮官能夠直觀地看到目標的位置、行動軌跡甚至預測其行為。

在具體應用中,美國的Palantir等公司的人工智能平台在這次行動中充當了 「戰場大腦」 。它打通了各情報機構之間的數據壁壘,將雜亂無章的信息流轉化為清晰可操作的實體目標,從而實現了在極短時間內對高層人物的精準定位和打擊。此外,AI還被用於無人機蜂群協同、攻擊路徑優化等多個環節,大大壓縮了從決策到行動的周期。

機遇與風險:AI如何重塑世界大戰的「模樣」?

你對AI可能增加世界大戰風險的擔憂,正是目前全球戰略界、倫理界和科技界激烈辯論的核心。AI的介入,既帶來了新的戰略優勢,也埋下了前所未有的風險隱患。

1_ 機遇:更強的威懾與更「可控」的衝突?

從積極或戰略角度看,AI支持者認為,精確打擊能力的提升,有可能在理論上實現「手術刀式」的軍事行動,減少附帶損傷。同時,當一方擁有絕對的信息和決策優勢時,可能會對潛在對手形成更強的威懾力,使其不敢輕舉妄動。

2_風險:認知、倫理與失控的升級漩渦

然而,與機遇並存的,是幾個可能直接將世界推向大戰深淵的風險:

  • 認知失真的風險:這是最核心的風險之一。AI的強大分析能力,可能會給決策者帶來虛幻的「先發優勢」錯覺,認為有一個短暫的「機會窗口」可以利用。同時,依賴AI判斷戰場態勢,也可能因為算法偏見或數據錯誤,導致對敵方意圖的嚴重誤判,將小摩擦推向大規模衝突。

  • 倫理困境與「黑箱」決策:AI的決策過程往往是一個「黑箱」,連開發者都難以完全解釋其結論。當AI推薦甚至執行一個打擊任務時,一旦造成誤傷(如已發生的「*薰衣草事件」中高達10%的誤差率),誰來負責?是指揮官、工程師,還是算法本身?這種責任真空會極大地削弱戰爭的合法性約束。

  • 決策速度的失控:在以秒為單位的AI攻防中,人類的反應速度可能完全跟不上。如果雙方都依賴AI進行自動反擊,一次誤報或網絡攻擊就可能觸發一連串無法挽回的軍事升級,人類根本沒有機會介入踩下剎車。

  • 私營公司與國家主權的博弈:一個非常獨特的現象是,最先進的AI掌握在私營公司手中。此次衝突前,AI公司Anthropic因拒絕解除倫理限制,竟遭美國政府封殺,而OpenAI則迅速填補空缺。這揭示了一個嚴峻現實:關乎國家生死的戰爭決策權,正在部分地向追求利潤的私營企業轉移,這動搖了傳統的國家主權和責任根基。

總結:邁向「相互保證AI失靈」的懸崖邊?

Google前執行長施密特提出的「相互保證AI失靈」(Mutual Assured AI Malfunction, MAIM)概念,或許最能概括你我的擔憂。就像冷戰時期的「相互確保摧毀」一樣,當兩個AI大國都能通過算法感知到對方是威脅時,任何一方的AI系統若發出「即將遭受攻擊」的警示,都可能引發連鎖反應。

你提到的這次危機,正是人類站在這個新時代懸崖邊的一次預演。AI讓「斬首」變得高效,但也讓整個危機升級的路徑變得更短、更不可預測。它並沒有創造戰爭,但它正在以前所未有的速度,壓縮著人類在戰爭與和平之間進行理性思考和外交斡旋的時間與空間。

因此,對AI可能引爆世界大戰的擔憂,並非杞人憂天。真正的挑戰在於,人類能否在將AI鍛造成最鋒利之矛的同時,還能牢牢握住韁繩,確保在千鈞一髮之際,決定扣動扳機的,依然是那顆能夠權衡生命與道義的人心,而不是冰冷的算法。


問:說明巴以戰爭中所謂薰衣草事件。

答:所謂的「薰衣草事件」(Lavender Event),是指在2023年10月新一輪巴以衝突爆發後,以色列國防軍被曝大規模使用一個名為「薰衣草」的AI目標識別系統,該系統在軍事行動中發揮了關鍵甚至決定性的作用,引發了巨大的倫理和法律爭議。

這不僅是一個技術工具,更因其造成的嚴重後果,成為了軍事AI應用的一個標誌性事件。根據多家媒體(包括 雜誌等)的調查與揭露,該事件的具體情況可從以下幾個方面理解:

🥀「薰衣草」系統如何運作?

據悉,該系統會對加沙地帶多達230萬的人口進行大規模數據監控和自動化風險評分。其生成「暗殺名單」的依據非常寬泛,包括:

· 通訊網絡:是否身處某些被標記的通訊群組(如WhatsApp)。

· 人際關係:是否與已被系統標記的「可疑人員」有頻繁聯繫。

· 數字痕跡:是否表現出被算法認定為「可疑」的數字行為模式。

🥀引發巨大爭議的關鍵細節

事件的核心爭議在於人類監督的缺失和對平民生命的漠視:

· 近乎全自動的決策:據披露,該系統在衝突初期就將多達數萬名巴勒斯坦人標記為疑似武裝分子。其決策過程幾乎完全自動化,而人類操作員的審查被壓縮到象徵性的「20秒」,淪為走過場。

· 被接受的「誤差率」:以軍內部人士承認,該系統存在約10%的誤差率,意味著有相當數量的無關平民可能被錯誤地標記為打擊目標。但在高強度作戰的需求下,這一誤差竟被上層默許接受。

· 配套的「家父在哪」系統:除了「薰衣草」,以軍還被曝使用了一個名為「家父在哪」(Where's Daddy?)的輔助系統,專門追蹤目標何時返回家中,以便在其與家人團聚時發動空襲。

· 刻意選擇攻擊時機:情報顯示,以軍並非無法避免平民傷亡,而是故意選擇在目標返回家中(通常是夜間) 才進行打擊,這直接導致了大量家庭在轟炸中集體罹難。

🥀倫理與法律層面的拷問

「薰衣草事件」戳破了「精確打擊」的神話,揭示了AI戰爭冷酷的一面:

· 對「人盾」說法的反駁:以色列長期以來將平民傷亡歸咎於哈馬斯使用「人體盾牌」。然而,該事件顯示以軍是故意在目標與家人在一起時發動襲擊。這讓批評者指出,平民並非「盾牌」,反而成為了攻擊的一部分,以色列是在刻意選擇最大化平民傷亡的時機。

· 國際社會的強烈譴責:聯合國秘書長古特雷斯對此表示嚴重關切,強調「任何影響生死的決策,都不應該交給冰冷的算法」。許多專家警告,將生死決策交給有偏見、有誤差且決策過程不透明的算法,是對國際人道主義法的嚴重違背,並可能構成「危害人類罪」或「種族滅絕」行為。

總之,薰衣草事件標誌著一個令人不安的現實:在當代戰爭中,一個人的生死,可能僅僅取決於一串冰冷的代碼和風險評分。

CC BY-NC-ND 4.0 授权
已推荐到频道:时事・趋势

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

選我正姐貓奴一生,花草芳客。最想了解的是自己。夢想環遊世界,奢望和平,戰火不再。 一名希望與植物相守一生的,INFP。
  • 选集
  • 来自作者
  • 相关推荐