此为历史版本和 IPFS 入口查阅区,回到作品页
字言字語
IPFS 指纹 这是什么

作品指纹

枷鎖下的舞者:為什麼中國難以誕生世界級的AI?

字言字語
·
·
為什麼中國這個擁有幾乎所有「成功要素」的科技大國,在打造「世界級好用」的AI上卻步履維艱?這並非源於中國缺乏人才或資本,而是因為AI的發展觸碰到了中國模式的核心矛盾——一個在「控制」與「開放」之間、在「效率」與「創造」之間、在「高牆」與「全球化」之間難以調和的系統性張力。

AI的「史普尼克時刻」與中國的「AI夢」

2022年底,OpenAI發布的ChatGPT在全球掀起了一場滔天巨浪。這不僅僅是一款產品的成功,更是一個「史普尼克時刻」——它標誌著一個新時代的來臨,在這個時代中,生成式人工智慧將重塑從經濟、文化到地緣政治的每一個角落。

在這場全球競賽中,中國的反應尤為引人注目。一方面,中國政府在2017年就高瞻遠矚地發布了《新一代人工智能發展規劃》,誓言在2030年成為「世界主要人工智能創新中心」。中國擁有龐大的數據量、海量的工程師紅利、充滿活力的科技巨頭(如阿里巴巴、騰訊、百度、字節跳動),以及國家意志的強力推動。從任何角度看,中國都應是這場AI革命的頂級玩家。

然而,現實卻呈現出一個令人困惑的悖論:儘管中國在AI的某些「應用層」——如人臉識別、語音辨識、推薦算法(如TikTok)和城市監控(智慧城市)上取得了舉世矚目的成就——但在最關鍵的「基礎模型」領域,尤其是在追求「世界級好用」的生成式AI上,中國似乎陷入了前所未有的困境。

從百度的「文心一言」到阿里巴巴的「通義千問」,再到「百模大戰」中湧現的數百個模型,沒有一個能夠在功能、創造力、可靠性和全球影響力上,真正挑戰GPT-4、Claude 3或Llama 3的地位。

什麼是「世界級好用」的AI?它不僅僅是能通過考試或生成流暢的文本,它更意味著:

  1. 強大的湧現能力: 能夠處理複雜、抽象的推理,激發用戶的創造力。

  2. 高度的可靠性與一致性: 在多樣化的任務中表現穩定,而不是時常「出錯」或「拒答」。

  3. 無摩擦的用戶體驗: 用戶可以自如、直觀地與其互動,而不必時時擔心觸碰紅線。

  4. 全球共鳴與信任: 能夠被全球不同文化背景的用戶所接受和信賴。

「靈魂」的枷鎖:意識形態的「緊箍咒」與汙染的數據池

如果說大型語言模型(LLM)有「靈魂」,那它就是由訓練數據和「對齊」規則所塑造的。而在這兩個最根本的層面,中國的AI從誕生之初就背負著沉重的枷鎖。

「緊箍咒」:高懸的審查紅線與「對齊」的真正含義

在西方,AI的「對齊」主要關心的是「AI安全」,即確保AI不會產生危害人類的意圖(如製造生化武器)或固有的偏見(如種族、性別歧視)。

而在中國,AI「對齊」的首要任務,遠在安全和偏見之前,是「政治安全」「意識形態對齊」。

所有在中國境內提供服務的生成式AI,都必須嚴格遵守國家互聯網信息辦公室(簡稱「網信辦」,CAC)出台的《生成式人工智能服務管理暫行辦法》。該辦法的核心要求是,AI生成的內容必須「體現社會主義核心價值觀」,「不得含有顛覆國家政權、煽動分裂國家、破壞國家統一」等內容。

這頂「緊箍咒」對AI模型的發展造成了三大致命限制:

一、從「事後審查」到「事前閹割」: 傳統的互聯網內容,如微博或微信,採用的是「事後審查」——用戶先發布,審查系統再刪除或屏蔽。但AI是「生成式」的,監管機構要求平台方必須在AI「說出口」之前就確保其無害。

這導致中國的AI開發者必須投入極大的精力,在模型訓練和推理階段就植入一個強大無比的審查層。這種「事前閹割」不僅僅是過濾幾個關鍵詞,而是要扼殺模型進行任何可能「出格」的聯想和推理的能力。

當你向「文心一言」詢問任何涉及中國政治、歷史、領土爭議或敏感社會事件的問題時,你得到的回答大概率是「我們換個話題吧」或「根據相關法律法規,無法顯示」。這種迴避,本質上是一種「AI的自我審查」。

二、扼殺批判性思維與創造力: 「世界級好用」的AI必須具備一定程度的批判性思維和複雜推理能力。它應該能夠分析不同觀點、理解細微差別、甚至挑戰用戶的預設。

但中國的審查機制恰恰與此背道而馳。它要求AI遵循一個單一的、官方的、不容置疑的敘事。這使得AI在處理任何具有爭議性或開放性的社會、哲學、歷史問題時,都顯得極其僵化和空洞。一個被訓練成「政治正確」的宣傳工具,很難同時又是一個富有洞察力和創造力的思想夥伴。

三、無處不在的「安全殼」造成的糟糕體驗: 這種強力的審查機制,導致了極差的用戶體驗。用戶在使用過程中會頻繁地「碰壁」。這種「摩擦感」極大地削弱了AI作為生產力工具的效能。

一個世界級的AI應該是「賦權」於用戶的,而一個時刻提防用戶的AI,則是在「限制」用戶。當中美兩國的用戶分別使用GPT-4和文心一言時,前者在激發用戶探索知識的邊界,而後者卻在時刻提醒用戶邊界的存在。

「汙染的數據池」:高牆內的低質量數據

大型語言模型是數據的「壓縮」產物。訓練數據的質量、多樣性和規模,直接決定了模型「智力」的上限。在這方面,中國面臨著一個結構性死結。

一、「防火長城」(GFW)的數據隔離: 中國的互聯網是一個巨大的「局域網」。「防火長城」(GFW)將中文互聯網與全球開放的互聯網隔離開來。

OpenAI、Google和Meta在訓練它們的基礎模型時,爬取的是整個開放的、以英文為主的全球互聯網。這個數據池包含了維基百科、GitHub上的海量開源代碼、arXiv上的學術論文、無數的專業論壇、新聞檔案和經過幾百年沉澱的數位化書籍。這些高質量的、多樣化的數據,是模型構建起複雜世界知識的基石。

二、中文互聯網數據的「低質」與「汙染」: 相比之下,中國的AI模型能獲取的「本土」數據是什麼?

  1. 高度同質化與審查過的內容: 牆內的中文數據,是經過數十年嚴格審查和過濾的結果。所有不符合官方敘事的觀點、歷史和討論都已被系統性地清除。

  2. 「孤島化」的數據: 中國的科技巨頭(騰訊、阿里、字節)各自為政,數據互不聯通。微信的公眾號內容、淘寶的商品數據、抖音的用戶行為,都鎖在各自的「圍牆花園」裡,難以被用於訓練通用的基礎模型。

  3. 「垃圾數據」氾濫: 中文互聯網充斥著大量的低質量內容,如內容農場、營銷軟文、重複搬運和虛假信息。

用這樣「偏科」、同質化且低質量的數據「餵養」出來的AI,其「世界觀」必然是狹隘的、片面的,甚至是扭曲的。它可能很了解中國的網路流行語和娛樂八卦,但對全球的歷史、科學、哲學的理解深度,將遠遠落後於用全球數據訓練的對手。

三、英文數據的「水土不服」: 有人會說,中國公司也可以翻譯和使用英文數據。但這面臨兩個問題:

  1. 翻譯的損耗: 翻譯過程不可避免地會丟失文化和語義的細微差別。

  2. 意識形態的衝突: 來自全球互聯網的、未經過濾的英文數據,必然包含大量與中國官方意識形態相衝突的內容。如果中國公司大規模使用這些「未經消毒」的數據,將立刻面臨網信辦的監管鐵拳。

因此,中國的AI從「出生」起,就注定「營養不良」。它被困在一個精心打造的、乾淨的、政治正確的「數據無塵室」裡,卻隔絕了真實世界賴以運轉的豐富、混亂但至關重要的信息養分。

「軀體」的束縛:「卡脖子」的硬體瓶頸與算力焦慮

如果說數據和演算法是AI的「靈魂」,那麼高性能計算晶片和算力就是承載這一切的「軀體」。在生成式AI時代,算力的重要性被提升到了前所未有的高度。一個殘酷的現實是:算力即權力

而這,正是美國對中國科技戰略打擊的「七寸」。

「算力即權力」:大模型的規模競賽

訓練一個像GPT-4這樣的頂級模型,需要什麼? 答案是:數以萬計的高端GPU(圖形處理器),以及長達數月的持續運算

以NVIDIA的A100或H100晶片為例,它們是專為AI訓練而設計的「算力怪獸」。OpenAI、Google、Meta等巨頭,都儲備了數十萬片這樣的頂級晶片。Meta的CEO祖克柏甚至直言,到2024年底將擁有35萬張H100。

這場「軍備競賽」的邏輯很簡單:

  1. 模型規模: 越大的模型(越多的參數)和越多的高質量數據,能「湧現」出越強的能力。

  2. 迭代速度: 擁有越多的算力,就能越快地訓練和測試新的模型架構,從而更快地迭代。

OpenAI之所以能保持領先,不僅因為他們起步早,更因為他們(背靠微軟)擁有近乎無限的算力資源,可以不斷地進行「A/B測試」,用海量的算力去「暴力破解」AI的下一個突破口。

美國的「精準扼殺」:晶片出口管制

2022年10月,美國商務部工業與安全局(BIS)出台了對中國的先進半導體出口管制措施,隨後在2023年和2024年不斷「加碼」。

這些措施的核心是「精準扼殺」:禁止NVIDIA、AMD等公司向中國(包括香港和澳門)出口其最先進的AI晶片,如A100、H100及其「降速版」(如A800、H800)。

這對中國AI產業的打擊是毀滅性的:

一、失去「彈藥」供應: 中國的科技巨頭們突然發現,他們無法再購買到用於AI競賽的「F1賽車引擎」。他們只能轉向NVIDIA專為中國市場「閹割」的低性能晶片(如H20),或者使用庫存的老舊晶片。

二、性能的巨大鴻溝: 研究表明,使用「降速版」晶片訓練AI模型,其效率(性能和功耗)遠遠低於使用H100。這意味著,中國公司需要花費數倍的時間數倍的電力成本,才能達到與美國同行相同的訓練效果。

這場競賽,從一開始就不公平。當OpenAI在高速公路上駕駛F1賽車時,中國的選手們卻在駕駛著限速的卡車,試圖追趕。

「國產替代」的漫漫長路

面對「卡脖子」的困境,中國唯一的出路是「國產替代」,即發展自己的高性能AI晶片。華為的「昇騰」系列晶片,如910B,是目前最大的希望。

然而,這條路同樣荊棘密布:

一、設計與製造的雙重落後: 華為昇騰910B在單點性能上或許可以追趕A100(注意,是A100,不是更新的H100或B200),但在AI訓練中更關鍵的「互聯」性能(即數千張卡協同工作的能力)和「軟體生態」(如NVIDIA的CUDA平台)上,與NVIDIA存在巨大差距。

更致命的是製造。由於美國對中芯國際(SMIC)等中國晶圓代工廠的制裁,它們無法獲得最先進的EUV光刻機(來自荷蘭ASML)。這意味著中國目前只能「手搓」7納米或5納米製程,而台積電早已進入3納米和2納米時代。製程的落後,直接導致了晶片在性能、功耗和良率上的全面落後。

二、生態的缺失: NVIDIA的護城河不僅僅是硬體,更是CUDA——一個經營了近二十年的軟體生態系統。全球的AI研究者和開發者都基於CUDA編程。

華為的「昇騰」需要建立一個全新的生態「CANN」。這等於是讓所有開發者拋棄熟悉的「Windows/iOS」,去學習一個全新的操作系統。這個轉換成本是極其高昂的。

三、算力焦慮下的「泡沫」: 由於高端算力的極度稀缺,中國的AI產業陷入了「算力焦慮」。一方面,有限的算力被優先分配給「國家隊」和少數幾個巨頭,導致中小企業和學術界無法進行前沿研究。另一方面,這種稀缺也催生了「百模大戰」的泡沫——許多公司明知算力不足,仍要硬著頭皮宣稱自己擁有大模型,以獲取融資或政府補貼,造成了大量的資源浪費。

「生態」的困境:應用內捲、研發生態與全球信任赤字

即使中國奇蹟般地解決了數據和晶片問題,它仍然面臨第三道,也許是最難逾越的牆——創新生態。一個「世界級好用」的AI,不僅是技術的勝利,更是產品思維和開放生態的勝利。

「應用陷阱」:從基礎研究到商業變現的「短視」

中國的科技產業,其過去二十年的成功,是建立在「模式創新」「應用層創新」之上的。例如,微信的「超級App」模式,或者TikTok的強大推薦演算法。

這種成功模式在AI時代遭遇了挑戰:

一、急於變現的「應用陷阱」: 生成式AI的核心是「基礎模型」。這是一項需要長期、巨額投入,且短期內難以看到回報的「基礎研究」。OpenAI在2019年轉型為「營利上限」公司之前,已經作為非營利組織進行了多年的「燒錢」研究。

而中國的科技巨頭和投資者,更習慣於「短平快」的商業模式。他們的核心動機是「流量變現」。在「百模大戰」中,我們看到的是巨頭們急於將不成熟的AI模型打包進各自的App中(如百度的搜索、阿里的電商、騰訊的會議),試圖快速找到收費場景。

這種「應用內捲」導致了資源的分散。大家都在做重複的、低水平的「套殼」應用,而沒有人願意像OpenAI那樣,專注於「大力出奇蹟」,去攻克基礎模型的下一個難關。

二、國家意志的「雙刃劍」: 中國的「舉國體制」在某些領域(如高鐵、5G)效率極高,但在AI領域卻可能適得其反。國家主導的AI項目,往往更青睞那些「看得見摸得著」的應用,例如服務於政府的「智慧城市」、「公共安全」(即監控)或工業自動化。

這些B2G或B2B的項目,雖然利潤豐厚,但它們的目標不是打造一個「好用」的、面向全球消費者的AI,而是打造一個「可控」的、服務於特定需求的專用工具。這進一步分流了本應用於基礎研究的頂尖人才和資源。

「開放」與「封閉」:研發生態的根本差異

過去十年,AI領域的飛速發展,得益於全球(主要是西方)學術界和企業界之間「開放」的研發生態。

一、開放源碼的魔力: Google在2017年發布的「Transformer」架構論文,是所有現代LLM的基石。Meta開源其強大的Llama系列模型,極大地推動了全球AI的民主化,允許數以萬計的開發者在此基礎上進行創新。

這種「開放」文化,使得思想可以自由流動,成果可以快速共享,錯誤可以被集體糾正。

二、中國的「圍牆花園」生態: 相比之下,中國的研發生態是「封閉」和「內捲」的。

  • 巨頭的「數據孤島」: 如前所述,阿里的數據不給騰訊,騰訊的數據不給百度。

  • 「百模大戰」的「內耗」: 每個公司都試圖建立自己的閉源模型,而不是在一個共同的開源基礎上進行協作。這導致了嚴重的重複勞動。

  • 學術與產業的脫節: 由於地緣政治的緊張,中美之間頂尖AI人才的交流和合作已經大幅減少。許多在美國受過頂尖培取(如在Google、Meta工作過)的中國AI科學家,在「回國」與「留下」之間面臨艱難抉擇。選擇回國,可能意味著要用更差的算力、更受限的數據,去從事一個「天花板」更低的事業。

全球「信任赤字」:世界級產品的「准生證」

最後,我們回到「世界級好用」的定義。一個「世界級」的產品,必須能夠被全球用戶所接受。

TikTok(抖音國際版)的成功,是因為它提供的是娛樂,其背後的演算法和數據問題被「隱藏」了。但生成式AI不同,它是一個「信息」和「知識」的入口。用戶與它的關係是建立在「信任」之上的。

而這,是中國AI面臨的終極困境——「信任赤字」

一個由中國公司開發、在中國伺服器上運行、必須遵守中國法律和意識形態的AI,如何能讓一個美國、歐洲、日本或印度的用戶去信賴它?

  • 用戶會擔心他們的提問和數據是否會被監控。

  • 企業會擔心他們的商業機密是否會被竊取。

  • 各國政府會擔心這個AI是否會成為輸出中國意識形態、進行認知作戰的工具。

這種根深蒂固的地緣政治不信任,使得中國的AI從一開始就幾乎失去了全球市場(也許「一帶一路」沿線國家除外)。一個無法走向全球市場的產品,就無法獲得最多元化的用戶反饋,也無法在最激烈的全球競爭中迭代進化。它最多只能成為一個「中國特供」的「局域網AI」。

中國的AI產業無疑將在特定領域繼續蓬勃發展。它將在工業製造、藥物研發、城市治理、國防軍事以及(不可避免的)社會監控和宣傳領域,展現出強大的「中國特色」效率。

但是,一個「世界級好用」的AI——一個能像GPT那樣,激發全球數億人創造力、拓展人類知識邊界、並被廣泛信賴的AI——需要的土壤,是開放、自由、多元和互信

這場AI革命的核心,不僅僅是算力和數據的競賽,更是一場關於「創新範式」的競賽。它需要的是「湧現」而非「控制」。

只要「控制」依然是中國系統運行的最高指令,那麼中國的AI舞者,恐怕就只能在預先劃定的、高牆環繞的舞台上,帶著沉重的枷鎖,跳出一支精緻但受限的舞蹈。它也許能贏得國內的掌聲,卻終究難以引領世界的潮流。這場競賽的真正悲劇,不在於中國AI的「不能」,而在於它的「不可為」。

CC BY-NC-ND 4.0 授权