後崩潰時代的備忘錄| 演算法與隱形控制
看不見的極權
二十世紀的極權主義有其鮮明的符號:集中營、審查機構、暴力鎮壓、造神運動。極權意味著可見的恐怖。人們往往能夠察覺自己被統治,於是反抗的可能性也就始終存在。
然而,進入二十一世紀,極權的形態悄然變化。它不再依賴暴力的外在強制,而是披上了一張溫和的面孔:演算法。
我們每天接觸的資訊流、購物推薦、新聞排序、娛樂內容,乃至朋友的動態與社交平台的熱點,幾乎全部經過演算法的篩選與編排。這些運算過程不是透明可見的法律或規則,而是黑箱式的數據處理。它潛伏在我們的日常選擇背後,在不動聲色之間重塑現實。
這種控制的特徵,不是血腥與恐怖,而是 隱形化與自願化。人們不再被迫接受統治,而是心安理得地走在演算法為我們規劃的道路上,甚至因為「便利」而感恩。
哈佛商學院的研究顯示:全球 90% 以上的用戶每天接觸到的內容,實際上是由不到 5% 的核心演算法模型決定的。這意味著,我們以為的「資訊自由市場」,早已是一個由少數平台壟斷的幻象。
這便是「演算法與隱形控制」的時代。
I. 演算法的權力邏輯
1. 從中立工具到治理武器
在矽谷的原始敘事裡,演算法常常被形容為「中立的技術」:它只是根據數據和規則運行,沒有價值立場。然而,現實證明這是危險的幻象。
YouTube 的案例:2016–2020 年的美國大選期間,研究發現 YouTube 的推薦系統傾向於推送極端內容,用戶很容易從正常新聞跳轉到陰謀論影片。這不是偶然,而是因為演算法在「最大化觀看時長」的邏輯下,會自動優先推薦能激發情緒的內容。
微博熱搜的消失:在中國,熱搜榜單可以在一夜之間「消失」某些關鍵字。這既不是人工審查員一個個刪除,而是演算法模型在後台被調整,將特定話題直接降權。
演算法的設計並不中立:
它承載了 設計者的意志(平台公司、政府、工程師的價值判斷);
它體現了 數據的偏差(誰的數據被收集、怎樣被標註與清洗);
它服務於 商業與政治動機(廣告收益、輿論穩定)。
一旦這些意志被編碼進程式,演算法就不再是冷冰冰的數學公式,而是一種治理武器。
2. 隱形化的優勢
傳統極權需要可見的強制:審查、逮捕、恐嚇。這些手段會激發社會的警覺與反抗。相比之下,演算法的治理是「潤物細無聲」的。
Facebook 在 2014 年曾進行過一個爭議實驗:秘密調整了 70 萬用戶的動態消息排序,結果證明僅僅透過演算法的微小調整,就能顯著影響用戶的情緒傾向。當研究發表後,雖然公司受到強烈批評,但它展示了一個可怕的事實:情緒本身可以被工程化。
這種隱形化使得控制難以被察覺。人們甚至會把這種「選擇」誤以為是自由。
II. 自由的幻覺
1. 被動選擇的機制
當你打開 Netflix,首頁推薦的影片是依據演算法計算出來的「你最可能點擊」的內容;當你在亞馬遜或淘寶搜尋「筆記本」,你看到的排序早已經過優化與過濾。
人們誤以為自己在自主選擇,其實只是從系統精心準備的有限選項中做被動挑選。這就是「被動自由」的幻覺。
YouTube 的數據顯示,平台上 超過 70% 的觀看量來自演算法推薦,而不是用戶主動搜尋。換言之,大部分觀看行為並非我們的「自由選擇」,而是被動接受推薦的結果。
2. 行為被馴化
演算法不只是控制資訊流,還透過獎懲機制重塑行為:
點讚、轉發、評論數 → 刺激即時反饋慾望;
熱搜榜單 → 引導集體注意力,決定「什麼值得討論」;
短視頻推送 → 逐步改變大腦結構,降低人們的長時間專注能力。
最終,人們不知不覺地被馴化為「演算法友好型存在」:創作者按照規則調整文案和影片;消費者學會迎合推薦機制。人類的行為與思維被逐步數據化、格式化。
III. 演算法與權力的結盟
1. 國家與資本的共謀
演算法的隱形控制並非單純的商業邏輯,而是與國家治理深度綁定。
國家層面:
中國的「社會信用系統」把公民行為轉化為信用分數,演算法決定了誰可以乘坐高鐵、誰能獲得貸款。
美國警方使用「預測性警務」演算法來預測某地犯罪率,結果卻強化了種族偏見:黑人社區更容易被標記為「高風險」。
資本層面:
Google、Meta(Facebook)、字節跳動、阿里巴巴等公司透過演算法壟斷注意力市場。
廣告投放、購物推薦、流量分配,都是以「最大化點擊率」為邏輯,進一步塑造用戶行為。
當國家需要穩定、資本需要增長,演算法便成為二者合謀的關鍵裝置。
2. 前置治理的實現
傳統治理往往是「事後反應」:事情發生後才進行審查或鎮壓。演算法則開啟了「前置治理」:
風險預測:美國一些城市的警方使用數據分析預測「犯罪高發地區」,結果導致對少數族裔社區的過度監控。
輿情監控:微博、抖音等平台的「風控系統」會在話題爆發前就自動降權。
個人行為:支付寶的芝麻信用、微信支付的風險分級,提前限制某些用戶的金融交易。
這種治理邏輯不再等待危機發生,而是在危機發生前就已經消解了它。
IV. 算法極權的特徵
1. 無形與普遍
演算法極權的最大特徵是它的 無形與普遍。
你無法指出「誰」在審查,因為審查是演算法自動完成的。
你無法說「我被壓迫」,因為你得到的只是「個性化推薦」。
它不像傳統極權那樣依靠恐怖統治,而是透過「便利」與「習慣」完成控制。
2. 自願與服從
傳統極權需要強制收集數據,而今天的人們主動交出隱私:
打開 GPS → 自願交出行蹤;
在社交媒體分享 → 自動貢獻隱私;
使用支付平台 → 不斷輸出消費數據。
人們用便利換取效率,卻不知不覺放棄了自由。這就是演算法極權的終極特徵:人們自願成為它的奴隸。
結語:不可抗拒的幻象
演算法不是冰冷的數學公式,而是一種嵌入日常的權力結構。它比傳統極權更高效、更隱形,也更難抗拒。
我們以為的自由選擇,其實早已被數據模型與平台邏輯框定。我們以為的資訊市場,其實只是幾個超級平台之間的壟斷遊戲。
如果二十世紀的極權象徵是集中營、審查機構和黑衣警察,那麼二十一世紀的極權象徵則是演算法推薦、搜索框、短視頻的自動播放。
在這樣的現實中,反抗本身都變得困難:因為人們甚至意識不到自己正在被控制。
下一篇,我們將看到這種結構的進一步後果:現實的裂解。當語言場被封閉、資訊被割裂,人類將不再共享同一個真實,而是困在演算法織就的無數平行現實中。
📚 參考來源
Facebook 情緒感染實驗(2014):Kramer, Guillory, Hancock, Experimental evidence of massive-scale emotional contagion through social networks, PNAS.
YouTube 推薦與極端內容研究:Mozilla Foundation (2021)《YouTube Regrets》報告。
中國社會信用系統案例:Creemers, Rogier (2018), China’s Social Credit System: An Evolving Practice of Control.
預測性警務批評:Lum, K., & Isaac, W. (2016). To predict and serve?, Significance.