後崩潰時代的備忘錄| 演算法與隱形控制

ECHO
·
·
IPFS
·
本篇探討數位時代的隱形極權——演算法如何從中立工具變為治理武器。推薦與排序塑造資訊環境,讓「自由選擇」淪為被動接受。YouTube 七成觀看量來自演算法推薦,揭示了自由幻覺。國家與資本藉此實現前置治理,如社會信用、預測性警務、輿情降權。與傳統極權不同,演算法極權無形、普遍且自願,人們在享受便利時交出數據,最終成為看不見的統治對象。

看不見的極權

二十世紀的極權主義有其鮮明的符號:集中營、審查機構、暴力鎮壓、造神運動。極權意味著可見的恐怖。人們往往能夠察覺自己被統治,於是反抗的可能性也就始終存在。

然而,進入二十一世紀,極權的形態悄然變化。它不再依賴暴力的外在強制,而是披上了一張溫和的面孔:演算法

我們每天接觸的資訊流、購物推薦、新聞排序、娛樂內容,乃至朋友的動態與社交平台的熱點,幾乎全部經過演算法的篩選與編排。這些運算過程不是透明可見的法律或規則,而是黑箱式的數據處理。它潛伏在我們的日常選擇背後,在不動聲色之間重塑現實。

這種控制的特徵,不是血腥與恐怖,而是 隱形化與自願化。人們不再被迫接受統治,而是心安理得地走在演算法為我們規劃的道路上,甚至因為「便利」而感恩。

哈佛商學院的研究顯示:全球 90% 以上的用戶每天接觸到的內容,實際上是由不到 5% 的核心演算法模型決定的。這意味著,我們以為的「資訊自由市場」,早已是一個由少數平台壟斷的幻象。

這便是「演算法與隱形控制」的時代。


I. 演算法的權力邏輯

1. 從中立工具到治理武器

在矽谷的原始敘事裡,演算法常常被形容為「中立的技術」:它只是根據數據和規則運行,沒有價值立場。然而,現實證明這是危險的幻象。

  • YouTube 的案例:2016–2020 年的美國大選期間,研究發現 YouTube 的推薦系統傾向於推送極端內容,用戶很容易從正常新聞跳轉到陰謀論影片。這不是偶然,而是因為演算法在「最大化觀看時長」的邏輯下,會自動優先推薦能激發情緒的內容。

  • 微博熱搜的消失:在中國,熱搜榜單可以在一夜之間「消失」某些關鍵字。這既不是人工審查員一個個刪除,而是演算法模型在後台被調整,將特定話題直接降權。

演算法的設計並不中立:

  • 它承載了 設計者的意志(平台公司、政府、工程師的價值判斷);

  • 它體現了 數據的偏差(誰的數據被收集、怎樣被標註與清洗);

  • 它服務於 商業與政治動機(廣告收益、輿論穩定)。

一旦這些意志被編碼進程式,演算法就不再是冷冰冰的數學公式,而是一種治理武器。

2. 隱形化的優勢

傳統極權需要可見的強制:審查、逮捕、恐嚇。這些手段會激發社會的警覺與反抗。相比之下,演算法的治理是「潤物細無聲」的。

Facebook 在 2014 年曾進行過一個爭議實驗:秘密調整了 70 萬用戶的動態消息排序,結果證明僅僅透過演算法的微小調整,就能顯著影響用戶的情緒傾向。當研究發表後,雖然公司受到強烈批評,但它展示了一個可怕的事實:情緒本身可以被工程化

這種隱形化使得控制難以被察覺。人們甚至會把這種「選擇」誤以為是自由。


II. 自由的幻覺

1. 被動選擇的機制

當你打開 Netflix,首頁推薦的影片是依據演算法計算出來的「你最可能點擊」的內容;當你在亞馬遜或淘寶搜尋「筆記本」,你看到的排序早已經過優化與過濾。

人們誤以為自己在自主選擇,其實只是從系統精心準備的有限選項中做被動挑選。這就是「被動自由」的幻覺。

YouTube 的數據顯示,平台上 超過 70% 的觀看量來自演算法推薦,而不是用戶主動搜尋。換言之,大部分觀看行為並非我們的「自由選擇」,而是被動接受推薦的結果。

2. 行為被馴化

演算法不只是控制資訊流,還透過獎懲機制重塑行為:

  • 點讚、轉發、評論數 → 刺激即時反饋慾望;

  • 熱搜榜單 → 引導集體注意力,決定「什麼值得討論」;

  • 短視頻推送 → 逐步改變大腦結構,降低人們的長時間專注能力。

最終,人們不知不覺地被馴化為「演算法友好型存在」:創作者按照規則調整文案和影片;消費者學會迎合推薦機制。人類的行為與思維被逐步數據化、格式化。


III. 演算法與權力的結盟

1. 國家與資本的共謀

演算法的隱形控制並非單純的商業邏輯,而是與國家治理深度綁定。

  • 國家層面

    • 中國的「社會信用系統」把公民行為轉化為信用分數,演算法決定了誰可以乘坐高鐵、誰能獲得貸款。

    • 美國警方使用「預測性警務」演算法來預測某地犯罪率,結果卻強化了種族偏見:黑人社區更容易被標記為「高風險」。

  • 資本層面

    • Google、Meta(Facebook)、字節跳動、阿里巴巴等公司透過演算法壟斷注意力市場。

    • 廣告投放、購物推薦、流量分配,都是以「最大化點擊率」為邏輯,進一步塑造用戶行為。

當國家需要穩定、資本需要增長,演算法便成為二者合謀的關鍵裝置。

2. 前置治理的實現

傳統治理往往是「事後反應」:事情發生後才進行審查或鎮壓。演算法則開啟了「前置治理」:

  • 風險預測:美國一些城市的警方使用數據分析預測「犯罪高發地區」,結果導致對少數族裔社區的過度監控。

  • 輿情監控:微博、抖音等平台的「風控系統」會在話題爆發前就自動降權。

  • 個人行為:支付寶的芝麻信用、微信支付的風險分級,提前限制某些用戶的金融交易。

這種治理邏輯不再等待危機發生,而是在危機發生前就已經消解了它。


IV. 算法極權的特徵

1. 無形與普遍

演算法極權的最大特徵是它的 無形與普遍

  • 你無法指出「誰」在審查,因為審查是演算法自動完成的。

  • 你無法說「我被壓迫」,因為你得到的只是「個性化推薦」。

它不像傳統極權那樣依靠恐怖統治,而是透過「便利」與「習慣」完成控制。

2. 自願與服從

傳統極權需要強制收集數據,而今天的人們主動交出隱私:

  • 打開 GPS → 自願交出行蹤;

  • 在社交媒體分享 → 自動貢獻隱私;

  • 使用支付平台 → 不斷輸出消費數據。

人們用便利換取效率,卻不知不覺放棄了自由。這就是演算法極權的終極特徵:人們自願成為它的奴隸


結語:不可抗拒的幻象

演算法不是冰冷的數學公式,而是一種嵌入日常的權力結構。它比傳統極權更高效、更隱形,也更難抗拒。

我們以為的自由選擇,其實早已被數據模型與平台邏輯框定。我們以為的資訊市場,其實只是幾個超級平台之間的壟斷遊戲。

如果二十世紀的極權象徵是集中營、審查機構和黑衣警察,那麼二十一世紀的極權象徵則是演算法推薦、搜索框、短視頻的自動播放。

在這樣的現實中,反抗本身都變得困難:因為人們甚至意識不到自己正在被控制。

下一篇,我們將看到這種結構的進一步後果:現實的裂解。當語言場被封閉、資訊被割裂,人類將不再共享同一個真實,而是困在演算法織就的無數平行現實中。


📚 參考來源

  • Facebook 情緒感染實驗(2014):Kramer, Guillory, Hancock, Experimental evidence of massive-scale emotional contagion through social networks, PNAS.

  • YouTube 推薦與極端內容研究:Mozilla Foundation (2021)《YouTube Regrets》報告。

  • 中國社會信用系統案例:Creemers, Rogier (2018), China’s Social Credit System: An Evolving Practice of Control.

  • 預測性警務批評:Lum, K., & Isaac, W. (2016). To predict and serve?, Significance.

CC BY-NC-ND 4.0 授权
已推荐到频道:时事・趋势

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!