當 AI 可以幫你操作手機

討厭鬼 aka 劉維人
·
·
IPFS
·
AI Agent 的普及將動搖社會賴以運作的信任與問責機制。它在減少案牘勞形的同時,也會變成「科技平台安排在你身邊的數位執事」,掌握用戶核心隱私與權力,且未向你效忠。這將導致權責不清,並讓平台鎖定使用者。要防範這項危機,就需要建立確保資料可攜的架構與法規,以及能釐清授權範圍的數位身分驗證機制,減緩對社會系統的衝擊。
圖片由 gemini 分析文義生成

抖音母公司推出一款 AI agent 手機,很快引發爭議。王伯達寫了一篇很棒的評述

這個趨勢非常重要。至少對我個人而言,AI agent 這個功能,比自動化歧視、機器人搶你工作、數位落差的影響,都來得大。
因為它改變的是社會與政治賴以穩定的本質:信任與問責。​

當「我要用某個方法,來達成某個效果」這句話中每個環節的指涉範圍,都變得可以抽換,我們就無法繼續有效預測彼此的行為、對彼此的影響。​

這句話中的環節包含:

  • :一個有意圖、有主觀性、會反思的行為主體

  • 某個效果:主體想要的一串預期條件。例如辦公室附近的平價美食、學了之後能在半年內提高收入的技能等等

  • 某個方法:一套主體所知的,宣稱能達成效果的論述,與該論述列出的一系列工作

​至今為止,這三個環節都有明確的時空邊界。我們不會突然改變偏好與世界觀,也不會突然想要什麼東西,通常更不會突然採用自己完全聽不懂的做事方法。

大眾媒體的出現,明顯動搖了後兩者。所以我們看到消費主義、股市菜籃族與次貸風暴。
​AI agent 的出現,除了使後兩者變得更模糊之外,最重要的是動搖「我」的存在。​


AI agent 的目標,是在「你授權的範圍內」試圖完成「你的願望」。你只要訂立目標,給予相應授權,AI 就會實現你交辦的願望。這乍聽起來很好,畢竟大家想要的都是牆上那個鑽好的洞,而不是最優秀的電鑽。但其實不然。​

首先,AI agent 的模型不是你在自己家,完全用你自己的資料訓練的。它不是你肚子裡的蛔蟲,依然比較像一個推薦系統

​其次,幾乎沒有人知道「自己想要且能夠承受後果」的「授權範圍授權方向」為何。任何做過管理工作與協調工作的人都明白,再怎麼樣清晰的交辦,都有可能留下各種詭異殘局。


光是這兩個要件加起來就夠糟糕:AI agent 會經常像是你管不動的執事或女僕、你吃裡扒外的隊友。經常推薦一堆你根本不想使用的方法,甚至是在你不知情的狀況下,用那些方法幫你做事情,用你的財產和權力影響了別人,然後留殘局給你收。

但這還不是最麻煩的。最麻煩的是,AI agent 一定會存取你的大量機敏資訊

這理由很簡單:AI 需要知道你的口味才能幫你推薦餐廳、需要檢查你的行事曆才能安排你的行程、需要比對你的專案進度與部門目標才能幫你撰寫到位的會議報告......

​沒錯,AI agent 擁有的資訊,就是目前總經理秘書與有錢人親信擁有的資訊

但 AI agent 不是你聘的,而且因為不具備真正的心智而無法跟你達成信任關係。而且 AI agent 說到底根本就是別人的財產

這件事絕對不是「立刻去 chatGPT 的資料控管頁面,拒絕為所有人改善模型」這麼簡單。即使提供 AI agent 的科技公司,完全沒有拿到你一丁點的資料,你的關鍵資訊依然被鎖在 AI agent 的平台、軟硬體、服務之中,不能輕易遷移。此外, AI agent 的行事方法「更新」或「暫停」的時候,你沒辦法叫它改變,而且你的資訊已經成為你帳號中的記憶,而非單純的檔案,你無法帶走資料換用別家

​再換回人類世界的譬喻,這就像是你家的執事跟女僕,都是別人的員工

......難怪資工界會有個性別很不正確的詞彙,叫做 evil maid attack :(

AI agent 一旦普及,這種 evil maid & evil butler 就會滿天飛。邀請信到底是誰發的、主張到底是誰提的、命令到底是怎麼轉述的、任務工具到底是誰選的、甚至公司機密與個人隱私到底是誰洩漏的,都會變得眾說紛紜。​

接下來就是永無止盡的防呆聲明、意願存證、正式授權條款、以及......

「為了確保你真的有做過這個授權」,而鋪天蓋地出現的各種監控措施。

​​

然而,AI agent 其實是無法防止的趨勢。因為自動處理各種案牘勞形,是自古以來所有人的共同願望。光是每天早上有帥帥的執事幫你安排行程、回各種白癡信,不需要親力親為,大家就都會很爽。

​此外,AI agent 只是 AI 的一種應用。除非你修改「授權」這個概念的意義 (我想不到誰有這麼大的權力),否則能授權叫 AI 做的事情,大多就會變成 AI agent 的實際工作範圍,不太可能限制或禁止。

​最後,幾乎沒有人會承認「自己根本搞不清楚自己的願望與意向,而且判斷事情時很少慎思明辨,而總是隨便找理由」。所以提高授權門檻的防呆規範,幾乎註定不可行

既然如此,還有哪些方法可能盡量減少 AI agent 對社會、經濟、政治信任的衝擊呢?我自己想到的要件,目前只有兩種:​

  1. 需要一套能讓使用者把資料下載到自己家,或者轉移到其他平台與服務的系統架構,與賦予使用者相關權利的法規。這是為了防止前述的平台綁定、防止執事或女僕背後的公司反過來操控你。
    此外,有了這套系統與相關法規,市場就更可能推出你能夠自己掌控的 AI agent 軟硬體,不容易把所有資料與習慣都綁在科技公司的平台上。​

  2. 需要一套能夠記載「每項行為出自於誰、具備何種權限」的驗證與紀錄框架。這是為了在爭議中至少能找得到人負責,並且讓使用者本身、以及設計使用規則與介面的人,能夠動態調整每項 agent 的授權範圍。

​如果你之前有讀過我的其他文章,大概會立刻發現第二項就是珮杏和我最近在研究的數位身分除了打詐與防禦混合戰以外,AI agent 正是數位身分的重大需求之一。這套框架目前各國已經在探索實作,但還需要很多法規制定才能落實 (至於第一項要件,則是技術專家和開源社群倡議很久的 interoperbility。最近唐鳳也經常在各地重申)。​


科技進步太快,社會跟得太慢。AI 的各種社會層面應用,幾乎肯定會帶來系統性的動盪與傷害。

這個領域需要的科技、社科、法律人才嚴重短缺。大家請一起努力。

CC BY-NC-ND 4.0 授权
已推荐到频道:时事・趋势

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

討厭鬼 aka 劉維人自由研究者,社科譯者。 譯作著重當代民主、政經制度等議題,如《反民主》、《暴政》、《修辭的陷阱》、《民族重建》等。開設課程如《北歐幸福方法論》、《AI要搶走我的工作了嗎?》等等。
  • 来自作者
  • 相关推荐

【詩】難以言說的東西

民主社會不能管制言論自由?你確定?

承受詐騙 vs 數位監控?不,我們還有其他選擇