當 AI 什麼都能回答,但風險由你自負
genAI的出現,使網路的「內容生產無利可圖」與「論述可信度難以保證」這套危機,以極高速率加劇。
很可能在18 個月之內,終端閱聽眾就只會從 AI 得到各種答案,不再查詢原文章/書籍/影音/raw data。無論 AI 的答案與論述信度效度如何,在回答的當下都將讓閱聽眾覺得足夠有用。
此時,報導、研究、創作、甚至科普與傳播等等生產內容的行為,將快速滑向公共財,變得無利可圖。
在此同時,因語料偏差、模型偏誤、閱聽者無知、先備資訊環境、意識形態、心理偏誤、混合戰汙染語料等等機制,降低的信度效度,將直接侵蝕閱聽者的權益,並破壞社會信任。
由於這項威脅的機制,是 [原始內容 -> 集散點 -> 轉述整理 -> 通路散播 -> 終端閱聽] 這條鏈的中間幾項環節,被 genAI 所取代,緩解威脅的方法,概念上可以分為幾種:
補助內容生產:將內容的生產與再製,視為重要公共財,給予投資或補貼
存取/流量管制:限制 genAI 可以存取的內容,或存取的效率
使用者付費:要求 genAI 再製內容時,向來源付費
建立信任/保險機制:建立某種有價標章,讓閱聽者能夠簡易辨別答案的信度與效度
「補助內容生產」是最直觀也最常見的方向。但由於內容大半可以彼此替代,這個方向是一個各司法管轄區之間的公地悲劇。我個人對此相當悲觀,即使任何國家基於社會責任而進行補助,效果與範圍很可能也相當有限。
「存取/流量管制」則是一個理論上可行,實際上門檻高得不可思議的方向。由於 VPN 等各種工具的存在,這種方向要能發揮效用,必須從網路層或通訊傳輸層等網路基礎建設下手,現實中需要的權力大到無人能有。這招只要做不到,就立刻淪為付費牆,只會降低自己的露出度與需求強度。
「使用者付費」的本質是集體談判,故有成功可能。 Ying-Che Chen 指出目前已經有許多國家的內容生產者 (例如報社) 正在嘗試。成敗或許取決於產協會的組織能力,以及內容的需求彈性。我個人目前對此最大的擔憂,是第三方究竟如何得知 gen AI 再製了哪些內容?畢竟 gen AI 從收到使用者提問,到給出答案的過程,都完全在 gen AI 內部完成。第三方究竟如何得知 gen AI 使用那些內容來再製?
「信任/保險機制」則是我自己比較偏好的方向。我認為可信度是一種涉及閱聽者利益的財產,也是一種社會中可傳遞的信號。目前也已經有數位簽章等技術可執行。在 gen AI 無法獨自保障答案信度與效度的前提下,可信度將是一個由外部提供的重要資產。當使用者能夠快速看到 AI 的答案基於專業認可;看到社群網站上的說法援引可信詮釋時,消費與再製習慣會因此改變。
以上是我目前的粗理解,一定有大錯,希望大家來打臉。
也希望更多人來討論這個會影響內容生產者生計 + 閱聽者權益 + 社會信任與民主政治存亡的重要問題。
