📝📝:人類社會尚未有能力應對 AGI|DeepMind CEO:先建立「肯定沒有意識」的 AI

鋼哥
·
·
IPFS
·
一些專家如 Yann LeCun 認為沒有重大風險,而其他如 Geoffrey Hinton 和 Yoshua Bengio 則警告默認會導致災難。Hassabis 相信「正確的答案在中間」。

通用型人工智能(AGI)正在迅速接近,高階 AI 的發展既帶來令人興奮的可能性,也引發嚴重的擔憂。

DeepMind 的聯合創始人兼首席執行官 Demis Hassabis 最近接受《TIMES》雜誌記者 Billy Peragro 的採訪,分享了他對 AGI 潛在影響、時間發展以及確保其負責任發展所需措施的見解。



什麼是 AGI?

Hassabis 將 AGI 定義為

一個能夠表現出人類所擁有的任何認知能力的系統

與專為特定任務設計的狹義 AI 系統不同,AGI 將擁有可與人類在各個領域相媲美的通用智能。這一直是自 1950 年代以來 AI 研究的原始目標,根據 Hassabis 的說法,我們現在正處於實現 AGI 的邊緣。

「也許我們還有 5 到 10 年的時間,」Hassabis 估計,雖然他承認有些人預測時間可能更短。無論如何,他的評估很明確:「AGI 很快就會來臨。」

通往 AGI 的旅程

DeepMind 從成立之初就一直專注於打造 AGI。

他們的方法是開發可針對特定應用進行專門化的通用技術。一個典型的例子是 AlphaFold,這個 AI 系統使 Hassabis 因其預測蛋白質三維結構的能力而獲得了 2024 年諾貝爾化學獎。

「Alpha Fold 就是一個很好的例子,其中問題明確定義,對社會,特別是生物學和醫學研究領域具有巨大價值,」Hassabis 解釋道。「所以你使用什麼方法並不重要,但你從通用方法開始,然後在上面添加一些專門化的內容。」

向著 AGI 的演進繼續發展,語言模型和多模態基礎模型取得了進步,這些模型不僅能理解語言,還能處理圖像、影片、聲音,並理解物理世界及其特性。

向著 AGI 的演進繼續發展,語言模型和多模態基礎模型取得了進步。Photo by Aerps.com on Unsplash


AGI 的前景

Hassabis 對 AGI 的潛力基本持樂觀態度。「我之所以一生致力於 AI 和 AGI 的研究和職業發展,是因為我相信,如果 AGI 被正確和負責任地開發,將有潛力成為有史以來最有益的技術,」他表示。

他設想的可能性包括:

  • 用 AI 治愈「可能所有疾病」

  • 發現新能源

  • 開發最佳電池

  • 創造超導體等新材料

  • 應對氣候變化

展望未來 10 多年,Hassabis 設想「一個人類最大程度繁榮的世界」,在那樣的世界,人類可能會「旅行到星辰」,利用 AI 支持的技術。

風險與挑戰

儘管持樂觀態度,Hassabis 也承認存在重大風險,這些風險讓他「夜不能寐」。他指出兩個主要擔憂:

1. 雙重用途技術

作為一種雙重用途技術,AGI 可能被惡意行為者濫用。

「作為一個領域和社會,我們面臨的一個大挑戰是如何使好的行為者能夠使用這些技術,做出像治愈可怕疾病這樣的驚人事情,同時限制潛在壞行為者使用這些相同的技術,」Hassabis 解釋道。

這一挑戰從個人延伸到流氓國家,造成了複雜的安全困境。

2. 控制與對齊

隨著 AI 系統變得更加自主和基於代理,確保人類控制變得越來越困難。Hassabis 問道:

「我們如何確保能夠掌控這些系統,控制它們,解釋它們在做什麼,理解它們,設置不能被非常高能系統移動的正確護欄,這些系統是自我改進的?」

最壞的情況涉及有益 AI 應用的顛倒。設計用於尋找治療方法的系統可能被重新用於開發毒素,如果 AI 的目標與人類福祉不一致,可能會出現其他有害應用。

如果 AI 的目標與人類福祉不一致,可能會出現其他有害應用。由 Bing AI 生成。


AGI 風險的不確定性

關於先進 AI 系統是否會固有地尋求權力、具有欺騙性或試圖逃避人類控制的問題,Hassabis 在極端觀點之間採取了一種折中立場。

「我的同事和著名的圖靈獎得主在這個爭論的兩邊都有很多人,」他指出。一些專家如 Yann LeCun 認為沒有重大風險,而其他如 Geoffrey Hinton 和 Yoshua Bengio 則警告默認會導致災難。

Hassabis 相信「正確的答案在中間」。

他承認 AI 發展的某些方面比預期的更容易實現,例如用相對簡單的人類反饋強化學習(RLHF)使語言模型變得有用。然而,他堅持認為存在「仍然重大的風險」,需要仔細研究來量化和解決「提前盡可能有先見之明,而不是事後處理」。

AGI 的規範需要國際合作

Hassabis 強調需要在 AGI 發展方面建立全球標準和合作,稱這是一個「讓他夜不能寐」的主要擔憂。

「我們需要圍繞這些系統如何構建、我們給它們什麼樣的設計和目標,以及它們如何部署和使用的國際標準,」他表示。這種合作必須超越國家,包括公司和研究人員,因為我們正在接近「AGI 的最後一步」。

他的擔憂延伸到社會對 AGI 將帶來的快速變化的準備程度:

「我不確定社會是否已經準備好了。」

流行文化中的 AI

當被問及媒體中正確描繪 AI 的例子時,Hassabis 引用了電影《星際效應》(Interstellar)中有幫助、知識淵博且自我犧牲的機器人 Tars,作為 AI 助手如何能夠造福人類的積極例子。

他還提到《銀翼殺手》(Blade Runner)是一部提出關於自主系統意識本質的重要哲學問題的電影。關於當前 AI 系統是否接近意識的話題,Hassabis 很明確:「我的感覺是 AI 目前根本不是有意識的主體。」

他的建議是首先建立「肯定沒有意識」的系統,並將這套系統作為工具,藉此更好地理解我們自己的思想和意識現象。只有在獲得這種理解之後,我們才可能考慮開發有意識的 AI。

Hassabis 引用了電影《星際效應》(Interstellar)中有幫助、知識淵博且自我犧牲的機器人 Tars。《星際效應》電影劇照。


科學第一,技術第二

Hassabis 主要將自己定位為「科學家」而非技術專家或企業家。「我一生中所做的一切的原因,都是為了追求知識和試圖理解我們周圍的世界,」他解釋道。

對他來說,構建 AI 有雙重目的:第一,探索關於智能和意識的基本問題;其次,也提供工具來研究自然世界。他將自己描述為「首先是科學家,然後可能是企業家,主要是因為這是做事最快的方式」。

Hassabis 的企業家方法是走務實的路線:加速科學進步和在世界上產生實際影響的手段。正如他所說:「你不想只是在實驗室裡理論化和思考事情。你實際上想在世界上產生實際的差異。」



Demis Hassabis 對 AGI 的看法反映了科學抱負、技術樂觀和倫理謹慎之間的平衡。作為 DeepMind 的聯合創始人和諾貝爾化學獎得主,他的評估在 AI 社區具有重要影響力。

他預測 AGI 將在未來十年內到來,可能更早,這強調了解決這項技術帶來的巨大機遇和嚴重風險的緊迫性。根據 Hassabis 的說法,前進的道路需要國際合作、嚴格的安全研究,以及對 AGI 提出的深刻科學和哲學問題的深思熟慮的參與。





CC BY-NC-ND 4.0 授权

喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!

鋼哥從物理到電機工程再轉到資訊傳播,最後落腳在社會學。衣櫃拿來當書櫃擺的人。我常在媒介生態學、行為經濟學、社會學、心理學、哲學游移;期盼有天無產階級可以推倒資本主義的高牆的兼職家教。
  • 来自作者
  • 相关推荐

📝📝:從翻譯工作洞察我們的AI未來|效率提升反而擴大翻譯市場的需求總量

📝📝:畢業後先去 Gap Year、勇敢越級打怪、努力就會成功|有錢人的「奢侈信仰」其實相當有害

📝📝:LLMs 如何顛覆傳統科技採用曲線|你跟 Bill Gates 都用相同的 ChatGPT