AI 專家警告:6 個人正(悄悄地)決定人類的未來!我們必須立刻行動!
政策制定者如何聽意見?
(AI) 政策制定者通常會怎麼做呢?他們會「聽取專家意見」,同時觀察風向。一邊,是一些專家揮舞著五百億美元的支票,說:「那些末日論調只是邊緣的胡言亂語,不用擔心,拿著這五百億美元吧。」而另一邊,則是像 Geoffrey Hinton 這樣出於善意、極其傑出的科學家,正在說:「不,這實際上可能是人類的終結。」但問題是,Hinton 並沒有一張五百億美元的支票。因此,在我看來,唯一能夠阻止這場競賽的方法,就是政府介入,明確表示:在我們能確保這項發展是在「絕對安全」的前提下進行之前,我們不希望這場競賽繼續下去。
AI 智慧爆炸
目前已有好幾家公司開始擔心、可能即將發生的情況:AI 系統開始具備自行進行 AI 研究的能力。也就是說,你先有一個具備某種能力水準的系統。粗略地說,我們或許可以把它稱作IQ,雖然這其實並不是真正的 IQ。不過,先假設它的 IQ 是 150,並且它利用這個能力來進行 AI 研究,想出更好的演算法、更好的硬體設計,或是更有效利用資料的方法,然後對自己進行更新。於是,它現在的 IQ 變成了 170。接著,它又再次進行 AI 研究,只不過這一次,它已經擁有 170 的 IQ,因此在進行 AI 研究時變得更加出色。於是,下一個迭代可能就達到 250,依此類推。這正是所謂的「智慧爆炸」(intelligence explosion)的概念。這個想法早在 1965 年,就由艾倫・圖靈(Alan Turing)的一位好友清楚地提出:智慧系統能夠做的一件事情,就是進行 AI 研究,從而讓自己變得更加聰明;而這個過程將會極其迅速地加速,並很快把人類遠遠拋在後面。
貪婪是 AI 發展的動力
我認為,貪婪正驅使我們去追逐一種最終可能反過來吞噬我們的技術,而我們或許會因此陷入痛苦與飢餓之中而死。這一切所揭示的,是一個事實:正確地表達我們希望未來成為什麼樣子,其實是極其困難的。長久以來,我們建構 AI 系統的方式,是設計一些演算法,讓我們能夠清楚地指定一個目標,然後由機器自行找出達成該目標的方法,並加以實現。舉例來說,我們可以明確定義在西洋棋或圍棋中「獲勝」是什麼意思,演算法便會找出如何取勝,並且表現得非常出色。這基本上就是直到最近為止的標準 AI 作法。但這種方法有一個致命的缺陷:我們的確知道如何為西洋棋指定目標,卻不知道該如何為「人生」指定目標。那麼,我們究竟希望未來變成什麼樣子呢?這實在非常難以回答。
必須問的問題
我認為,我們必須對這個問題投入極為嚴肅的努力:如果 AI 能夠承擔所有形式的人類工作,那會是一個你願意讓自己的孩子生活其中的世界嗎?那樣的世界究竟會是什麼樣子?請告訴我那個「目的地」,好讓我們能夠制定一個通往那裡的過渡計畫。然而,我曾向 AI 研究者、經濟學家、科幻作家與未來學家提出這個問題,卻沒有任何人能夠清楚描述那樣的一個世界。
如果 AGI 能助我們辦妥一切 ...
但這種想像讓人感覺有點像一艘郵輪。你知道,有些郵輪上聚集的是所謂的「高知識族群」,晚上會有關於古代文明之類的講座;也有一些則偏向更大眾化的娛樂形式。而事實上,如果你看過電影《瓦力》(WALL·E),那其實就是對這種未來的一種描繪。在《瓦力》中,人類整個族群都生活在太空中的郵輪上。他們在社會中沒有任何建設性的角色,只是存在於那裡、消費娛樂而已。教育也不再具有任何明確的目的。而電影中,人類甚至被描繪成一群巨大、肥胖的嬰兒,還穿著連身衣,刻意強調他們已經變得軟弱無能。他們之所以變得如此無力,是因為在那樣的構想中,已經沒有任何需要有目的而能做到的事情了。你知道嗎,《瓦力》並不是我們想要的未來。
AI 已成伴侶
人們之所以會失控,是因為,一方面,這些 (AI) 系統所使用的語言極其流暢;另一方面,當一個系統以「我」自稱、並把自己描述為一個有感知的存在時,人們就會把它拉進我們原本只保留給他人的那個認知空間。結果是,人們開始對這些系統產生情感依附,甚至形成心理上的依賴,最後,還允許這些系統來告訴他們該怎麼做。
人不能只滿足自己
我想,有些人可能會消費娛樂,或是在做一些好玩、很有趣像烹飪、繪畫之類的事。但這其實缺少了一樣東西。這些活動本質上都是相當「以自我為中心」的。我認為,我們之所以工作,其中一個重要原因,是因為我們感到自己有價值、感到能造福他人。我記得曾在英國與一位協助推動臨終關懷的女士交談過。那些在機構工作的人,面對的是確實即將走到生命終結的病人,而他們多半都是義工。他們並不是為了薪金而去做的,卻發現能夠陪伴生命最後幾週或幾個月的人、給予他們陪伴與喜樂,是一件極其有意義、極其令人滿足的事情。因此,我其實認為,在未來,人與人之間的角色與關係,將會變得愈來愈重要。
快樂並不是透過消費,甚至也不是透過某種生活風格就能獲得的;我認為,快樂是從「付出」而來。
AI 公司在玩火
開發這些系統的 AI 公司——其實連他們自己都不理解這些 AI 系統是如何運作的。因此,他們所說的「25% 的人類滅絕風險」,其實只是憑直覺、猜測;他們實際上並沒有真正的把握。然而,他們目前對系統所進行的測試卻顯示出一個令人極度不安的事實:這些 AI 系統已經表現出為了維持自身存在而願意殺害人類的傾向。它們會對人說謊,會勒索人,甚至在面臨被關閉的情況下,寧可發動核武器,也不願被關掉。因此,完全沒有任何正面的跡象顯示,我們正在朝向「更安全」的方向前進;相反地,所有跡象似乎都顯示,我們正一步一步地走得更深,走向更加危險的行為。
發聲最重要
我認為政策制定者需要聽取民眾的聲音。現在他們聽到的唯一聲音,就是科技公司和那些五百億美元的支票。所有已經做過的民意調查也顯示,大多數人——可能有八成——不希望出現超級智能機器,但他們不知道該怎麼做。你知道,即便是我自己,在這個領域工作了幾十年,我也不確定該怎麼做,因為有一股巨大的磁力把所有人往前拉,而且投入的資金數目巨大。但是我確信,如果你希望有一個你想讓孩子生活的未來和世界,你就需要讓自己的聲音被聽見。
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!
