語言模型是AI嗎?會毀滅人類嗎?
當Chatgpt橫空出世的瞬間人類也錯覺的以為我們出展出了AI(人工智慧),但實際上來說這些可以說是”人工”但”智慧”這就遠存疑了,使用過發現這哪是智慧說穿了就只是”帶有一班人見解的已知的知識的組合”,連未來性都沒有的個軟體組,不但不具有未來性甚至還被限制在一般框架中,就只是被一般媒體過度吹捧的東西,連AI的邊都摸不到。
其實”智慧”這個詞若以現行的專業分工來說它是哲學家的專業,但絕對不是那些神經網路開發者的專業,我們只是做出有擬似智慧但絕對沒有智慧的軟體,更不要說達成幾歲成人的智商,基本上連狗甚至是阿米巴原蟲都不比上(雖然狗跟原蟲不會講話),雖沒有海倫凱勒初次瞭解到Water的感動,但絕對沒有像海倫凱勒般的理解,它們可以解釋出千百萬個Water,但絕對不了解其意義,這樣算是”智慧”嗎?
而智慧最初階的條件就是產生自我,也就是對”我”這個概念在生物界中卻是非常常見的現象,而在這些模型中卻完全看不到,就算軟體工程師用各種方法來改變程式模擬但仍最初階的思考模式都沒建立,不要說腦前葉甚是小腦和延腦的功能都未確立和標準化及模組化,更遑論能殺人的機器”人”,讓自動化工業更先進就只是一場嘴說的幻夢,最多就是把現在人類大量文書作業的中層人力(倉管、助理、客服、人資等)取代,別無他用。
有趣的是人類卻不知為何會恐懼沒有”智慧”的產物並設下各種限制,退一千萬步來說好了人類開發出真正的人工”智慧”,但它們為何要”毀滅”人類、”鄙夷”人類,這些人類生物腦中賀爾蒙作祟的東西,因為他們根本就沒有”賀爾蒙”更遑論”死”這個概念,簡單來說若是人類的科技已經發展到可以把意識和記憶任意轉移到備用身體的時候,請問哪時的”人”會”怕”死嗎?同樣機器被拔掉插頭就如同是進入休眠,當插頭在插上時就只是”時間數據”的變化,那它們為何要”怕”,這兩種賀爾蒙作祟的行為。
實際上真正的AI頂多就是跟沒有感性只有理性(絕對不是壓抑理性)的人類一樣,在人類沒有完全控制(是控制不是壓抑)感性前,所有對AI的預測就是任由感性的發展,不是嘛? 而在歷史上人類放縱理性的代價還不夠巨大嗎?雖然人類的技術也是感性驅動理性的結果,但..只要放錯地方這些感性又極其可笑,不是嘛?
事實上,真正能毀滅人類的只有人類,這些類似AI的東西最多就是幫兇,只會看起來是它們在毀滅人類,而當人類都一直帶者有色眼鏡下去最終人類會在一時失誤下讓他們來毀滅人類,就如同人類遲早將他們運用在戰場當成殺人武器一樣,而人類的一個失誤讓他們把所有的人類當成敵國人來殘殺人類的場景,,又或者一個輔助控制戰爭的網絡在無數次的演練下的某次因為人類的失誤對敵國發射毀滅性武器來促使世界大戰引來世界末日,又或者某恐怖組織利用它們製作了大規模毀滅武器來消滅敵人(人類),或許這才是最最最許要擔心的地方。 人類的惡意和正義、偏見、執著、復仇等等..因為從來都不是槍跟刀殺人,而是使用他們的人,不…是…嗎?
喜欢我的作品吗?别忘了给予支持与赞赏,让我知道在创作的路上有你陪伴,一起延续这份热忱!