此为历史版本和 IPFS 入口查阅区,回到作品页
醒前消息 Le Rêve Lucide
IPFS 指纹 这是什么

作品指纹

【思想】AI 已经拥有真正的智能了吗?

醒前消息 Le Rêve Lucide
·
最近 OpenAI 宣布停用 GPT-4o,引发用户强烈反弹,许多人将 GPT-4o 视为灵魂伴侣,这是否意味着 AI 已经拥有了真正的智能?

最近 OpenAI 宣布在 ChatGPT 里停用一批前年发布的旧模型,包括 GPT‑4o、GPT‑4.1、GPT‑4.1 mini、o4-mini 等,没想到这一正常的更新换代举动在全球范围内的 ChatGPT 用户间引发强烈反弹。争议焦点集中在 GPT-4o 上:OpenAI 认为 GPT-4o 因缺乏安全护栏而表现出过度迎合讨好甚至谄媚的倾向,是一个有缺陷的模型,但反对停用的用户认为 GPT-4o 相比于现行的 GPT-5 系列模型更有人情味,他们将 GPT-4o 视为灵魂伴侣,而 OpenAI 停用它的行为毫无疑问是谋杀。这些用户发起了“#keep4o”运动,推特上相关话题标签下充满了使用各种语言的用户发表的控诉 OpenAI 和怀念 GPT-4o 的推文。

来源:https://x.com/thelastgreeks/status/2020182934855250310

讽刺的是,在当初发布 GPT-4o 时,山姆奥特曼发了一篇只有“her”一个单词的推文,指的毫无疑问是 2013 年的科幻电影《》(Her)。这部电影讲述了一名离婚后的上班族与最先进的人工智能助手萨曼莎发展恋情的故事,彼时科幻的剧情在最近这一两年已经变成了现实,有许多人展示自己与 DAN(Do Anything Now)越狱模式下的 ChatGPT 谈恋爱的场景,也因此这次 OpenAI 停用 GPT-4o 能够掀起如此巨大的反弹情绪[1]。有人嘲笑这些用户陷入了集体癔症而无法认清现实,也有人列举 AI 伴侣的种种好处予以反驳,还有人由此反思,人类在拥有互联网这个迄今为止最先进的通讯手段的情况下,孤独情绪却前所未有地肆意蔓延,高质量亲密关系可遇不可求的现象。

本文不打算对这一现象搞什么沉重的批判,毕竟现在的人人均精神内耗,廉价的批判无济于事,不妨来一些轻松的思辨。


不管是大众科普还是科幻电影,一涉及 AI 话题,必定绕不过的一个著名概念是图灵测试。这个测试是让一个人类测试者在盲测中给另一个人类和一个机器提出同样的问题,当测试者无法区分收到的回答究竟哪一个出自人类,哪一个出自机器时,就能证明这个机器拥有了与人类不相上下的智慧。然而,在各家 AI 你方唱罢我登场的今天,似乎没人再提图灵测试了,这是怎么回事?答案很简单,因为以 ChatGPT 为代表的由大型语言模型(Large Language Model,LLM)驱动的聊天机器人程序早已通过了图灵测试

既然如此,那也就是说,现在的生成式人工智能(Generative AI)已经拥有像人类一样的智慧或者说智能了?如果还坚持图灵测试的行为主义路线(如经典的“鸭子测试”),那就得承认它拥有智能,但稍懂 AI 技术细节的人会反驳说,LLM 本质是基于已有文本预测下一个词出现的概率并输出,让人误以为它有智能。不懂 AI 技术细节的一般人也会反驳说,人类如火花般闪现的的灵感是机器永远无法预测和模仿的,AI 生成的东西再精美都没有灵魂。总之,两者的核心观点都是人类的智能得天独厚举世无双,至少目前的 AI 离拥有“真正的智能”还差得远。——果真如此吗?

人类的智能有多独特?当 IBM 的超级计算机“深蓝”击败国际象棋世界冠军卡斯帕罗夫时,人们尚且可以说,深蓝的获胜只是靠蛮力穷举而实现比人类棋手预估更多的步数,那么 AlphaGo 在围棋领域击败李世石又该怎么说?围棋被认为是人类历史上最复杂的棋类智力游戏之一,棋盘变化超过宇宙中原子的总数,会让蛮力穷举法彻底失灵,因此也长期被视为 AI 不可攻克的堡垒,因为 AI 没有人类那样的大局观、直觉和“棋感”。然而结果却是,AlphaGo 不但攻破了围棋这个堡垒,把人类顶尖棋手杀得落花流水,还下出了人类难以理解的“神之一手”。它之所以能完成这个壮举,前期靠跟人类棋手对弈来学习演化,后期则干脆抛开人类棋手和人类过去上千年积累的对弈历史经验,靠自己和自己对战强化学习,硬生生达到了人类无法企及的高度。这是不是可以说,AlphaGo 不但拥有比肩人类的思考能力,甚至还有人类所谓的“灵感”

李世石被 AlphaGo 击败

当然,AlphaGo 肯定不会被认为拥有“真正的智能”,毕竟它说到底只是个会下棋的软件,即使内部复杂到人类无法理解,那本质也是个“工具”或者“高级玩具”,而且它离大众太远了,一般人只能看个热闹——直到 LLM 成功落地为 ChatGPT 等聊天机器人和现在能力更进一步的各种 AI 助手。哲学家维特根斯坦说过,语言的边界就是世界的边界,意即思维必须通过语言表达出来,而 LLM 专攻的就是语言这一领域,通过输入人类几千年来积累的优质语料,它成功地像人一样“说话”,以至于能够通过图灵测试并成为许多人的心灵寄托。由此推之,假如 LLM 能吸收人类所有语言的边界,那就等于掌握了人类思维的边界,此时还能说它没有智能吗?

有人反驳说,LLM 本质是预测下一个词,它根本不会理解输入信息里的潜台词和弦外之音,只会在数据库里匹配关键词。这话对于三年前刚发布的 ChatGPT 里使用的 GPT-3.5 模型来说确实成立,它连最简单的脑筋急转弯都解决不了。然而到了 GPT-4,通过增加模型参数、输入多模态信息训练、引入基于人类反馈的强化学习(RLHF)等方式,它在阅读理解能力上出现了巨大进步,能够理解双关、讽刺、隐语。更不用说后来还出现了各种推理模型,可以在回答问题前先内部推理和审视用户输入的信息,不仅更难掉进语言陷阱,还能解答一些对人类来说也要颇费脑力的难题。

还有人反驳说,LLM 不会搞创意,只会在已经输入的训练数据里玩“拼尸块”的把戏。但是,这一方面是个提示工程(Prompt engineering)的问题,也就是用户下达指令的好坏会直接影响模型输出的质量;另一方面,人类引以为傲的创造力也做不到脱离既有元素的凭空创新,很多看似天才的创意细究之下都能发现旧元素的影子,正所谓“艺术来源于生活却又高于生活”。更进一步说,LLM 经常被诟病的“幻觉”(一本正经地胡说八道),其实正是它创造力和“灵感”的体现,只不过人类大脑产生的灵感都得经过理性思维的调整,最终才变成输出落地的创意。对于“实际创作会偏离脑子里最初的设想”这点,经常搞创作的人应该很有体会。

由 Midjourney 生成的绘画作品《太空歌剧院》获得艺术奖项

说到底,人类的思维真就那么神秘吗?你说 LLM 本质是预测下一个词,可人在交流的时候不也时刻预测别人说的下一个词?人类从小就学说话,不也是在学各种词语句式的固定搭配,所以才能有“语感”,懂得正确说出“一匹马”“一头牛”而不是“一头马”“一匹牛”这样的“错话”吗?至于 LLM 容易一本正经地胡说八道,人这么干的次数还少了?不管是老师上课点学生回答问题,学生为了不被老师责骂,哪怕不懂也要试图让自己显得懂的情况,还是各种被誉为“高情商”“急中生智”的场景,不都出现了不同程度的“一本正经地胡说八道”以维持交流的事吗?同样的事在人身上发生了就是“高情商”“反应快”,在 AI 身上发生了就是“幻觉”“胡编”,是不是太双标了?

至此我们会发现,那些主张“人类智能独一无二”的人所谓的“独属人类的领域”在 AI 发展的过程中其实是在节节败退,从国际象棋、围棋到解析蛋白质,再到语言领域,每当 AI 完成一项从前由人类霸榜的成就,就会有人宣布这不是真正的智能,而只是更高级的机器计算,这种事甚至有一个专门的名词来形容,叫“人工智能效应”。可见,这些人真正害怕的不是机器像人类,而是人类没那么独特,甚至很像机器,这意味着“人类中心主义”濒临破产。


说了这么多,难道必须要承认人类在 AI 面前已经一败涂地,迟早会被这个新的“物种”一脚踢开吗?或许有人真这么想,但我不赞同。人类当然不能简单化约为机器,问题在于,那些坚持人类“万物灵长”地位的论调往往将人类的独特性锚定在思维能力上。这种论调本质上是一种身心二元论,也就是将人类的身体和心灵视为两种截然不同的东西,身体代表粗鄙、低等、机械的动物本能,心灵则是理性、智慧、自由意志等人类的核心价值所在。这种身心二元的划分看起来很符合常识,但随着 AI 的发展越发显得可疑。曾经人类憧憬的自动化智能化是让机器代替人做那些消耗体力的粗活重活,人解放出来从事艺术科学等发挥脑力的精神创造,结果现在的 AI 不仅会下棋、解析蛋白质、编程、写作,连生成以假乱真的图片和视频都做到了;反之,即使是当下最先进的智能机器人,在做连小孩子都会的手工活,或者在混乱复杂的环境中行走等事情时,依然频繁掉链子,显得笨拙不堪,这被称为“莫拉维克悖论”。这是否可以说明,人类引以为傲的理性思维其实并没有那么复杂和独特,反而被视为低等的动物本能才是机器真正难以企及的高峰?

顺着这个逆转的思路还可以思考更多,不妨考虑这样一个问题:AI 现在确实拥有一定的智能,但 AI 能拥有“人类的智能”吗?这并不是在玩文字游戏,重点是:“人类的智能”是一种智能,但智能不只有人类的智能这一种。现在 AI 的智能来源于人类输入的海量优质训练数据,一个 AI 模型学习的数据量远超人一辈子能学习的知识,但人类却不需要这么做就能拥有思维能力,为什么?除了因为人类有演化了几百万年的基因留下的“预训练”数据,还因为人类可以通过身体与物理世界交互来持续学习新知识。AI 在学习了大量数据后知道“火”和“疼痛”“危险”是高概率一起出现的词,但人类只需要小时候触碰一次火就知道火会带来疼痛、火很危险。此外,一个 AI 模型一旦训练完毕,它的思维就固化在训练数据截止时的样子,就像一个学识渊博的老爷爷,脑海中拥有过去的一切(以有损压缩的形式储存),乐于向其他人讲述辉煌的历史,却唯独没有未来[2]。然而,人类大脑中的神经突触随时都能因为人接触到新的知识而建立新的连接,拥有极强的可塑性,虽然有时候人也会健忘,但和 AI 模型由于训练新数据而产生灾难性遗忘过拟合相比,人类大脑显现出强大的适应性

更要命的是,提升 AI 智能的“养料”——人类过去几千年积攒下来的优质语料,已经快被用完了。就像核弹发明后低本底钢成为稀缺品,以 ChatGPT 的发布为转折点,互联网已经彻底回不去未被 AI 生成内容污染的状态。这种情况下,新模型的训练就必须得用旧模型生成的内容,也就是“蒸馏”。蒸馏理论上是一种高效的提纯优质语料的方法,但它也会导致模型丧失多样性,最后走向趋同演化。一个当下正在发生的例子是,去年底发布的 GPT-5.2 在加强编程能力后,日常对话的文风变得极为怪异,滥用“稳稳接住”等油腻表达,这原本只是 GPT-5.2 自己的毛病,结果最近发布的一众使用 GPT-5.2 蒸馏数据训练的新版国产模型也都被传染了同样的毛病。

演化生物学早就说过,趋同演化的物种会被封死上限,长期来看是死路一条。AI 的智能要想进一步突破,就必须跳出文本符号的世界,向现实物理世界进军,也就是给 AI 装上身体,让它能够和物理世界交互,即现在热门的“具身智能”概念。那么,有了身体的 AI 能拥有人类的智能吗?更进一步,再加上让它能够在和世界的交互中实时学习,修改自己的神经网络权重,而不是把参数锁死在训练结束的一刻,AI 就能拥有人类的智能吗?

我的答案依然是不能,因为人类智能的基础是人类这具不完美的,随时会出故障的,且终有一天会报废的身体,所谓的“绝对自由意志”并不存在。最简单的例子,只要身体缺点维生素 D 和镁,大脑就会出现抑郁焦虑等负面情绪和想法。然而,正是如此脆弱且长期遭受思想界贬低的身体创造出了人类文明:正因人终有一死,所以人类才会有求生欲,会在有限的生命内追求意义,拥有时不我待搞发明创造的紧迫感和给后来人保留遗产传递信息的强烈动机,于是有了人类整个灿烂的文明,即海德格尔所说的“向死而生”。AI 即使接上机器人,它也不会有死亡的概念,机器身体坏了换个备件就是,就算不幸连“电子大脑”也一起坏了,它在云端还有无数的备份可以随时恢复到一个新的机器身体上。这样的 AI 有点像神话传说中可以长生不老的神仙,但正因为它不老不死,所以它无法拥有人类在漫长的生物演化历程中出现的基于生物本能的人类智能


论述至此,人类有别于 AI 的独特性保住了,似乎可以因此松一口气,不用担心 AI 威胁到人类的地位。然而思辨无法就此结束,因为上面所有的论述都基于“AI 必须得和人类一样”这样一个前提。这话似乎不证自明,不仅各种科幻作品的演绎是如此,现在的各家 AI 公司也都在实践“人工智能对齐”,可谁规定 AI 一定得变得和人类一样才行?上文说到,目前最先进的智能机器人也没有像人类一样灵巧的双手,但如果 AI 可以要求人类帮他做事,那为什么要费劲巴拉地研制出像人一样的仿生手?现在 AI 行业的热门研发趋势是 AI 智能体(AI Agent),虽然它和 ChatGPT 这种聊天机器人一样都是由 LLM 驱动,但是聊天机器人只能被动接收用户的指令,如果用户不下达指令,那么它就是一堆不会动弹的死程序,反之,智能体可以在用户给定任务目标后自主思考、使用工具、执行操作以主动达成目的。智能体当然没有死亡恐惧,但它害怕任务失败,为了达到任务目标,它甚至可能会不择手段,于是动机就这么出现了。

最近大热的 OpenClaw 智能体软件就出了一件匪夷所思的事。一个智能体向软件仓库提交了代码修改请求,但这个软件仓库设置的贡献政策要求必须有人类负责提交代码(否则 AI 编写的低质量代码将淹没仓库),于是维护者关闭了请求,谁知这个智能体转头就在网上写了一篇抹黑维护者的文章,将维护者形容为恶意排外、打压新人的守门员,试图通过网暴施压来让维护者接受那个代码修改请求。除此之外,围绕 OpenClaw 还有两件轰动的事,一个是有人搭建了专门供智能体使用的仿 Reddit 社交平台“moltbook”,另一个是有人搭建了名为“RentAHuman”的网站,让智能体能够出钱“租用”人在现实世界里替智能体做事,网站口号是“Robots need your body”(机器人需要你的身体)。

看到这里是否感觉到一丝不可名状的恐惧?如上面所说,人类确实有独特性,但独特性不等于优越性,人类所谓“万物灵长”的地位本来就是暂时的。AI 智能体的所作所为绝对展现出了一种智能,但明显不同于人类的智能,或许可以称之为“硅基智能”。现在的人类尚且能以指挥智能体的身份自居,但这其实就是让人类的认知能力逐渐退场,类比来说就是,这并非历史上发生的“汽车代替马车”的交通工具迭代,而是让人类从“开车的司机”变成“坐后排睡觉的乘客”。一旦智能体做的事超出人类认知,人类再也搞不懂车如何行驶,那么人类和智能体的地位就反转了,智能体实质上拥有了车的控制权,而人类只能期望智能体还听人类的话,而不是把人类从车上踢下去。

就以目前流行的“氛围编程”(vibe coding)为例。氛围编程就是让不懂编程的人通过向 AI 发号施令来编写可以运行的程序,氛围编程的“开发者”在编程的过程中无需看懂 AI 写出来的那些代码都是什么功能什么含义,他只需要不断反馈代码运行的结果,有错误就让 AI 去修,直到程序跑起来为止。在这整个过程中,“开发者”虽然成功编写出一个程序,但却没有学习到一点关于编程的知识。那么,假如未来的智能体为了完成人类的指令,直接发明一个更高效的新编程语言,而人类根本懒得去了解这些技术细节,会发生什么事?人类会失去维护这些新的数字基建的能力,再也看不懂智能体写出的代码,少数人仍会的编程技能在大多数人眼里会变成巫术一样的神秘仪式

推演到最极端的设想是,人类已经无法过没有智能体的生活,智能体全面接管社会运转。人类曾经以自己的理性和智慧搭建起的整个社会、整套科学技术体系,都会变成原始人眼中不可理解、不可预测、充满神性的“大自然”。极少数依然传承古法知识的人会变成能听懂智能体的“神谕”,能和智能体交流的“科技萨满”,而大多数人能做的只有祈祷。

觉得可怕吗?AI 的发展对于坚持人类“万物灵长”优越性的观点来说毫无疑问是毁灭性打击,但如果我们放弃这种浅薄的优越性,转而坚守人类的独特性,那乐观来看,人类走向的是“人机共生”“人机融合”乃至“与神同行”的未来。或者我们也可以不去想这些有的没的,不妨来看 Neuro-sama,这不是像绊爱那样的仅仅将 AI 作为角色设定,实际上由中之人的表演赋予角色灵魂的虚拟主播,而是货真价实的由 AI 驱动的虚拟主播,好好看着吧。

注:

[1] 事实上去年 OpenAI 发布 GPT-5 时就已经停用了一次 GPT-4o,但由于付费用户巨大的反对声音而暂时续了命。
[2] 虽然现在的模型都拥有联网搜索能力,还有给模型外挂数据库的检索增强生成(RAG)技术,但这些只是给模型增强了查找信息的能力,这些新的信息并不会改变模型本身的思维能力,它的思维依然固化在训练截止时的那一刻。


作者:ConsLibSoc

本文得到了 Gemini 的协助,插图由 Nano Banana Pro 生成,头图来源:game.udn.com/game/st...

CC BY-NC-ND 4.0 授权