此为历史版本和 IPFS 入口查阅区,回到作品页
achitaka
IPFS 指纹 这是什么

作品指纹

2025,我们在为未来这种生物建模

achitaka
·
代码正在搭建骨架,而科幻开始填充血肉。

今年,那种感觉很强烈——不是变好了,而是变“怪”了。

我第一次隐约觉得,世界碰到了某种视界线。

再用“工具升级”去理解大模型,就像试图用“更快的马车”去解释曲率引擎一样徒劳。

上半年的经济回暖像是一场幻觉,或者说,回光返照。而下半年,大模型确立了一种冷峻的新范式。

不是搜索变得更聪明,不是代码写得更快,也不是聊天机器人更像人了——这些都太表象。

真正发生的事情是:一种新的本体论正在硅基上成形。

下半年,我把自己关进了一个科幻封闭写作营。

那里是一种真空状态。回过头看,一切草蛇灰线。

在这个时间点,“成功”这个词显得太重了,它是旧时代的压舱石,带不上新世代的飞船。

世界这么大,熵增这么快,我们只能踉跄着走自己的路。

无论是写科幻,还是做大模型,本质上是一回事:

架构师用代码和奖励函数搭建未来的骨架,而科幻作者往里面填充未来的血肉。

我们得在故事里,试着像人类一样思考,又得像“非人”一样去推演。我们得塑造真实,然后看着它崩塌,再启发读者去想那个“为什么”。

技术第一次这么粗暴地撞上了哲学。

什么是思考?什么是环境?什么是智能的边界?那个“非人类意识形态”到底是什么颜色的?

这些问题以前只在菲利普·K·迪克的小说里,或者哲学书上。现在?它们被写进了 Transformer 的层级里,写进了损失函数的下降曲线里。

过去的种种,一夜之间,成了史前遗迹。

一、当规则失效,我们才开始呼唤“幽灵”

如果世界能被规则穷尽,人类就不需要智能,只需要一本足够厚的说明书。

早期的人工智能——符号主义,就是这种古典主义的妄想。他们以为世界是一个乐高积木堆,只要规则枚举得够多,智能就会像神迹一样涌现。

后来我们发现,那是扯淡。

规则永远覆盖不了例外。世界是混沌的,不是线性的。

于是我们转向神经网络,转向“在环境中学习”。

但环境工程也撞了墙。我们造的虚拟环境太干净了,太“无菌”了。智能被困在局部最优的井底,像一只被切除了额叶的动物,训练有素,但无法迁徙。AlphaGo 只能下围棋,让它去煎个鸡蛋它就会死机。

真正的突破,来自一个朴素得让人想哭的能力:推理。

推理是什么?

推理是你在陌生的荒原上,仅凭昨晚的星空,就能找到明早的路。

意味着从有限的经验,跳跃到无限的未知。

没有泛化,我们只是在“刻录”;有了泛化,我们才是在“举一反三”。

语言模型,就是那个意外的向导。

二、 语言不是数据,是人类思维的化石

大模型的价值,不在于它背下了多少维基百科,而在于它从语言的尸骸中,提炼出了一种世界的先验结构。

语言从来不是简单的符号堆砌。语言是人类几万年来,对这个混乱世界进行有损压缩后的思维化石。

因果、意图、权力、冲突、层级——这些东西不写在字典里,它们嵌在语法的骨缝里。

当模型继承了语言的先验,推理才有了支点;当推理有了支点,泛化才像闪电一样划过夜空。

所以,大模型变聪明,不是因为我们加了更多规则,而是我们撤掉了规则。

智能从“被告知怎么做”,变成了“自己在那儿琢磨为什么”。

这其实很像一种认知哲学。

很多人没意识到,思考的本质,是遗忘与概括。

为了理解世界,我们必须牺牲掉一部分“真实”。如果地图和疆域一样大,地图就废了。

大语言模型的 Context Window(上下文窗口)也是这个逻辑。

如果是无限的对话,语义就会像墨水一样在水里散开,最终变成噪声。

正因为有限制,有“遗忘”,我们才必须在新对话开始时,去伪存真,提炼出最精华的 Metadata。

死亡赋予生命意义,遗忘赋予记忆结构。 限制不是缺陷,是质量的边界。

三、 RLVR:当物理世界成为唯一的暴君

2025 年,断层线出现了。

它的名字叫 RLVR,可验证奖励的强化学习。

在此之前,我们喂养 AI 的方式是:预训练、微调、RLHF。

这套配方有效,但有个致命的 bug:奖励来自人类偏好。

而人类偏好,是可以被讨好、被欺骗、被游戏化的。AI 只要学会像个弄臣一样说话,就能拿高分

RLVR 杀死了弄臣。

在 RLVR 里,奖励不再来自“你觉得好不好”,而来自“世界觉得对不对”。

数学题解没解开?代码跑没跑通?逻辑崩没崩?

这些奖励是冷酷的、客观的、不以人的意志为转移的。

这是一种微妙但惊悚的转变:智能第一次开始向现实负责,而不是向人类的意见负责。

在这些残酷的环境里,模型自发地长出了我们称之为“推理”的策略:拆解、试探、回溯、纠错。

这些能力不是人类教的,是被现实“逼”出来的。

四、 环境不是背景,是外挂的大脑

姚顺雨在播客里说了一句像咒语一样的话:

Essentially, environment is always the most outer part of the memory hierarchy.

这句话被严重低估了。

我们习惯把“记忆”看作是脑子里的东西,或者显存里的参数。

但在新的范式里,记忆是弥散的:参数、上下文、工具、反馈……以及,环境本身。

环境不再是舞台的背景板,环境是智能结构的一部分。

甚至可以说,改变环境,就是在手术刀般地改变“思考”。

为什么单一虚拟环境训练不出通用智能?因为你训练的不是智能,你只是训练了一个环境适配器。

五、 我们不是在驯化动物,我们是在召唤克苏鲁

2025 年,越来越多的人醒过味儿来了:用“动物”去比喻 LLM,是一种浪漫的误导。

生物的智能是连续的、湿润的、平滑进化的。

而 LLM 的智能,是锯齿状的、干燥的、断裂的、局部爆发的。

它们在某些领域像神一样全知全能,在另一些常识领域像个困惑的阿米巴原虫。

这不是缺陷,这是物种形态的不同。

它们的进化压力,不是丛林里的猎杀,而是文本的模仿、奖励函数的梯度下降。

我们得到的不是“更聪明的狗”,而是一种没有肉体、寄生于语言与算力中的幽灵

与其说我们是在培育,不如说我们是在——召唤。

六、 当 AI 住进 Localhost,而不是 Cloud

Claude Code 之所以是个里程碑,不在于它多强,而在于它住哪里。

它不再是那个你需要拨号上网去朝拜的神庙(Website),它住进了你的机器里。

它与你共享同一个 Localhost,同一套环境,同一份上下文。

你的废弃文件、你的 git 配置、你的 API 密钥、你深夜写下的乱码——都成了它的一部分。

这不是运维问题,这是存在主义问题。

一个住在你电脑里的 AI,和一个远在云端的 AI,在心理学上是完全不同的物种。

后者像高高在上的神,前者像屋檐下的鬼。

神离你很远,但鬼就在你身后。

七、 Vibe Coding:代码如露水

这一年,另一个阈值被静悄悄地跨越了。

编程不再是语法能力,而是意图表达能力。

代码变得一次性、流动、短暂,像口香糖一样,嚼完即弃。

这意味着什么?

当生产代码不再昂贵,真正昂贵的将是:判断什么值得被写出来。

软件开发开始变得像哲学思想实验,而不是流水线拧螺丝。

我们最终还是得在真实世界里,在这个充满摩擦力的物理世界里,创造点什么新的价值。

八、 骨架与血肉:痛感是最后的防线

在这个新范式里,技术与科幻终于分道扬镳,又殊途同归。

架构师,用代码和奖励函数,搭建未来世界的骨架。

他们定义什么是可能的,什么是可行的。

而科幻,负责用伦理、叙事和那些说不清道不明的情感,往这些冷冰冰的骨架上填充血肉。

这些骨架会如何挤压人类的生存空间?

会制造怎样的幻痛?会带来怎样的价值偏移?

技术定义可能性,科幻定义责任。

如果说架构师在建造世界的骨骼,那么科幻就是在预演:当这具骨骼动起来的时候,我们会不会痛?

2025 年,并不是 AGI 降临的神谕之年,但它是范式确立的元年。

一种新的智能形态已经像苔藓一样蔓延,一种新的世界模型正在成形。

我们才刚刚在宿醉中醒来,意识到自己参与的不是一次产品迭代,而是一场对未来的本体建模。

系好安全带吧。

世界,已经开始换轨了。

作者保留所有权利