假如我们拥有更大的大脑?

对超人智慧及其背后计算本质的想象与探索
作者: 斯蒂芬·沃尔夫勒姆 (Stephen Wolfram) | 机构: Wolfram Research

摘要

人类大脑约由一千亿个神经元构成,这一规模使我们具备了复杂的组合语言能力。相比之下,猫的一亿神经元似乎不足以支持此功能。本文以第一人称视角,探讨了若拥有更大规模的大脑——例如,拥有百万亿神经元,或构建出同等规模的人工智能——可能会涌现何种新能力。我们基于近年来在大型语言模型(LLMs)和神经网络领域的突破,结合计算普遍性原理、计算不可约性与可约性等核心概念,对超越当前人类心智的可能性进行了系统性推演。我们认为,心智的核心功能在于识别和利用世界中的“计算可约性口袋”,即那些能够被简化和预测的模式,从而在充满“计算不可约性”的复杂背景中实现有效决策。语言和概念是这种压缩和抽象的关键工具。一个更大的大脑,可能意味着能够掌握和运用一个远超当前数万规模的概念和词汇库,从而形成更深、更广的抽象能力,并可能发展出超越当前语言结构的“高阶”计算语言。本文通过交互式动画和图表,阐释了从计算基本原理到概念涌现、语言结构、抽象层级乃至社会复杂性等一系列问题,并推测更大规模的“类脑系统”将如何与我们已知的物理定律和数学结构(如“ruliad”)相互作用。最终,我们提出,对“超人智慧”的探索,不仅是关于神经元数量的增加,更是关于理解和扩展我们认知世界所依赖的计算范式本身。这将是一个智力上的远征,推动我们重新审视意识、知识和宇宙的本质。

引言:猫为何不会说话?

我常常思考一个问题:我们人类,凭借着大脑中大约一千亿(\(10^{11}\))个神经元,发展出了精妙绝伦的语言。我们能组合词语,创造出几乎无限的意义。而一只猫,它的大脑拥有一亿(\(10^8\))左右的神经元,却似乎无法跨越那道门槛,发展出类似的组合语言。这中间的差距,仅仅是数量级的差异吗?如果我们的神经元数量再增加一千倍,达到一百万亿(\(10^{14}\)),甚至更多,世界在我们眼中会变成什么样?我们会“想”些什么我们现在无法想象的东西?

这不仅仅是一个生物学上的遐想。近年来,人工智能,特别是大型语言模型(LLM)的发展,为我们提供了一个绝佳的参照系。我们亲眼见证了,当人工神经网络的规模(连接数)不断扩大时,它们的能力也呈现出阶梯式的跃迁:

  • ~\(10^5\) 连接数: 识别手写数字。
  • ~\(10^7\) 连接数: 识别数千种物体图像。
  • ~\(10^9\) 连接数: 从文本生成逼真的照片。
  • ~\(10^{11}\) 连接数: 生成流畅、连贯的人类语言文本。

这个趋势引人深思。我们人类大脑的连接数大约在 \(10^{14}\) 级别。如果我们构建一个远超此规模的AI,它会解锁怎样的“新技能”?这甚至是我们能够理解的吗?在这篇文章中,我希望以我个人的视角,结合我对计算宇宙、物理学基本定律以及神经网络的长期研究,和大家一起踏上这场思想实验的旅程。

计算的“海洋”与“岛屿”:不可约性与可约性

要理解大脑能做什么,首先要理解我们所处的世界的计算本质。我的一个核心观点是,宇宙中充满了计算不可约性(Computational Irreducibility)。这意味着,对于许多系统,预测其未来的唯一方法就是一步步地模拟它的演化过程,没有捷径可走。你无法“跳到”答案,只能耐心地观察。这就像天气系统,或者许多简单的计算机程序(如著名的“规则30”细胞自动机),它们的行为复杂且不可预测。

如果整个世界都是计算不可约的,那么大脑将无能为力。任何决策都需要无穷无尽的模拟,这显然不现实。但幸运的是,在这片“计算不可约的海洋”中,漂浮着无数的“计算可约性口袋”(Pockets of Computational Reducibility)。这些“口袋”或“岛屿”,就是系统行为中存在的规律、模式和简化特征。它们是我们可以利用的捷径。

科学的进步,本质上就是不断发现和利用这些“可约性口袋”的过程。牛顿定律让我们不必模拟每一个分子的运动,就能预测行星的轨迹——这就是一个巨大的“可约性口袋”。我认为,大脑的核心功能,正是识别、利用并“内化”这些可约性口袋,从而在复杂的外部世界中做出快速、有效的决策。

动画1:计算的海洋与岛屿

这个动画展示了两种简单的计算系统。左边是“不可约”的,其模式混乱且无法预测,就像一片汪洋。右边是“可约”的,呈现出清晰、简单的规律,就像一座可以轻松导航的岛屿。我们的大脑正是擅长寻找右边这样的“岛屿”。

状态: 待开始

概念的诞生:从像素到“石头”

大脑如何利用这些“可约性口袋”呢?一个关键的机制就是概念的形成。想象一下,你的视网膜接收到无数的光子,形成了像素点阵。这些是原始的、海量的感官数据。但你不会去处理每一个像素,而是将它们“压缩”成一个高级的概念,比如“石头”。

无论这块石头是圆是方,是灰色还是褐色,在你的脑海里,它们都被归入了“石头”这个概念范畴。这个过程,在神经网络的术语里,可以看作是在高维的“特征空间”中,许多不同的输入(不同石头的图像)演化并收敛到了同一个吸引子(Attractor)。这个吸引子,就是“石头”这个概念在神经网络中的表示。它是一个稳定的、可复用的结构,是对大量原始数据的高度压缩。

我们可以想象,人类语言中大约三万个常用词汇,就对应着我们大脑中三万个这样的“概念吸引子”。这是我们为了描述和理解世界而演化出的一套工具。但问题是,这三万个概念就足够了吗?我们之所以觉得够用,很可能陷入了一种循环论证:因为我们只有这些词,所以我们只关注并讨论这些词所能描述的事物。天空云彩的万千形态,我们没有为之命名,于是它们就在我们的日常交流中“不存在”了。

一个更大的大脑,或许能轻松容纳和操作数百万,甚至数千万个这样的概念。它能“看到”并命名我们从未留意过的模式,在云朵、水流、甚至思想本身的结构中发现新的“可约性口袋”。

动画2:概念的涌现

这个动画模拟了神经网络的“特征空间”。最初,屏幕上散布着代表各种感官输入的随机点。点击“开始”后,这些点会根据隐藏的规则开始移动、聚集,最终形成几个稳定的“簇”。每一个簇,就代表一个从原始数据中“涌现”出的概念。

状态: 待开始 | 涌现概念数: 0

语言的边界与超越:从句子到计算语言

概念是基石,而语言则是将这些基石搭建成宏伟建筑的脚手架。人类语言最强大的地方在于其组合性(Compositionality)。我们可以用有限的词汇(概念),通过语法规则组合成无限的句子,表达复杂的思想。比如,我们可以说“一块黑色的、光滑的石头”,通过形容词(“黑色”、“光滑”)来精确修饰名词(“石头”),形成一个更精细的概念。

这种组合结构,在形式上很像一个树状的嵌套结构。我们理解一个句子,需要在大脑的工作记忆(Working Memory)中暂存这些嵌套的短语。我们人类的工作记忆有限,大约能处理5到7个“信息块”,这限制了我们能理解的句子嵌套深度。一个更大的大脑,拥有更大的工作记忆,或许能轻松处理我们看来极其冗长和复杂的句子结构。

动画3:思想的树状结构

点击中心的“思想”节点,观察它如何像一棵树一样,生长出由名词、动词、形容词等构成的分支。这个过程直观地展示了语言的组合性和嵌套特性。更深、更复杂的树需要更大的“心智空间”来容纳。

但仅仅是更深的嵌套吗?我认为,更大的大脑可能催生出一种 qualitatively different 的语言——我称之为计算语言(Computational Language),就像我毕生心血所构建的 Wolfram Language 那样。

人类语言通常是“操作数据”的。动词作用于名词。而计算语言可以“操作操作本身”,即“操作代码”。它引入了高阶函数(Higher-Order Functions)的概念。例如,在Wolfram Language中,有一个函数叫 `NestList`。它的作用不是对一个数进行操作,而是对一个“操作”(即任何函数 \(f\))进行重复操作。`NestList[f, x, 3]` 的结果是 \(\{x, f(x), f(f(x))\}\)。

这种“元操作”的能力,是人类语言中非常罕见的。它代表了一种更高层次的抽象。我们不再仅仅满足于描述世界,而是开始描述“描述世界的方式”。一个更大的大脑,或许能将这种高阶思维运用自如,就像我们今天使用简单的动词一样。它们的日常语言,可能充满了我们看来是深奥数学或逻辑学的结构。

抽象的阶梯与终极理论:Ruliad

高阶语言的背后,是更高层次的抽象(Abstraction)。抽象的本质,就是识别出不同事物之下的共同结构,并将其打包成一个新的、更普适的概念。从“狮子”、“老虎”到“大型猫科动物”,就是一次抽象。从具体的加法运算 \(2+3=5\) 到代数表达式 \(a+b=c\),又是一次抽象。

我们可以想象一个“抽象之塔”。底层是具体的感官经验,往上是基本概念,再往上是语言、数学、逻辑,乃至更高阶的理论。每一次向上攀登,都需要我们识别并利用更深层次的“可约性口袋”。

然而,攀登这个塔是困难的。它需要我们摆脱日常经验的束缚。对我个人而言,一个重大的思想飞跃,是发现简单规则可以产生极端复杂的行为(即计算不可约性)。这打破了“简单产生简单”的直觉,开启了一个全新的范式。

那么,这个抽象之塔的顶端是什么?是否存在一个包罗万象的终极结构?我相信是有的,我称之为Ruliad。Ruliad是所有可能计算的纠缠极限。它包含了所有可能的规则、所有可能的历史、所有可能的数学定理和物理现实。它是一个极其庞大、充满计算不可约性的终极对象。

我们有限的大脑,作为Ruliad内部的一个观察者,不可能窥其全貌。我们所能感知的,只是Ruliad的某些“切片”。而一个惊人的结论是:我们之所以感知到我们所知的物理定律(如相对论、量子力学),恰恰是因为我们作为观察者具有某些基本属性,比如我们是计算有界的,并且我们相信自己拥有单一、持续的时间线。

一个更大的大脑,如果仍然保持着“类脑”的基本结构(即计算有界、单一意识流),那么它所感知的核心物理定律将和我们一样!但它可能会占据Ruliad中一个更大的区域,能够理解和运用更多、更复杂的“可约性口袋”,从而建立起我们无法想象的科学和技术体系。

动画4:在Ruliad中航行

这个抽象动画代表了包罗万象的Ruliad——一个由所有可能计算构成的无限网络。那个移动的发光区域,象征着一个“心智”或“观察者”。它的大小和移动路径,决定了它能感知到宇宙的哪些规律。一个更大的大脑,就如同一个更大的发光区域,能够探索更广阔的领域。

更大的大脑,更复杂的社会?

我们大脑的一个关键特征是,它将所有神经活动最终汇聚成一个单一的“决策流”或“意识流”。这可能是因为动物在物理世界中一次只能朝一个方向移动。但如果多个拥有独立意识流的大脑聚集在一起,就形成了社会。

语言,作为一种标准化的通信协议,是连接这些独立大脑、形成“连贯社会”的粘合剂。它确保了思想可以在不同心智之间相对保真地传递。

那么,拥有更大脑的个体,会组成怎样的社会?我推测,他们能够维持和理解远比我们现在复杂的社会结构。我们人类的社交关系,大致可以用一个简单的图(Graph)来表示,节点是人,边是关系。但一个“超级大脑”社会,其成员间的连接和依赖关系,可能需要用超图(Hypergraph)来描述,其中一条“边”可以连接任意数量的“节点”。“我们是朋友”对他们来说可能是一个过于简化的概念,他们可能会用我们无法理解的、多维的、动态的术语来描述彼此的关系。

简单社会网络 (图) 高阶社会结构 (超图)
左图:简单的“一对一”关系。右图:更复杂的“多对多”关系(超边),可能需要更大的大脑来理解和维系。

结论:与“超人智慧”的相遇

我们人类总有一种倾向,认为自己的心智是万物的顶点。但从计算的角度看,这显然是错误的。我们珍视的“意识体验”,恰恰是我们大脑计算结构“局限性”的产物。

一个更大的大脑,只要保持着“类脑”的架构,它依然会在计算的海洋中寻找可约性的岛屿。它能处理更多的感官输入,拥有更大的工作记忆,掌握更多的概念,使用更高阶的语言。与这样的智慧体交流,可能就像一只狗听我们讨论哲学——它能捕捉到“坐下”、“取球”这样熟悉的指令,但对整个对话的抽象结构却一无所知。我们或许能理解它给出的“五岁小孩版”解释,但会错过其思想中真正宏伟的结构。

最终,对“超人智慧”的探索,不仅仅是神经元数量的竞赛。它是一场智识上的远征,要求我们不断打磨和升级我们自己的概念工具,尤其是计算语言。只有这样,我们才能逐步搭建起桥梁,去欣赏和理解那些远超我们当前心智所能触及的风景。这趟旅程,无疑将重塑我们对自身、对知识乃至对宇宙的全部理解。

技术附录:核心概念深究

1. 计算等价性原理 (Principle of Computational Equivalence)

这是我理论体系的基石。它指出,一旦一个系统的行为不是明显简单的,它就能够进行与任何其他系统同样复杂的计算。这意味着,不存在一个“超级计算”的等级。无论是天气系统、大脑中的神经活动,还是一个简单的细胞自动机,只要它们的行为足够复杂,其内在的计算能力就是等价的,都达到了“通用计算”的水平。这个原理的推论是,复杂性无处不在,而且我们无法轻易地“超越”它。这也是为什么我们不能期望通过简单地增加大脑尺寸就“解决”所有计算难题。

2. 大脑与LLM的架构对比

尽管两者都利用神经网络,但其工作流程有本质区别。大脑是一个持续学习、实时决策的系统,感官输入、思考和记忆更新是同步发生的。而目前的LLMs大多采用两阶段模式:首先是庞大的“训练阶段”,用海量数据调整网络权重,这个过程是离线的;然后是“推理阶段”,网络权重固定,根据输入生成输出。这个区别很重要,大脑的持续适应性可能是其产生鲁棒性和常识的关键。未来的AI可能会朝着更像大脑的持续学习模型发展。

生物大脑 (持续学习) 感官输入 神经处理 / 思考 行动 / 决策输出 记忆更新 当前LLM (两阶段) 阶段一: 训练 (离线) 海量数据 权重调整 阶段二: 推理 (在线) 用户输入 (Prompt) 生成输出 (Token)
大脑的循环学习过程与LLM的线性两阶段模式对比。

3. 抽象之塔的结构

抽象并非单一维度。我们可以构建一个金字塔模型来理解其层次:

  • 第一层(基座):感官数据。 像素、声波、压力等原始、未经处理的信息。这是我们与世界接触的起点。
  • 第二层:具体概念。 大脑将感官数据聚类成稳定的对象和事件,如“苹果”、“跑”。这是对现实的第一次有意义的压缩。
  • 第三层:组合语言。 使用语法将具体概念组合起来,形成命题和描述,如“那个红苹果从树上掉下来了”。这一层级极大地扩展了表达能力。
  • 第四层:形式系统与数学。 进一步抽象,剥离具体内容,关注形式和结构本身。例如,从具体数量到“数”的概念,再到代数变量 \(x\)。
  • 第五层(塔尖):高阶计算语言。 对“形式系统”本身进行操作。我们不再只是使用规则,而是创造和分析规则的规则。这是元认知和元理论的领域,也是更大规模心智可能大放异彩的地方。