本章旨在构建纪尧姆·韦尔东(Guillaume Verdon)工作的思想基础,追溯他从理论物理学到当前聚焦于热力学人工智能的学术轨迹。其职业生涯将被描绘成一场对计算作为物理过程本质的系统性探索,这一探索从抽象的宇宙学层面逐步深入到应用的、可触及的领域。
纪尧姆·韦尔东的学术生涯始于一个宏大的物理学目标:从第一性原理出发理解宇宙。他早期的研究动力源于对宇宙终极理论的探寻,这引导他深入研究理论物理、量子宇宙学和黑洞物理学。在他的世界观中,整个宇宙可以被视为“一台巨大的计算机”,而他的任务就是揭示其底层的运行法则。他对黑洞的研究并非孤立的学术兴趣,而是与其对信息理论的思考紧密相连。他认识到,黑洞是宇宙中最高效的信息压缩器,这一概念后来被他巧妙地与机器学习的核心思想联系起来——即机器学习在本质上也是一种对世界进行最优数据压缩的形式。
这种背景至关重要,因为它奠定了韦尔东后续所有工作的“物理学优先”(physics-first)方法论。与从逻辑门和算法出发的传统计算机科学家不同,韦尔东的起点是支配信息与能量的物理定律。这一视角使他能够跳出传统计算架构的束缚,直接从物质世界的基本规则中寻找新的计算可能性。他的探索并非始于如何构建更快的计算机,而是始于一个更根本的问题:自然本身是如何进行计算的?
在对宇宙宏观规律的探索达到一定深度后,韦尔东的关注点发生了战略性转移。他逐渐意识到,仅仅理解宇宙的计算方式是不够的,更强大的路径在于利用机器增强人类的智能,从而提升我们感知、预测和控制世界的能力。这一思想转变促使他离开纯理论物理领域,投身于应用性更强的量子机器学习(Quantum Machine Learning, QML)研究。
在谷歌(Google)及其前瞻性研究部门 Alphabet X 任职期间,韦尔东迅速成为量子机器学习领域的关键贡献者。他最重要的成就之一是与美国国家航空航天局(NASA)合作,共同创建了 TensorFlow Quantum (TFQ)。TFQ 是一个开创性的开源软件框架,旨在加速混合量子-经典机器学习模型的原型设计与研究,它将谷歌强大的机器学习框架 TensorFlow 与领先的量子计算框架 Cirq 结合起来。这一项目展示了他致力于将抽象的量子理论转化为实用、近期的应用工具的决心。除了 TFQ,韦尔东在谷歌的工作还包括开发量子图神经网络(quantum graph neural networks)和量子哈密顿量模型(quantum Hamiltonian-based models)等前沿技术。这段经历不仅巩固了他在量子计算领域的专业地位,也让他深刻掌握了如何将人工智能算法嵌入到量子系统的物理动态中。
尽管在量子机器学习领域取得了显著成就,但韦尔东在实践中也直面了量子计算最根本的工程挑战:噪声与退相干。维持量子比特的相干性、使其免受环境热噪声的干扰,是一项极其艰巨且耗费巨大的任务。这一现实让他对容错量子计算机的近期可行性产生了“信仰危机”。
他开始重新审视计算的物理尺度。他观察到,宇宙在最小尺度上是量子力学的,在最大尺度上是确定性的,然而,在与生物、化学和日常生活息息相关的“介观尺度”(meso scales)上,世界既非纯粹量子,也非完全确定,而是本质上热力学的、充满涨落的。生物系统,如人脑,正是在这种充满噪声的环境中以极高的能效进行着复杂的计算。这一洞察引发了他职业生涯中的核心转向:与其继续投入巨大资源来对抗和抑制噪声,不如开创一种全新的计算范式——直接驾驭噪声,将其从计算的敌人转变为宝贵的资源。基于这一理念,韦尔东于 2022 年创立了 Extropic 公司,致力于将这一革命性的“热力学计算”概念商业化。
韦尔东的职业生涯并非一系列孤立项目的简单集合,而是一场连贯的、在不同物理尺度上探索计算本质的智识之旅。他从宇宙学的最大尺度出发,研究了时空本身的信息处理极限;随后,他深入到量子力学的最小尺度,试图在现实的基本基底上构建计算模型;在遭遇了量子系统固有的脆弱性——即热力学环境的干扰——之后,他没有选择继续构建更复杂的错误纠正系统来隔离量子与热力学,而是做出了一个根本性的战略抉择。他决定直接利用热力学本身来构建计算机,将研究重心从纯净、相干的量子领域转移到了生物系统赖以生存的、嘈杂而充满活力的介观领域。这一轨迹清晰地展示了一位务实的物理学家在面对工程现实时的抉择。他目前在热力学计算方面的工作,是在探索了量子和经典两个极端之后,为其寻找最高效、最实用的计算物理基底所得出的逻辑终点。
本章深入探讨构成韦尔东后续工作科学基石的核心学术论文,旨在提供报告的技术核心。本章将直接回应用户请求,寻找并分析韦尔东“十年前写的方程式”,并阐明这些早期理论如何为他后来的热力学计算愿景铺平了道路。
用户所寻求的“十年前的方程”,最有可能源自韦尔东(署名 Verdon-Akzam)与 E. Martin-Martinez 和 A. Kempf 于 2016 年发表的论文《通过量子比特探针实现渐近无限的量子能量隐形传态》(Asymptotically limitless quantum energy teleportation via qudit probes)。这篇论文的核心概念是量子能量隐形传态(Quantum Energy Teleportation, QET)。
QET 协议描述了一个精妙的过程:在一个共享纠缠量子系统的两方(发送方 Alice 和接收方 Bob)之间,Alice 在其本地对系统进行一次测量,然后通过经典信道将测量结果告知 Bob。仅凭这一信息,Bob 就能通过一次本地操作,从他所在位置的系统中提取出能量。此过程的关键之处在于,能量并未以物理形式从 Alice 处传播到 Bob 处。相反,能量是通过利用蕴含在量子态中的非局域关联,从真空或基态中被“激活”出来的。
该协议的理论框架建立在利用“本地操作和经典通信”(Local Operations and Classical Communication, LOCC)来打破量子真空的“强局域被动性”(strong local passivity)之上。通常情况下,强局域被动性禁止从真空或基态中通过本地操作提取能量,但 QET 协议通过引入信息交换绕过了这一限制。该论文的一个重要贡献是将此协议从传统的二维量子比特(qubit)推广到了任意维度的量子系统(qudit)。研究表明,通过增加探针系统的维度 $d$ 和相互作用的强度,原则上可以隐形传态任意大量的能量。
论文中给出的奠基性方程描述了 Bob 提取的总功(或能量变化)$\Delta E$。其简化形式可以理解为:
$$ \mathbf{\Delta E = (\text{Bob 投入的能量}) - (\text{依赖于 Alice 测量的可提取能量项})} $$
论文中给出的更具体形式为(Eq. 29):
$$ \mathbf{\Delta E = \frac{\mu_0^2}{4} \int_{\mathbb{R}} dx^2 - \frac{\lambda_0 \mu_0 \text{Im}(\Gamma)}{2\pi} \int_{\mathbb{R}^2} dx dy \frac{F_A(x) F_B(y)}{(y-x+T)^2}} $$
在此方程中:
这篇论文的深远意义在于,它在数学上严格地建立了一条连接信息(Alice 的测量结果)、能量(Bob 提取的功)和量子关联(纠缠)的桥梁。它证明了信息并非仅仅是抽象的符号,而是具有调动物理能量潜力的实体。
如果说 2016 年的 QET 论文揭示了信息与能量的深刻联系,那么韦尔东在谷歌 X 工作期间于 2019 年合著的论文《基于量子哈密顿量的模型与变分量子热化器算法》(Quantum Hamiltonian-Based Models and the Variational Quantum Thermalizer Algorithm)则为如何利用这种联系进行计算提供了具体的算法框架。
这篇论文的理论框架引入了“基于量子哈密顿量的模型”(Quantum Hamiltonian-Based Models, QHBMs)。这是一种生成式模型,它将一个量子态表示为某个参数化哈密顿量(能量函数)$H_{\theta}$ 的热态,其形式为吉布斯分布(Gibbs distribution):$\rho = \frac{1}{Z}e^{-H_{\theta}}$。论文的核心是一种名为“变分量子热化器”(Variational Quantum Thermalizer, VQT)的算法。VQT 是对著名的“变分量子本征求解器”(Variational Quantum Eigensolver, VQE)的推广。VQE 的目标是找到一个哈密顿量的基态(对应于零温度状态),而 VQT 的目标则是在给定的有限温度 $T$(或逆温度 $\beta=1/k_B T$)下,制备出系统的热平衡态。
该算法的奠基性方程包括:
$$ \mathbf{\rho_{\theta\phi} = U(\phi)\rho_{\theta}U(\phi)^{\dagger}} $$
$$ \mathbf{L_{\text{vqt}}(\theta, \phi) = \beta \cdot \text{tr}(\rho_{\theta\phi}H) - S(\rho_{\theta\phi})} $$
这项工作是连接量子计算与热力学的直接桥梁。它提供了一种具体的算法,指导如何使用量子计算机来“编程”一个系统,使其稳定到一个由特定能量函数(哈密顿量)所定义的、特定的热平衡分布中。这标志着从被动地利用已有关联(如 QET)到主动地构建和塑造热力学状态的转变。
将 2016 年的 QET 论文和 2019 年的 VQT 论文并置分析,可以清晰地看到一条连贯的思想发展脉络。它们并非孤立的研究,而是通往热力学计算这一宏大愿景的两个关键逻辑步骤。
第一步,2016 年的 QET 论文确立了一个被动但根本的物理原理:关于系统关联的信息可用于操控其能量。在这个协议中,能量景观(即真空中的量子关联)是预先存在的、固定的。关键在于利用信息(Alice 的测量)来“解锁”并提取其中的能量。这证明了信息与能量之间存在着可操作的联系。
第二步,2019 年的 VQT 论文则展示了一个主动的计算原理:一个计算过程可以被设计用来主动地将一个系统塑造到期望的热力学状态。这里的能量景观(哈密顿量)是可编程的,而 VQT 算法就是实现这种编程的手段。它展示了如何通过变分方法,在量子计算机上生成由任意能量函数定义的概率分布。
热力学计算正是这两大思想的综合与升华。Extropic 公司的愿景可以被理解为试图将这两个原理物理性地融合在一个硬件设备中。它旨在构建一个物理系统,其能量景观是可编程的(如 VQT 所示)。然而,它不再需要一台复杂的、与环境隔离的量子计算机来费力地制备热态。相反,它让这个设备直接与嘈杂的外部环境(热浴)相互作用,通过自然的热力学过程达到平衡。这个系统最终达到的稳态概率分布本身就是计算的结果。在这个模型中,QET 协议中从真空提取能量的概念,被环境中源源不断的热能所取代,这些环境热能成为了驱动计算的“免费”资源。
综上所述,用户所追寻的“十年前的方程”并非热力学芯片的直接设计图,而是揭示了信息与能量深层联系的基础物理原理。随后的 VQT 工作则提供了将这种联系结构化以用于计算任务的算法桥梁。Extropic 的最终目标是制造出直接体现这一综合思想的硬件,它绕过了作为中间媒介的通用量子计算机,直接利用环境热噪声作为计算的核心驱动力。
本章将基于纪尧姆·韦尔东及其公司 Extropic 发布的“精简白皮书”(litepaper)和公开演讲,对其提出的热力学计算架构进行详细的技术解构。
Extropic 范式的核心哲学在于对噪声的重新定义:它不再是需要被抑制的缺陷,而是可以被利用的计算资源。这与两种主流计算范式形成了鲜明对比:经典计算耗费能量来创造确定性的、无噪声的逻辑状态;而量子计算则耗费能量来将系统与环境噪声隔离开来。
这一思想的灵感直接来源于生物系统。自然界的计算系统,例如人脑,在充满噪声、非数字化的随机环境中运行,却表现出极高的能源效率。Extropic 认为,随着摩尔定律因晶体管尺度接近原子极限而遭遇“摩尔之墙”(Moore's Wall),以及人工智能模型对能源需求的急剧增长,传统数字计算正面临不可持续的瓶颈。热力学计算被定位为能够延续计算能力指数级增长的“下一条 S 曲线”,通过与物理现实和谐共存而非对抗,开辟了一条全新的发展路径。
Extropic 的技术路径以能量基模型(Energy-Based Models, EBMs)为中心。EBM 是一类生成模型,它不直接学习数据的概率密度函数,而是通过为系统的每一种可能配置 $x$ 分配一个标量“能量” $E(x)$ 来隐式地定义一个概率分布。一个配置的概率由玻尔兹曼分布(Boltzmann distribution)给出:
$$ \mathbf{p(x) = \frac{1}{Z} e^{-E(x)/k_B T}} $$
其中,$E(x)$ 是能量函数,$T$ 是系统的温度,$k_B$ 是玻尔兹曼常数,$Z$ 是归一化因子,即配分函数。
Extropic 的核心创新在于,它不试图在数字计算机(如 GPU)上模拟从这个分布中采样的过程——这个过程通常涉及马尔可夫链蒙特卡洛(MCMC)等算法,计算量巨大且能耗高昂。相反,它旨在将 EBM 直接实现为参数化的随机模拟电路。在这个架构中,物理电路本身在与环境热噪声的相互作用下,会自然地演化并达到一个热平衡状态。这个平衡状态下的系统涨落,其统计分布恰好就是由电路物理参数(如可调的电压、电容、电感等)所定义的玻尔兹曼分布。
这个过程被形象地比喻为:将大量微小粒子(电子)放置在一个高维的“碗”(能量势阱)中,这个碗的形状可以通过外部参数进行编程。在热搅动(布朗运动)下,粒子最终会根据碗的形状(能量景观)形成一个稳定的概率分布。计算的过程就是让物理系统自然地完成这个“沉降”过程,而计算的结果就是对最终稳态分布的采样。这种“捷径”有望为采样类算法带来数量级的速度和能效提升,而这类算法正是许多生成式人工智能、优化和科学计算任务的基础。
为了将理论转化为现实,Extropic 采取了一种务实的双轨硬件开发策略,同时推进两种不同技术路径的实现:
这种双轨并行策略有效地分散了技术和商业风险。超导芯片作为性能标杆和理想的物理原型平台,用于探索技术的极限;而半导体芯片则提供了一条清晰的商业化路径,确保技术能够快速落地并产生广泛影响。
为了让这种新型硬件能够被开发者使用,一个强大的软件层是必不可少的。Extropic 正在构建一个编译器和软件栈,其功能是将能量基模型(EBMs)的抽象规范,编译成可由硬件直接执行的底层控制语言。
这一编译层的理论基础是因子图(factor graphs)。因子图是一种在概率论和机器学习中广泛使用的图模型,它能清晰地表示一个复杂的全局概率分布如何分解为多个更简单的局部函数(因子)的乘积。这一理论框架与 Extropic 的硬件架构完美契合。物理芯片本质上是由大量局部、可相互作用的模拟元件构成的。因子图理论允许一个大规模的计算问题(例如一个复杂的 EBM)被有效地分解,并映射到芯片上这些物理上局域化的元件。通过这种方式,Extropic 计划克服单个模拟核心的物理尺寸限制,从而能够运行那些远大于任何单一硬件模块的复杂程序。这个软件层是连接抽象算法世界与具体物理实现的桥梁,是整个全栈愿景中不可或缺的一环。
本章将提供一个必要的批判性视角,通过审视 Extropic 愿景中固有的挑战、公开验证的缺乏及其在逐渐形成的竞争格局中的位置,来评估其科学和商业上的可行性。
尽管 Extropic 的愿景引人入胜,但大量的批评意见指出,其宏大的宣称与可验证的进展之间存在显著差距。主要的担忧集中在以下几个方面:
这些问题共同构成了一个高风险的商业和技术轮廓。虽然热力学计算的底层物理原理是合理的,但将其工程化的执行风险是巨大的。而当前透明度的缺乏,使得外界无法对其技术进展进行独立的评估和验证。
在热力学计算这一新兴领域,Extropic 并非唯一的参与者。Normal Computing 的出现为我们提供了一个至关重要的比较基准。该公司同样致力于开发热力学硬件,但其采取的策略和对外沟通方式似乎更为稳健和透明。
这种差异表明,这个新兴领域可能正在经历一次早期的路线分化。一条路径(以 Extropic 为代表)由一个大胆的、哲学驱动的愿景引领,吸引了高风险偏好的资本,并采用了一种相对封闭的“隐形模式”进行研发。另一条路径(以 Normal Computing 为代表)则更为传统,追求渐进的、可验证的工程里程碑,并更开放地与科学界和技术社区互动。这两家公司代表了两种不同的创新模式。Extropic 的宏大叙事与韦尔东的 e/acc 哲学深度绑定,将技术发展视为一种文明使命,这吸引了认同其愿景的投资者。而 Normal Computing 的叙事则更像一个标准的深度科技初创公司,通过宣布流片这样的具体工程进展来建立其在技术社区的信誉。该领域的未来走向,可能取决于哪种模式能率先取得商业上的成功。Normal Computing 的存在,为评估 Extropic 的宏伟宣称提供了一个重要的现实基准。
特征 | Extropic AI (韦尔东) | Normal Computing (Sbahi, Coles) |
---|---|---|
核心哲学 | 驾驭非平衡态热力学;将人工智能与物理世界融合。 | 驾驭自然动态(涨落、耗散、随机性)以加速人工智能。 |
硬件路径 | 双轨并行:低温超导(约瑟夫森结)与室温 CMOS(晶体管)。 | 基于 CMOS 的物理专用集成电路(ASIC);“卡诺架构”。 |
关键算法/方法 | 在模拟电路中直接实现能量基模型(EBMs)。 | 晶格随机游走(LRW)采样;热力学矩阵求逆。 |
公开进展 | 已构建并内部测试了原型芯片;错过了“Alpha”发布窗口。 | CN101 芯片已宣布流片(2025 年 8 月);公开了 PCB 原型演示。 |
透明度 | 未发现公开专利或同行评审论文;主要依赖“精简白皮书”。 | 通过技术博客公开实验和架构细节;团队成员为已发表论文的科研人员。 |
公共叙事 | 愿景宏大,富有哲学色彩;与 e/acc 和扩展文明的理念紧密相连。 | 务实,以工程为中心;旨在解决人工智能的能耗问题和扩展定律。 |
韦尔东的个人哲学对 Extropic 的战略和文化产生了深远影响。他是“有效加速主义”(effective accelerationism, e/acc)运动的联合创始人之一,并经常以笔名 @BasedBeffJezos 在社交媒体上活动。e/acc 是一种技术乐观主义哲学,它主张将快速、不受约束的技术进步作为推动人类繁荣的首要伦理路径。
Extropic 的使命被明确地置于这一哲学框架之下。公司被描述为“热力学之神的管道”(a conduit for the thermodynamic god),其技术被视为加速文明进程、将人类扩展至星际的工具。这种强烈的意识形态色彩塑造了公司的文化、融资渠道和公众形象。一方面,它成功吸引了来自同一技术乐观主义圈子的投资者;另一方面,它也招致了“脱离现实”和“对人工智能话语体系有毒”的批评,并可能导致公司内部形成一个对外界批评缺乏免疫力的“回音室”。
本章将综合报告的全部发现,预测热力学计算的潜在影响,同时对韦尔东的工作和 Extropic 公司的前景提供一个平衡的最终评估。
如果热力学计算能够成功实现其承诺,它将从根本上改变人工智能发展的轨迹。通过提供比现有技术快几个数量级且能效更高的加速器,它有望解决目前威胁大型人工智能模型扩展的能源瓶颈问题。这将使许多目前在数字硬件上不可行的强大概率性人工智能算法成为可能,从而催生出更稳健、样本效率更高的人工智能系统,尤其是在数据稀疏的关键领域(如药物发现、材料科学等)。这代表了一次真正的范式转移,将计算从抽象的逻辑门操作,转变为对物理过程的直接驾驭和编程。
纪尧姆·韦尔东的工作代表了一种罕见且雄心勃勃的尝试,即从基本物理原理出发重新思考计算的本质。从他早期关于量子信息与能量相互作用的学术论文,到 Extropic 的全栈式热力学计算愿景,其思想发展轨迹既连贯又富有说服力。他准确地识别出了未来计算领域的一个关键瓶颈——能源消耗和数字缩放的物理极限。
然而,一个富有远见的想法并不等同于一个可行的产品。Extropic 的项目充满了巨大的风险。构建一个可扩展、可靠且易于编程的模拟计算机,其科学和工程挑战是巨大的。该公司在透明度上的缺失,以及其公共叙事对哲学愿景而非技术细节的依赖,造成了显著的信誉鸿沟。虽然韦尔东过去的学术工作为这一愿景提供了引人入胜的理论基础,但这并不能保证这个复杂的工程项目最终能够成功。
Extropic 的最终成败,将较少取决于其创始愿景的优雅程度,而更多地取决于其能否提供可被验证、可被基准测试的实际结果,这些结果必须能够经受住更广泛的科学和工程界的严格审视。在此之前,热力学计算仍将是一场高风险、高回报的赌注,而韦尔东则是这场赌局中最引人注目的先行者之一。