近年来,AI 通过聊天机器人等工具深刻改变了我们的生活,并在医疗、气象和材料设计等领域落地应用。这一进步主要依赖 GPU 的算力和数据规模的增长。但随着模型规模不断扩大,传统数字 GPU 的局限性愈发明显。要突破这一瓶颈,AI 需要在保证精度和吞吐量的同时,降低训练与推理的延迟和能耗。
一个备受关注的研究方向是“物理神经网络”(Physical Neural Networks,PNNs),它利用光、电、振动等物理系统进行计算,有望摆脱对传统数字芯片的依赖,实现更高效、更大规模的 AI 训练与推理。
日前,来自洛桑联邦理工学院的研究团队及其合作者,在权威科学期刊
Nature上发表了一篇最新综述,从训练角度全面回顾了物理神经网络的发展,并以“从零开始”的视角探索其普适性方法。
论文链接:
https://www.nature.com/articles/s41586-025-09384-2
研究团队表示,“只要有足够的研究投入”,未来的物理神经网络就有可能改变人工智能(AI)计算的方式。
更快、更节能、更实用
物理神经网络是一类利用模拟物理系统进行计算的类神经网络,能够比传统计算硬件更直接、更灵活、更随机地利用模拟物理计算,可能会改变 AI 系统的可实现性与实用性。目前分为两类:
同构型物理神经网络(Isomorphic PNNs):通过设计硬件,实现与预定义数学变换的严格操作级同构来执行数学变换。一个典型实例是电子交叉阵列,其设计目的是直接执行矩阵-向量乘法,阵列中每个交叉结点的电导值,与待乘矩阵中的一个元素一一对应。
破缺同构型物理神经网络(broken-isomorphism PNNs):直接训练硬件的物理变换,这些物理变换应与传统神经网络中的数学操作大致相似,但无需以精确的一一对应方式关联。
图|物理神经网络
尽管物理神经网络还处于实验室阶段,但已经显现出较大潜力。它能更直接地利用物理规律,理论上比传统硬件更节能、速度更快,最终可应用于数据中心和边缘计算场景,既能驱动大型生成式模型运行,又能辅助本地推理或智能传感器。
无论哪种应用场景,都需要对神经网络进行训练,但具体约束条件会因应用领域而异。主要训练技术包括:
1.计算机模拟训练(In silico training)
训练 PNNs 最直接的方法是在计算机仿真环境中对其进行训练。该方法采用 PNNs 的数字孪生模型,从而实现权重梯度计算和反向传播运算。数字孪生通常通过两种方式构建:一是直接对 PNNs 进行特征描述,二是采用数据驱动法——即获取 PNNs 的输入-输出样本数据,并将数字孪生模型拟合到这些数据上。训练时在数字世界算梯度、更参数,再把结果套到物理硬件上。
2.物理感知反向传播(PAT)
物理感知训练法(PAT)强化了一个核心理念:只要对物理系统建立近似预测模型,就能可靠实现梯度提取。其核心机制是物理系统执行前向传播,而通过微分数字模型来完成反向传播,关键在于前向与反向传播的非匹配性。与多数训练算法相似,仅需数字模型生成的估计梯度与真实梯度保持近似对齐即可。相较于要求完美数字模型的严苛条件,这种宽松标准使 PAT 在多数场景下可直接替代计算机模拟训练,同时保留原位训练算法的诸多优势。
这种方法已经在光学、机械、电子系统上验证过。既能减少物理噪声的影响,又能保持反向传播的精准度。缺点在于物理参数更新慢时,训练会变缓。
3.反馈对齐(FA/DFA)
在物理神经网络中,权重直接体现在硬件组件中而非传统存储器中。与数字系统中矩阵转置是简单的计算操作不同,在物理神经网络中这种转置操作并不天然存在。提取或计算转置通常需要更多硬件模块或物理结构的重新配置来实现权重转置。
反馈对齐(FA)和直接反馈对齐(DFA)这两种方法允许在不将前向传播权重转移到反向传播的情况下训练物理神经网络,从而提高效率,但通常以牺牲性能为代价,并且仍需依赖激活函数的导数和各层的激活状态,存在精度衰减的问题。FA 的核心优势在于采用固定随机反馈权重,通过逐层传递误差信号训练。DFA 则通过使用固定随机反馈权重矩阵,将误差信号同步广播至所有层,从而实现了对深层网络的高效训练。
4.物理局部学习(PhyLL)
PhyLL 通过两次正负样本数据传递间的余弦相似度进行学习,省去了物理实现中颇具挑战性的层归一化操作。该方法在声学、微波和光学三大物理神经网络领域完成实验验证,实现了监督与无监督训练模式,且无需掌握非线性物理层的详细特性参数。
5.零阶梯度和无梯度训练
这类算法可分为两大类:第一类是微扰方法,通过在不同坐标点(权重值)采样目标函数(即损失函数)来估算梯度,随后利用传统梯度下降法优化权重;第二类无梯度方法则采用基于种群的采样策略。并非直接追求梯度近似,而是通过迭代方式生成更优的候选解。遗传算法、进化策略和群体型算法遵循启发式标准,强化学习则采用迭代优化的候选生成策略。
6.通过物理动力学进行梯度下降训练
梯度下降优化算法是当前最先进机器学习系统的核心技术。研究人员提出了四种无需数字孪生即可实现梯度下降的物理训练方法。
通过线性倒数物理系统实现矩阵-向量乘法运算:目标是将传统的神经网络和反向传播映射到模拟硬件上。核心思路在于,前向传播(推理)和反向传播(训练)所需的矩阵-向量乘法运算,可以通过线性倒数物理系统实现。
基于线性波散射的非线性计算:该方法将输入数据编码为不可触碰的物理参数,而其他参数则在训练过程中进行优化,最终通过神经形态系统输出散射响应。梯度更新直接基于输出谐振腔与更新点之间的传输信号计算得出。
平衡传播(EP):此方法适用于能量型系统,输入作为边界条件提供,而物理规律则驱动系统达到能量最小值(即平衡状态)以产生响应(输出)。在 EP 的原始公式中,权重通过局部对比规则更新,该规则基于比较对应不同边界条件的两个平衡态。相较于其他对比学习算法,EP 的主要优势在于能够计算任意成本函数的权重度。
哈密顿回溯反向传播(HEB):在提取权重梯度的基础上,直接利用物理动力学原理生成正确的权重更新,无需任何反馈机制。训练过程中,前向传播阶段中,信号波与可训练参数波共同穿过非线性介质并发生相互作用。误差信号叠加在信号波上,通过时间反转操作使两波重新穿过介质。经过反向传播过程后,可训练参数波会自动朝成本函数梯度方向进行更新。
图|物理神经网络的训练方法。各子图分别展示不同方法的计算需求与学习特性,通过对比三种核心指标:(1)在成本函数上执行梯度下降的能力;(2)所需的数字运算量;(3)展示了大规模数据集性能。 训练好的物理系统用浅灰色表示,固定的物理系统用深灰色表示。前向和后向传递分别用绿色和红色箭头表示。
商业可行性如何?
大型 AI 模型在物理尺寸上确实非常庞大,但这并不意味着物理神经网络毫无应用前景。
事实上,对于这种规模的计算,任何硬件设备都不可避免地需要较大的物理空间。这或许揭示了未来大规模物理神经网络 AI 系统最重要的扩展性考量:若物理神经网络硬件设计得当,其底层物理特性可能使其展现出与数字电子设备不同的能量扩展特性。
这意味着,当模型规模足够大时,物理神经网络的实现方案与数字系统相比,模拟硬件可能具有更高的效率优势,尽管其存在诸多开销成本。
图|模拟大型模型
需要强调的是,算力的拓展并非只依赖硬件升级。Transformers 架构之所以成为当下主流,不仅因其算法突破,更在于与可扩展硬件形成了协同效应。展望超大规模物理神经网络的发展,或将受限于对现有算法框架的固守。未来必须构建软硬件协同的新型组合方案。
考虑到基础设施的路径依赖,以及高效数字大模型的快速进展,若要具备商业可行性,物理神经网络的能效必须较数字电子设备高出数千倍乃至数百万倍。要实现这一目标,需要设计能够整体应对规模挑战的物理计算机,并以硬件与软件的协同优化为核心,将高效挖掘物理计算能力作为首要目标。
未来挑战
除训练问题外,物理神经网络还面临一些需深入研究的突出挑战:
物理神经网络面临的一个严峻挑战是计算过程中的噪声及其累积效应。噪声来源包括内部随机过程、制造缺陷以及参数漂移等。尽管神经网络计算对噪声的容忍度高于传统计算,但当多种噪声共存时,如何维持计算精度成为实现实际应用的关键瓶颈。此外,为了最小化功耗,物理神经网络常需在接近内部噪声量级的条件下运行,这进一步加剧了精度保持的难度。
另一大挑战是现代物理神经网络与模拟物理硬件的适配问题。当前大多数架构尚未针对模拟物理硬件擅长的自然运算进行优化。虽然破缺同构型物理神经网络为利用物理系统的原生变换进行机器学习提供了途径,但研究者仍需通过逐例耗时评估,才能判断特定硬件的变换是否适合神经网络计算。
此外,神经形态与物理形态的平衡是物理神经网络面临的核心挑战。针对特定硬件——如互补金属氧化物半导体(CMOS)、电子或光子物理神经网络——的优化设计与训练算法,其关键特性可能与人脑存在显著差异。如何在借鉴神经形态的启发同时,充分契合实际硬件的物理特性,是解决两者矛盾的关键所在。
在这项研究中,研究团队主要关注大型模型的推理问题,这是物理神经网络最实际、最有潜力的应用方向。也就是说,利用物理系统驱动的神经网络,不仅在能耗上可能比传统方法更有优势,还可能在计算规模和速度上取得进一步提升。虽然物理神经网络多在模拟电子或光子系统中研究,但它们最大的亮点在于平台几乎不受限制:只要物理系统可重构,都可以用来搭建物理神经网络。
从应用来看,物理神经网络面临的挑战不是找到唯一“最好”的训练方法,而是针对不同场景选出最合适的方案,并理解各种方法之间的取舍。未来的突破,很可能来自于开发既通用、高效,又鲁棒的训练方法,让物理神经网络真正走进实际应用场景。
整理:小瑜
如需转载或投稿,请直接在公众号内留言
智谱上线 Glm Coding Plan
20 元包月,「1/7 价格、3 倍用量」
畅享 Claude Code 编码体验
开发者用了都说好
欢迎体验~