电子发烧友网报道(文/吴子鹏)当大多数人还将类脑计算与图像识别、语音交互等AI应用绑定在一起时,美国桑迪亚国家实验室的一项最新研究,正彻底改写这一技术的边界。日前,科技媒体Phys.org报道称,该实验室在《自然-机器智能》发表的成果显示,一种名为Neurofem的新型算法,成功让神经形态硬件具备了求解偏微分方程的能力。
值得注意的是,求解偏微分方程被视为模拟物理世界“数学基石”的复杂任务,长期以来被认为是类脑计算的“禁区”。因此,Neurofem算法的问世不仅打破了业界对类脑计算的认知桎梏,更在摩尔定律逼近极限、算力需求激增的当下,为科学计算提供了一条低能耗的全新路径。神经形态计算这一被《自然》综述称为“处于发展关键期”的领域,正迎来突破前夜的关键信号。
传统有限元方法(FEM)采用“化整为零”的计算策略:将复杂物体拆解为无数个小单元,通过计算每个单元的受力情况推演整体行为。这种方法虽有效,但需执行大量矩阵运算,计算成本高昂。同时,科学计算领域的能耗问题日益突出——传统CPU和GPU架构处理这类复杂方程时,往往需消耗兆瓦级电力,计算时间长达数小时甚至数天。这一瓶颈严重限制了科学研究的推进速度与实时仿真应用的发展。面对这一挑战,桑迪亚国家实验室的研究团队将目光投向了自然界最高效的计算系统——人脑。
此前,业界普遍认为,类脑计算这类基于脉冲神经网络的系统,仅擅长图像识别、语音唤醒等模式识别任务,难以胜任科学计算所需的严谨数学推理。这种认知差异的根源,在于两者计算逻辑的本质不同:传统计算机以二进制编码和矩阵运算为核心,追求精度与速度;而类脑计算通过模拟神经元的稀疏连接与事件驱动机制,追求高效与节能。
“人脑其实是最强大的‘节能计算机’。”桑迪亚国家实验室研究员Aimone的观点,恰恰点出了此次突破的核心灵感。神经形态计算代表了计算架构在晶体管层面的根本性重构思路,其灵感源于生物神经网络的形式与功能。与遵循预定指令的传统计算不同,神经形态芯片通过模拟大脑中神经元的脉冲通信方式处理信息。
桑迪亚国家实验室选择英特尔Loihi 2作为基础硬件平台。官网信息显示,英特尔Loihi 2性能较前代最高提升10倍,其在每个神经形态计算核心中植入可编程流水线,可支持算术运算、比较运算及程序控制流指令。相较于初代Loihi,Loihi 2的可编程特性大幅拓展了可支持的神经元模型范围,且未牺牲任何性能与能效表现,从而解锁了更丰富的应用场景。
Neurofem的核心创新,在于搭建起类脑硬件与科学计算之间的“桥梁”——将工程师常用的有限元方法(FEM)成功映射到英特尔Loihi 2神经拟态芯片上。有限元方法的本质是“化整为零”:将复杂物体分割为无数个相互连接的微小单元,通过计算每个单元的受力情况,最终推演整体物理状态。
而Neurofem的巧思,正是将这一数学过程与类脑硬件的架构完美适配。研究人员将FEM产生的稀疏线性系统等价转换为一个动力系统。在该系统中,网格的每一个节点对应芯片上的一组神经元,而线性方程组中的系数矩阵A直接决定神经元之间的连接权重。计算过程中,神经元通过发放脉冲进行通信,利用脉冲的相对时序编码数值,网络演化的稳态即为方程的解。为解决稳态误差问题,研究团队在神经元模型中引入比例-积分控制器动态机制。这一创新设计确保了脉冲网络的读数能够精确收敛到真实数学解,满足了科学计算对高精度的严格要求。
在基于32颗英特尔Loihi 2芯片的Oheo Gulch系统上的测试结果显示,Neurofem在保持高精度的同时,能效显著提升。在泊松方程测试中,Neurofem的解与传统SciPy求解器的结果高度一致,相对误差仅处于千分之几的范围。能效表现尤为突出:处理瞬态问题时,Neurofem的能耗显著低于传统CPU上的GMRES和CG求解器,功耗仅为传统CPU/GPU方案的1/5。这表明,神经形态计算在需反复求解边界条件变化问题的场景中,具有独特优势。
但业界更关注这一突破背后的行业信号:类脑计算正从AI领域向科学计算渗透,其应用边界正在快速扩张,而硬件层面的进展正为这种扩张提供核心动力。
除算法突破外,类脑芯片本身也在积极迭代以提升计算性能。例如,灵汐科技于2025年2月10日发布全球首款5nm神经拟态芯片NeuMatrix NM5。该芯片采用台积电N5P工艺,集成1280亿晶体管,通过三维SoIC封装集成32个神经核心和4个异构计算单元,片内带宽突破102.4TB/s,延迟低至0.3ns。实测数据显示,NeuMatrix NM5的能效是英伟达H100的3.2倍,脉冲神经训练任务的推理能力较H100提升470%。
不过,新技术从实验室走向商业落地仍有漫长的路要走,Neurofem仍需跨越算法优化、硬件升级、生态构建等多重关卡。
值得注意的是,求解偏微分方程被视为模拟物理世界“数学基石”的复杂任务,长期以来被认为是类脑计算的“禁区”。因此,Neurofem算法的问世不仅打破了业界对类脑计算的认知桎梏,更在摩尔定律逼近极限、算力需求激增的当下,为科学计算提供了一条低能耗的全新路径。神经形态计算这一被《自然》综述称为“处于发展关键期”的领域,正迎来突破前夜的关键信号。
传统科学计算的能耗困局与Neurofem的破局之道
偏微分方程是现代科学和工程学的基石,从模拟飞机气动布局到计算建筑物结构强度,应用场景无处不在。然而,随着模型精度的提升,求解这些偏微分方程所需的稀疏线性方程组,对传统CPU和GPU的内存带宽与能耗提出了巨大挑战。传统有限元方法(FEM)采用“化整为零”的计算策略:将复杂物体拆解为无数个小单元,通过计算每个单元的受力情况推演整体行为。这种方法虽有效,但需执行大量矩阵运算,计算成本高昂。同时,科学计算领域的能耗问题日益突出——传统CPU和GPU架构处理这类复杂方程时,往往需消耗兆瓦级电力,计算时间长达数小时甚至数天。这一瓶颈严重限制了科学研究的推进速度与实时仿真应用的发展。面对这一挑战,桑迪亚国家实验室的研究团队将目光投向了自然界最高效的计算系统——人脑。
此前,业界普遍认为,类脑计算这类基于脉冲神经网络的系统,仅擅长图像识别、语音唤醒等模式识别任务,难以胜任科学计算所需的严谨数学推理。这种认知差异的根源,在于两者计算逻辑的本质不同:传统计算机以二进制编码和矩阵运算为核心,追求精度与速度;而类脑计算通过模拟神经元的稀疏连接与事件驱动机制,追求高效与节能。
“人脑其实是最强大的‘节能计算机’。”桑迪亚国家实验室研究员Aimone的观点,恰恰点出了此次突破的核心灵感。神经形态计算代表了计算架构在晶体管层面的根本性重构思路,其灵感源于生物神经网络的形式与功能。与遵循预定指令的传统计算不同,神经形态芯片通过模拟大脑中神经元的脉冲通信方式处理信息。
桑迪亚国家实验室选择英特尔Loihi 2作为基础硬件平台。官网信息显示,英特尔Loihi 2性能较前代最高提升10倍,其在每个神经形态计算核心中植入可编程流水线,可支持算术运算、比较运算及程序控制流指令。相较于初代Loihi,Loihi 2的可编程特性大幅拓展了可支持的神经元模型范围,且未牺牲任何性能与能效表现,从而解锁了更丰富的应用场景。
Neurofem的核心创新,在于搭建起类脑硬件与科学计算之间的“桥梁”——将工程师常用的有限元方法(FEM)成功映射到英特尔Loihi 2神经拟态芯片上。有限元方法的本质是“化整为零”:将复杂物体分割为无数个相互连接的微小单元,通过计算每个单元的受力情况,最终推演整体物理状态。
而Neurofem的巧思,正是将这一数学过程与类脑硬件的架构完美适配。研究人员将FEM产生的稀疏线性系统等价转换为一个动力系统。在该系统中,网格的每一个节点对应芯片上的一组神经元,而线性方程组中的系数矩阵A直接决定神经元之间的连接权重。计算过程中,神经元通过发放脉冲进行通信,利用脉冲的相对时序编码数值,网络演化的稳态即为方程的解。为解决稳态误差问题,研究团队在神经元模型中引入比例-积分控制器动态机制。这一创新设计确保了脉冲网络的读数能够精确收敛到真实数学解,满足了科学计算对高精度的严格要求。
在基于32颗英特尔Loihi 2芯片的Oheo Gulch系统上的测试结果显示,Neurofem在保持高精度的同时,能效显著提升。在泊松方程测试中,Neurofem的解与传统SciPy求解器的结果高度一致,相对误差仅处于千分之几的范围。能效表现尤为突出:处理瞬态问题时,Neurofem的能耗显著低于传统CPU上的GMRES和CG求解器,功耗仅为传统CPU/GPU方案的1/5。这表明,神经形态计算在需反复求解边界条件变化问题的场景中,具有独特优势。
当前技术边界与产业界的启迪
尽管取得突破性进展,Neurofem算法仍存在一定局限性。该算法仅在处理“稀疏矩阵”方程组时能保持高效,因此尚无法直接适用于所有类型的方程求解;精度方面,由于Loihi 2是纯数字芯片且依赖定点数运算,将浮点物理模型转换为定点数时会引入量化误差——尤其当网格节点数极少(少于200个节点)时,这种量化误差可能导致计算不收敛;而对于非稀疏矩阵方程,其优势会大幅削弱,无法直接套用。这意味着,Neurofem并非“万能解法”,未来仍需针对不同类型的数学方程优化算法设计。但业界更关注这一突破背后的行业信号:类脑计算正从AI领域向科学计算渗透,其应用边界正在快速扩张,而硬件层面的进展正为这种扩张提供核心动力。
除算法突破外,类脑芯片本身也在积极迭代以提升计算性能。例如,灵汐科技于2025年2月10日发布全球首款5nm神经拟态芯片NeuMatrix NM5。该芯片采用台积电N5P工艺,集成1280亿晶体管,通过三维SoIC封装集成32个神经核心和4个异构计算单元,片内带宽突破102.4TB/s,延迟低至0.3ns。实测数据显示,NeuMatrix NM5的能效是英伟达H100的3.2倍,脉冲神经训练任务的推理能力较H100提升470%。
写在最后
有行业专家指出,Neurofem的意义堪比深度学习领域的AlexNet时刻——后者通过GPU实现卷积神经网络的规模化应用,引发深度学习革命;而Neurofem通过类脑硬件实现科学计算的高效化,有望开启神经形态计算的“规模化浪潮”。随着摩尔定律逐渐逼近物理极限,类脑计算的低能耗优势将愈发凸显,而Neurofem的突破,正是这一变革的重要注脚。不过,新技术从实验室走向商业落地仍有漫长的路要走,Neurofem仍需跨越算法优化、硬件升级、生态构建等多重关卡。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
发布评论请先 登录
相关推荐
热点推荐
泰克专家探讨类脑计算背后的器件逻辑与现实挑战
当AI算力竞赛愈演愈烈,一条源于生物大脑的技术路径,正在悄然重塑半导体器件与系统架构。近日,泰克专家在展台与类脑器件领域资深研究者万老师展开深度交流,围绕“器件如何赋能系统、打通从生物
北大团队最新研究:AI芯片算力提升数倍,能效提升超90倍
首次实现后摩尔新器件异质集成的多物理域融合傅里叶变换系统。 这一全新计算架构将傅里叶变换计算速度从当前每秒约1300亿次提升至每秒约5000亿次,算力提升近4
亚马逊发布新一代AI芯片Trainium3,性能提升4倍
Trainium 4的开发计划。亚马逊表示,这款芯片能够比英伟达市场领先的图形处理单元(GPU)更便宜、更高效地驱动AI模型背后的密集计算。 作为亚马逊首款3纳米工艺AI
今日看点:谷歌芯片实现量子计算比经典超算快13000倍;NFC 技术突破:读取距离从 5 毫米提升至 20 毫米
谷歌芯片实现量子计算比经典超算快13000倍 近日,谷歌在《自然》杂志披露与Willow芯片相关的量子计算
发表于 10-23 10:20
•1739次阅读
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI芯片到AGI芯片
芯片
③数模混合电路的突破
④可重构性架构
⑤情感计算单元
⑥决策与行动单元
⑦多种神经网络与多种学习算法
2)AGI芯片的新创公司
3、A
发表于 09-18 15:31
【「AI芯片:科技探索与AGI愿景」阅读体验】+神经形态计算、类脑芯片
是 AI芯片发展的重要方向。如果利用超导约瑟夫森结(JJ)来模拟与实时突触电路相连的神经元,神经网络运行的速度要比目前的数字或模拟技术提升几个数量级。
1、超低温类
发表于 09-17 16:43
【「AI芯片:科技探索与AGI愿景」阅读体验】+可期之变:从AI硬件到AI湿件
保持停滞的情况下,依照目前计算机的能耗效率,至少还需要30年的努力才接近其水准,见图1所示。
图1 大脑与计算机的能量效率对比
图2 类脑芯片
发表于 09-06 19:12
AI 芯片浪潮下,职场晋升新契机?
芯片设计为例,从最初的架构选型,到算法适配、性能优化,每个环节都考验着工程师的专业素养。在设计一款面向智能安防领域的 AI 芯片时,需要深入研究安防场景下图像识别
发表于 08-19 08:58
【书籍评测活动NO.64】AI芯片,从过去走向未来:《AI芯片:科技探索与AGI愿景》
发现从 “偶然突破” 走向 “可控产出”。
系统创新
这部分介绍了云端神经形态计算架构、超导与非超导低温类脑芯片、自旋波
发表于 07-28 13:54
能效提升3倍!异构计算架构让AI跑得更快更省电
电子发烧友网报道(文/李弯弯)异构计算架构通过集成多种不同类型的处理单元(如CPU、GPU、NPU、FPGA、DSP等),针对不同计算任务的特点进行分工协作,从而在性能、能效和灵活性之
类脑计算突破:Neurofem算法让AI芯片秒变数学天才,能效提升5倍
评论