电子发烧友网综合报道 2026年1月,国际顶级学术期刊《自然·电子》刊发的一项研究成果,让全球半导体与算力领域为之瞩目——北京大学人工智能研究院陶耀宇研究员、集成电路学院杨玉超教授团队,在国际上首次实现后摩尔新器件异质集成的多物理域融合傅里叶变换系统。
这一全新计算架构将傅里叶变换计算速度从当前每秒约1300亿次提升至每秒约5000亿次,算力提升近4倍,能效提升超90倍,为新一代计算体系的发展开辟了全新路径。
针对这一行业难题,北京大学人工智能研究院陶耀宇研究员与集成电路学院杨玉超教授组成的科研团队,展开了长期技术攻关。团队瞄准在科学和工程领域应用极为广泛的“傅里叶变换”这一通用计算方式,创造性地提出了一种多物理域融合计算架构。
该架构的核心创新在于“异质集成”与“物理域融合”。团队将“易失性氧化钒器件”与“非易失性氧化钽/铪器件”这两种适合做频率转换载体的新器件进行了系统集成。其中,易失性氧化钒器件擅长频率生成调控,可完成实时旋转因子生成;非易失性氧化钽/铪器件则在存算一体方面表现突出,能实现原位存算,避免数据频繁搬移带来的效率损耗与功耗增加。在这种架构下,不同的计算任务可以在其最适合的物理域(如电流、电荷、光等)中进行,从而最大化硬件的物理性能。
“这就像为不同计算任务匹配了最适配的‘工作车间’。”论文第一作者、北京大学集成电路学院蔡磊博士形象地解释,该架构首次实现一套硬件支持电流域、电压域、频率域、时间域等多物理域融合计算,让复杂计算过程在新器件最适合的物理域中完成。
此外,该架构实现了高达99.2%的傅里叶变换精度,能效提升达96.98倍。这意味着,在处理声音、图像等复杂信号转换任务时,新架构不仅能“算得快”,还能“算得准”且“耗得少”。
这一技术突破的意义远不止于性能参数的提升。陶耀宇表示,新的计算框架成功解决了后摩尔新器件的“算子谱系扩展”难题,使其能够同时支持多种计算方式,真正让新器件在实际应用中“跑起来”。
该成果的落地应用,有望为人工智能基础模型、具身智能、自动驾驶、脑机接口、通信系统等前沿领域提供低延迟、低功耗的信号处理与计算支持。这不仅将加速新型器件在各大产业场景的落地应用,更标志着我国在新一代计算架构的研究上实现了突破,为在全球算力竞争中构建自主可控的技术体系奠定了坚实基础。
这一全新计算架构将傅里叶变换计算速度从当前每秒约1300亿次提升至每秒约5000亿次,算力提升近4倍,能效提升超90倍,为新一代计算体系的发展开辟了全新路径。
后摩尔时代的算力“天花板”与新器件的“尴尬”
经过近半个世纪的迭代,以晶体管微缩为核心的摩尔定律已进入瓶颈期,传统硅基芯片面临“微缩、功耗、存储”三堵难以逾越的高墙,算力增长陷入“以功耗换性能”的困局。在此背景下,以忆阻器、光电器件为代表的后摩尔新器件,凭借独特的物理赋能计算特性,被视为突破算力与能效困局的最大希望。然而,一个现实的难题横亘在行业面前:这些新器件虽在简单线性算子上表现优异,但支持的计算方式单一,无法适配实际应用中多样化的算子需求,始终难以跨越“从实验室到市场”的鸿沟。针对这一行业难题,北京大学人工智能研究院陶耀宇研究员与集成电路学院杨玉超教授组成的科研团队,展开了长期技术攻关。团队瞄准在科学和工程领域应用极为广泛的“傅里叶变换”这一通用计算方式,创造性地提出了一种多物理域融合计算架构。
该架构的核心创新在于“异质集成”与“物理域融合”。团队将“易失性氧化钒器件”与“非易失性氧化钽/铪器件”这两种适合做频率转换载体的新器件进行了系统集成。其中,易失性氧化钒器件擅长频率生成调控,可完成实时旋转因子生成;非易失性氧化钽/铪器件则在存算一体方面表现突出,能实现原位存算,避免数据频繁搬移带来的效率损耗与功耗增加。在这种架构下,不同的计算任务可以在其最适合的物理域(如电流、电荷、光等)中进行,从而最大化硬件的物理性能。
“这就像为不同计算任务匹配了最适配的‘工作车间’。”论文第一作者、北京大学集成电路学院蔡磊博士形象地解释,该架构首次实现一套硬件支持电流域、电压域、频率域、时间域等多物理域融合计算,让复杂计算过程在新器件最适合的物理域中完成。
从实验室到应用场景,破解前沿领域算力痛点
实验数据显示,这一全新的计算架构在性能上实现了显著飞跃。在保证计算精度的前提下,该架构将傅里叶变换的计算速度从当前每秒约1300亿次大幅提升至每秒约5000亿次,运算速度提升近4倍。同时,得益于多物理域的优化匹配,新架构在降低计算功耗、减少存储与互连资源消耗方面也表现出色。此外,该架构实现了高达99.2%的傅里叶变换精度,能效提升达96.98倍。这意味着,在处理声音、图像等复杂信号转换任务时,新架构不仅能“算得快”,还能“算得准”且“耗得少”。
这一技术突破的意义远不止于性能参数的提升。陶耀宇表示,新的计算框架成功解决了后摩尔新器件的“算子谱系扩展”难题,使其能够同时支持多种计算方式,真正让新器件在实际应用中“跑起来”。
该成果的落地应用,有望为人工智能基础模型、具身智能、自动驾驶、脑机接口、通信系统等前沿领域提供低延迟、低功耗的信号处理与计算支持。这不仅将加速新型器件在各大产业场景的落地应用,更标志着我国在新一代计算架构的研究上实现了突破,为在全球算力竞争中构建自主可控的技术体系奠定了坚实基础。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI芯片
+关注
关注
17文章
2165浏览量
36869
发布评论请先 登录
相关推荐
热点推荐
0.6V!1nm!北大团队刷新铁电晶体管世界纪录
电子发烧友网报道(文/黄山明)近日,北京大学 电子学院邱晨光-彭练矛团队创造性制备了迄今尺寸最小、功耗最低的铁电晶体管(FeFET),有望为AI芯片算
亚马逊发布新一代AI芯片Trainium3,性能提升4倍
Trainium 4的开发计划。亚马逊表示,这款芯片能够比英伟达市场领先的图形处理单元(GPU)更便宜、更高效地驱动AI模型背后的密集计算。 作为亚马逊首款3纳米工艺AI芯片,
MWC Doha 2025|美格智能全新发布60 Tops AI算力、支持Linux系统的SNM982高算力AI模组
QCS8550平台提升25%以上,在模组性能与开放性方面同步提升,现已进入全面量产阶段。全面提升:60Tops算力赋
国产AI芯片真能扛住“算力内卷”?海思昇腾的这波操作藏了多少细节?
最近行业都在说“算力是AI的命门”,但国产芯片真的能接住这波需求吗?
前阵子接触到海思昇腾910B,实测下来有点超出预期——7nm工艺下算
发表于 10-27 13:12
【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升算力还是智力
持续发展体现在:
1、收益递减
大模型的基础的需要极大的算力,这首先源于昂贵的高性能AI芯片,然后是宝贵的电力、水等与环境相关的资源。
收益递减体现在:
①模型大小
②训练数据量
③训
发表于 09-14 14:04
【「AI芯片:科技探索与AGI愿景」阅读体验】+内容总览
是展望未来的AGI芯片,并探讨相关的发展和伦理话题。
各章的目录名称如下:
第1章 大模型浪潮下,AI芯片的需求与挑战免费
第2章 实现深度学习AI
发表于 09-05 15:10
AI 芯片浪潮下,职场晋升新契机?
、新架构不断涌现。能够在工作中提出创新性的解决方案,推动 AI 芯片性能、功耗、成本等关键指标的优化,将极大提升在职称评审中的竞争力。例如,在芯片
发表于 08-19 08:58
睿海光电领航AI光模块:超快交付与全场景兼容赋能智算时代——以创新实力助力全球客户构建高效算力底座
一、AI算力革命催生光模块新需求,睿海光电以技术优势抢占制高点
人工智能、超大规模数据中心和云计算的高速发展,对光模块的传输效率、兼容性及交付周期提出更高要求。作为全球AI光模块领域的
发表于 08-13 19:03
性能飞跃 慧视8核+32T算力平台让目标检测帧率提升20倍
RK3588平台6.0TOPS的算力在检测识别领域已经能满足绝大多数场景的要求,但在少数应用场景中,需要更高算力,以实现更快、更稳定、更精准
能效比和算力提升的衡量方法
/h·W表示。 影响因素及优化方向 技术升级:采用变频技术、高效电机等可提升能效比,例如变频空调通过动态调节功率减少能耗。 环境因素:温度、湿度等外部条件会影响实际能
北大团队最新研究:AI芯片算力提升数倍,能效提升超90倍
评论