0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA驱动的现代超级计算机如何突破速度极限并推动科学发展

NVIDIA英伟达 来源: NVIDIA英伟达 2025-06-26 19:39 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

现代高性能计算不仅使得更快的计算成为可能,它正驱动着 AI 系统解锁更多领域的科学突破。

高性能计算经历了多次迭代,每一次都源于对技术的创造性再利用。例如,早期的超级计算机使用现成的组件制造。后来,研究人员用个人电脑构建了强大的集群,甚至改造游戏显卡,把它们用于科学研究。

当今的高性能计算系统专为高速计算而设计,其中许多都采用了 NVIDIA 加速计算技术。在 ISC 2025 大会上揭晓的最新全球最快超级计算机 TOP500 榜单显示,NVIDIA 为该榜单中 77% 的系统提供动力。

与此同时,像 Tensor Core 这样的创新功能为矩阵乘法等常见运算提供了更快的计算能力,而混合精度等技术的普及则大幅提升了性能和能效,推动了气候科学和医学等领域的飞跃式发展。

NVIDIA 为 TOP500 中名列前茅的系统提供动力

NVIDIA 在超算领域继续处于领先地位,为最新 TOP500 榜单中的 381 个系统提供动力,包括新进跻身前十的于利希超算中心的 JUPITER 超级计算机(排名第 4)。

TOP500 前 100 名系统中,目前有 83 个采用了加速计算,仅 17 个只使用了 CPU

此外,在 Green500 全球最节能 FP64 超级计算机榜单上,前两名均采用了 NVIDIA GH200 Grace Hopper 超级芯片,前十名中有九个系统均由 NVIDIA 加速。

Tensor Core 在科学领域的应用

AI 性能的提升不仅源于浮点运算量的增加,也越来越多地根植于硬件与软件的融合,例如对于 Tensor Core 的使用。

Tensor Core 是 NVIDIA GPU 内的先进组件,专为加速矩阵运算(AI 和深度学习的核心计算)而设计。通过更高效地处理复杂计算,Tensor Core 加速了模型训练和推理等过程。

Tensor Core 加速了常见的矩阵运算,尤其是当组织转向 FP8 等更低精度进行模型训练时。随着精度每降低一级,吞吐量就会提高近一倍,同时还能保持准确。目前,只有模拟工作负载中的某些运算可以利用 Tensor Core。这些运算通常占总运行时间的一小部分,而且很少对整体性能产生重大影响。

随着 GPU 上越来越多的物理空间被用于为 AI 构建的低精度 Tensor Core,高性能计算社区迎来了把这些硬件重新用于推进科学发现的机会。

为此,NVIDIA 正投资开发新方法,以便将 Tensor Core 用于更广泛的科学模拟相关场景。

RIKEN 研究所计算科学中心的 Yuki Uchino 和芝浦工业大学教授 Katsuhisa Ozaki 发表了一篇论文,其中展示了如何利用 Tensor Core 中的整数矩阵乘法加速器和一种名为 Ozaki scheme 的算法,使 GPU 中的整数单元能够实现包括 FP64 在内的任意精度。

受此方案启发,NVIDIA 正在开发相关库,以利用更多 GPU Tensor Core 来加速高精度张量和矩阵计算,聚焦于提升准确度、性能和能效。

使用这些库已展现出一些惊人的优势:在一个硅模拟中,把大约 1000 个原子暴露在紫外线下,使用这些库的速度比使用 FP64 硬件快 1.8 倍,而二者输出相同结果,这节省了时间和能源。

1a8d3554-527b-11f0-b715-92fbcf53809c.png

图 1. 使用原生 FP64 硅和仿真技术对 998 个硅原子

进行 BerkeleyGW 模拟的性能比较

借助这些新的库,BerkeleyGW 等常见的高性能计算模拟将很快能够利用低精度 Tensor Core,实现性能和能效的飞跃。

AI 超级计算推动科学进步

尽管 TOP500 榜单凸显了当今超级计算机非凡的高精度运算速度,但并未体现出它们在通过混合精度和 AI 推动科学发现方面的巨大影响力。

去年,诺贝尔化学奖和物理学奖被授予使用 AI 的科研人员,包括 Demis Hassabis 和 John Jumper(因在谷歌 DeepMind 的蛋白质结构预测模型 AlphaFold 上的卓越工作而获奖),以及多伦多大学名誉教授 Geoff Hinton 和普林斯顿大学名誉教授 John Hopfield(因推进神经网络架构而获奖)。

高性能计算领域的最高荣誉“戈登·贝尔奖”授予了 KAUST 的 David Keyes 团队,表彰他们使用混合精度方法来模拟庞大的 ERA5 气候数据集。该数据集提供了过去 80 年中每小时的大气、陆地和海浪变量估计值,包含从地表到 80 公里高度的 137 个海拔层。

混合精度是一种结合了多种浮点精度格式的技术。使用较低精度的数据类型可提升性能和能效,让应用程序能够使用更少的资源来实现更高的性能。

随着科学家构建新的 AI 模型以加速科学工作流,混合精度在科学领域的应用日益普及。

在英国,布里斯托大学的 Isambard-AI 系统(由 NVIDIA Grace Hopper 提供动力)使用混合精度来训练 Nightingale 等模型。

Nightingale 是用于医疗和生物医学研究的多模态基础模型,集成了影像、心脏病学和电子健康记录。与医疗领域的其它大语言模型不同,Nightingale 不仅使用基于文本的推理,还利用影像模式和标准诊断技术,结合海量患者数据来提供医学见解。Nightingale 的目标是成为其它医疗应用软件的基础,包括医生办公助手和远程医疗分诊系统。

通过使用混合精度,Isambard-AI 实现了训练 Nightingale 等多模态大语言模型所需的大规模和准确性,而无需为训练或推理配置过多的硬件。

迈向高性能计算的下一次迭代

加速计算、先进的张量技术和混合精度方法的结合,正在改变计算科学,也展示了 AI 驱动更多突破的潜力。

随着 JUPITER 等系统入选 TOP500,越来越多的工作借助 AI 来用于科学研究和创新,如将 Isambard-AI 超级计算机用于科学研究及通过 Ozaki 仿真方法所带来的诸多创新,这些都推动着 Tensor Core 处理高精度计算的性能不断提升,一个新时代正在到来。

从某些指标来看,超级计算机将继续提速,但仅有速度是不够的。要找到破解重要科学难题的新见解,需要依赖智能、灵活的方法,以在不牺牲科学严谨性的前提下加速科学发现,从而满足科学和高性能计算社区乃至全球的需求。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109117
  • 超级计算机
    +关注

    关注

    2

    文章

    479

    浏览量

    43162
  • 英伟达
    +关注

    关注

    23

    文章

    4044

    浏览量

    97709
  • 高性能计算
    +关注

    关注

    0

    文章

    96

    浏览量

    13762

原文标题:NVIDIA 驱动的现代超级计算机如何突破速度极限并推动科学发展

文章出处:【微信号:NVIDIA_China,微信公众号:NVIDIA英伟达】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    使用NVIDIA技术驱动超级计算机助力开放科学研究

    五个备受瞩目的 HPC 奖决赛入围项目凭借 Alps、JUPITER 和 Perlmutter 超级计算机的支持在气候建模、流体模拟等领域取得了重大突破
    的头像 发表于 11-25 11:17 457次阅读

    NVIDIA技术推动化学和材料科学发展

    NVIDIA Holoscan 推动实时纳米成像技术取得突破性进展,NVIDIA ALCHEMI 促进先进材料和冷却技术的发现。
    的头像 发表于 11-25 10:45 427次阅读

    NVIDIA AI助力科学研究领域持续突破

    随着 AI 技术的广泛应用,AI 正在成为科学研究的引擎。NVIDIA 作为重要的技术推手,持续驱动着 AI 系统解锁更多领域的科学突破
    的头像 发表于 08-05 16:30 966次阅读

    NVIDIA助力AI超级计算机Isambard-AI投入使用

    英国布里斯托大学的超级计算机 Isambard-AI 采用 NVIDIA Grace Hopper 超级芯片,其 AI 算力达到了 21 ExaFLOPS,不仅是英国最快的系统,同时也
    的头像 发表于 07-28 15:07 924次阅读

    Blue Lion超级计算机将在NVIDIA Vera Rubin上运行

    德国莱布尼茨超算中心(LRZ)将迎来全新超级计算机 Blue Lion,其算力比该中心现有的 SuperMUC-NG 高性能计算机提升了约 30 倍。这台新的超级
    的头像 发表于 06-12 15:39 841次阅读

    NVIDIA技术赋能欧洲最快超级计算机JUPITER

    NVIDIA 宣布,搭载 NVIDIA Grace Hopper 平台的 JUPITER 超级计算机成为欧洲最快超级
    的头像 发表于 06-12 15:33 1058次阅读

    NVIDIA助力全球最大量子研究超级计算机

    NVIDIA 宣布将开设量子-AI 技术商业应用全球研发中心(G-QuAT),该中心部署了全球最大量子计算研究专用超级计算机 ABCI-Q。
    的头像 发表于 05-22 09:44 689次阅读

    NVIDIA GTC2025 亮点 NVIDIA推出 DGX Spark个人AI计算机

    台式超级计算机NVIDIA Grace Blackwell 驱动,为开发者、研究人员和数据科学家提供加速 AI 功能;系统由头部
    的头像 发表于 03-20 18:59 1285次阅读
    <b class='flag-5'>NVIDIA</b> GTC2025 亮点  <b class='flag-5'>NVIDIA</b>推出 DGX Spark个人AI<b class='flag-5'>计算机</b>

    NVIDIA 宣布推出 DGX Spark 个人 AI 计算机

    台式超级计算机NVIDIA Grace Blackwell 驱动,为开发者、研究人员和数据科学家提供加速 AI 功能;系统由头部
    发表于 03-19 09:59 506次阅读
       <b class='flag-5'>NVIDIA</b> 宣布推出 DGX Spark 个人 AI <b class='flag-5'>计算机</b>

    超级计算与 HPC 之间的界限日趋模糊

    本文由半导体产业纵横(ID:ICVIEWS)编译自semiengineering由于人工智能和分解而加速的性能改进正在推动计算前沿的重大变革。由于人工智能的普及,超级计算机和高性能
    的头像 发表于 03-17 10:33 841次阅读
    <b class='flag-5'>超级</b><b class='flag-5'>计算</b>与 HPC 之间的界限日趋模糊

    NVIDIA推出个人AI超级计算机Project DIGITS

    NVIDIA 推出个人 AI 超级计算机 NVIDIA Project DIGITS,全球的 AI 研究员、数据科学家和学生都可获取
    的头像 发表于 01-08 11:03 1165次阅读

    联发科与NVIDIA合作 为NVIDIA 个人AI超级计算机设计NVIDIA GB10超级芯片

    联发科近日宣布与NVIDIA合作设计NVIDIA GB10 Grace Blackwell超级芯片,将应用于NVIDIA 的个人AI超级
    的头像 发表于 01-07 16:26 840次阅读

    NVIDIA发布高性价比生成式AI超级计算机

    NVIDIA近日推出了一款全新的生成式AI超级计算机——Jetson Orin Nano Super开发者套件,这款超级计算机不仅体积小巧,
    的头像 发表于 12-24 10:44 1016次阅读

    NVIDIA 推出高性价比的生成式 AI 超级计算机

    计算机,具有更高的性价比,通过软件升级即可实现性能提升。   全新 NVIDIA Jetson Orin Nano Super 开发者套件只有手掌大小,能够为商业 AI 开发者、科技爱好者和学生等各类
    发表于 12-18 17:01 950次阅读
    <b class='flag-5'>NVIDIA</b> 推出高性价比的生成式 AI <b class='flag-5'>超级</b><b class='flag-5'>计算机</b>

    云端超级计算机使用教程

    云端超级计算机是一种基于云计算的高性能计算服务,它将大量计算资源和存储资源集中在一起,通过网络向用户提供按需的
    的头像 发表于 12-17 10:19 970次阅读