0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达H100的最强替代者

传感器技术 来源:半导体行业观察 2023-11-08 15:35 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

在我们(指代servethehome)撰写本文时,NVIDIA H100 80GB PCIe 在 CDW 等在线零售商处的售价为 3.2 万美元,并且缺货了大约六个月。可以理解的是,NVIDIA 的高端(几乎)万能 GPU 的价格非常高,需求也是如此。NVIDIA 为许多人工智能用户和那些在企业中运行混合工作负载的用户提供了一种替代方案,但这种方案并不引人注目,但这是非常好的。NVIDIA L40S 是面向图形的 L40 的变体,它正迅速成为人工智能领域最保守的秘密。让我们深入了解原因。

NVIDIA A100、NVIDIA L40S 和 NVIDIA H100

首先,我们首先要说的是,如果您现在想要训练基础模型(例如 ChatGPT),那么 NVIDIA H100 80GB SXM5 仍然是首选 GPU。一旦基础模型经过训练,通常可以在成本和功耗显着降低的部件上根据特定领域的数据或推理来定制模型。

NVIDIA H100

目前,用于高端推理的 GPU 主要有三种:NVIDIA A100、NVIDIA H100 和新的 NVIDIA L40S。我们将跳过NVIDIA L4 24GB,因为它更像是低端推理卡。

NVIDIA H100 L40S A100 堆栈顶部

NVIDIA A100 和 H100 型号基于该公司各自代的旗舰 GPU。由于我们讨论的是 PCIe 而不是 SXM 模块,因此外形尺寸之间两个最显着的差异是 NVLink 和功耗。SXM 模块专为更高功耗而设计(大约是 PCIe 版本的两倍),并通过 NVLink 和多 GPU 组件中的 NVSwitch 拓扑进行互连。

NVIDIA A100 PCIe于 2020 年以 40GB 型号推出,然后在 2021 年中期,该公司将产品更新为A100 80GB PCIe 附加卡。多年后,这些卡仍然很受欢迎。

NVIDIA A100 80GB PCIe

NVIDIA H100 PCIe是专为主流服务器设计的低功耗 H100。考虑 PCIe 卡的一种方法是,在电压/频率曲线的不同部分运行相似数量的芯片,旨在降低性能,但功耗也低得多。

NVIDIA H100 型号和 NVLink

即使在 H100 系列内也存在一些差异。NVIDIA H100 PCIe 仍然是 H100,但在 PCIe 外形规格中,它降低了性能、功耗和一些互连(例如 NVLink 速度)。

bae4119c-7dc2-11ee-939d-92fbcf53809c.jpg

L40S 则完全不同。NVIDIA 采用了基础 L40(一款使用 NVIDIA 最新 Ada Lovelace 架构的数据中心可视化 GPU),并更改了调整,使其更多地针对 AI 而不是可视化进行调整。

NVIDIA L40S 是一款令人着迷的 GPU,因为它保留了 L40 的光线追踪核心和 DisplayPort 输出以及支持 AV1 的 NVENC / NVDEC 等功能。与此同时,NVIDIA 将更多的功率用于驱动 GPU 人工智能部分的时钟

NVIDIA L40S 4x DisplayPort

我们将其放在图表上以便更容易可视化。NVIDIA 的规格有时甚至会根据 NVIDIA 来源单一视图而有所不同,因此这是我们能找到的最好的规格,如果我们获得规格更新,我们将对其进行更新。我们还包括双卡H100 NVL,它有两个增强型 H100,它们之间有一个 NVLink 桥,因此将其视为双卡解决方案,而其余的都是单卡。

bb0417f8-7dc2-11ee-939d-92fbcf53809c.png

这里有几点值得关注:

与 L40 相比,L40S 是一款在人工智能训练和推理方面大幅改进的卡,但人们可以很容易地看到共同的传统。

如果您需要绝对的内存容量、带宽或 FP64 性能,则 L40 和 L40S 不适合。鉴于目前 AI 工作负载取代传统 FP64 计算的相对份额,大多数人都会接受这种权衡。

L40S 的内存看起来可能比 NVIDIA A100 少得多,而且物理上确实如此,但这并不是故事的全部。NVIDIA L40S 支持NVIDIA Transformer Engine和 FP8。使用 FP8 可以极大地减小数据大小,因此,与 FP16 值相比,FP8 值可以使用更少的内存,并且需要更少的内存带宽来移动。NVIDIA 正在推动 Transformer Engine,因为 H100 也支持它,有助于降低其 AI 部件的成本或提高其性能。

L40S 有一组更注重可视化的视频编码/解码,而 H100 则专注于解码方面。

NVIDIA H100 速度更快。它还花费更多。从某种意义上说,在我们撰写本文时,在列出公开价格的 CDW 上,H100 的价格约为 L40S 价格的 2.6 倍。

另一个重要问题是可用性。如今,获得 NVIDIA L40S 比排队等待 NVIDIA H100 快得多。

秘密在于,在 AI 硬件方面取得领先的一种新的常见方法是不使用 H100 进行模型定制和推理。相反,我们又回到了我们多年前介绍过的熟悉的架构,即密集 PCIe 服务器。2017 年,当我们进行DeepLearning11 时,将 NVIDIA GeForce GTX 1080 Ti 塞进服务器中的 10 倍 NVIDIA GTX 1080 Ti 单根深度学习服务器甚至是大公司(例如世界某些地区的搜索/网络超大规模企业)的首选架构驾驶公司。

NVIDIA 更改了其 EULA,禁止此类配置,并且使其软件更加关注用于 AI 推理和训练的数据中心部分,因此现在情况有所不同。

到 2023 年,考虑同样的概念,但采用 NVIDIA L40S 技术(并且没有服务器“humping”。)

通过购买 L40S 服务器并获得比使用 H100 更低成本的 GPU,人们可以获得类似的性能,而且价格可能更低。

NVIDIA L40S 与 H100 的其他考虑因素

L40S 还有其他几个方面需要考虑。一是它支持NVIDIA Virtual GPU vGPU 16.1,而 H100 仍然只支持 vGPU 15。NVIDIA 正在将其 AI 芯片从 vGPU 支持方面进行一些拆分。

bb239d62-7dc2-11ee-939d-92fbcf53809c.png

对于那些想要部署一种 GPU 机器然后能够运行不同类型的工作负载的人来说,像 L40S 这样的东西是有意义的。鉴于其可视化根源,它还拥有支持 AV1 和 RT 内核的 NVIDIA 视频编码引擎。

L40S 不支持一项功能,那就是 MIG。我们之前已经研究过 MIG,但它允许将 H100 分成最多 7 个不同大小的分区。这对于在公共云中拆分 H100 GPU 非常有用,以便可以在客户之间共享 GPU 资源。对于企业来说,这通常是一个较低兴奋度的功能。

此外,部署 L40S 的功耗较低,仅为 SXM5 系统功耗的一半。这对于那些想要横向扩展但每个机架可能没有大量电力预算的人来说非常有吸引力。

最重要的是,L40S 的速度不如 H100,但凭借 NVIDIA 的 FP8 和 Transformer Engine 支持,对于许多人来说,它比 H100 更可用、更容易部署,而且通常价格更低。

最后的话

关于 NVIDIA H100 PCIe 与 L40S 以及为什么人们会使用任一版本,目前有很多非常糟糕的信息。希望这有助于在更大程度上澄清这一点。对我们来说,L40S 并不便宜,但它让我们想起 6 多年前,当时人工智能领域的做法是在服务器中使用成本较低的 NVIDIA GPU,然后使用更多的 GPU。NVIDIA 再次推出该型号,使用 L40S 和官方认可的架构,支持多达数千个 GPU。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    5496

    浏览量

    109048
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134420
  • PCIe
    +关注

    关注

    16

    文章

    1420

    浏览量

    87528

原文标题:英伟达H100的最强替代者

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    英伟达官宣H20恢复中国供应,新款GPU震撼来袭

    电子发烧友原创 章鹰 今天,命运多舛的英伟H20芯片迎来了新转机。4月,美国政府决定禁止英伟向中国市场销售
    的头像 发表于 07-16 02:01 9162次阅读
    <b class='flag-5'>英伟</b>达官宣<b class='flag-5'>H</b>20恢复中国供应,新款GPU震撼来袭

    英伟 Q3 狂揽 308 亿

    厂商季度合计 500 亿美元资本支出中,约 30% 流向了英伟。 新一代 Blackwell 芯片已全面投产,Q3 交付 1.3 万个 GPU 样品,H200 GPU 理论性能较 H100
    的头像 发表于 11-20 18:11 1055次阅读

    英伟 H100 GPU 掉卡?做好这五点,让算力稳如泰山!

    H100服务器停工一天损失的算力成本可能比维修费还高。今天,我们给大家总结一套“防掉卡秘籍”,从日常管理到环境把控,手把手教你把掉卡风险压到最低。一、供电是“生命线”,这3点必须盯紧H100满载功耗
    的头像 发表于 09-05 11:03 709次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b> <b class='flag-5'>H100</b> GPU 掉卡?做好这五点,让算力稳如泰山!

    英伟被传暂停生产H20芯片 外交部回应

    据外媒《the Information》在当地时间的8月21日下午爆料称,英伟可能已经暂停生产H20芯片。据称,英伟已正式下达指示给到供
    的头像 发表于 08-22 15:58 2562次阅读

    搞定英伟 H100 ECC 报错:从原理到维修,一步到位解烦忧

    最近,捷智算GPU维修室收到了不少H100服务器需要维修,故障问题集中为ECC报错。为了帮大家更好地认识和了解情况,下面就详细分享一下ECC报错系统化排查方法和维修流程。一、ECC报错
    的头像 发表于 08-14 18:05 1369次阅读
    搞定<b class='flag-5'>英伟</b><b class='flag-5'>达</b> <b class='flag-5'>H100</b> ECC 报错:从原理到维修,一步到位解烦忧

    H20中国区卖爆!英伟紧急向台积电加订30万块

    ,性能上相当于英伟另一款主流GPU芯片H100的20%左右。   尽管如此,在美国解禁对H20芯片的出口后,需求仍然超出了想象。据路透社报道,中国市场的需求比预想中药强劲得多。因此
    的头像 发表于 07-30 08:08 2997次阅读

    英伟获美批准恢复H20在华销售,同步推出全新兼容GPU

    7月15日上午,央广财经记者从英伟方面确认,英伟已经获得美国批准,将恢复 H20 在中国的销售,并推出面向中国市场的全新且完全兼容的 G
    的头像 发表于 07-16 17:49 664次阅读

    中方回应英伟将对华销售H20芯片 反对将科技和经贸问题政治化

    对于英伟将对华销售H20芯片我们怎么回应的?来看看外交部发言人的表述。 在15日的例行记者会上,有记者就英伟黄仁勋表示
    的头像 发表于 07-15 16:22 2038次阅读

    GPU 维修干货 | 英伟 GPU H100 常见故障有哪些?

    ABSTRACT摘要本文主要介绍英伟H100常见的故障类型和问题。JAEALOT2025年5月5日今年,国家政府报告提出要持续推进“人工智能+”行动,大力发展人工智能行业,市场上对算力的需求持续
    的头像 发表于 05-05 09:03 2445次阅读
    GPU 维修干货 | <b class='flag-5'>英伟</b><b class='flag-5'>达</b> GPU <b class='flag-5'>H100</b> 常见故障有哪些?

    美国限制英伟向华出售H20芯片

    出口H20芯片,以及任何其他性能达到H20内存带宽、互连带宽或其组合的芯片,都必须获得出口许可。 公告披露,美国政府称,这旨在解决相关产品可能被用于或被转用于中国超级计算机的风险。4月14日,美国政府通知英伟
    的头像 发表于 04-16 17:28 849次阅读

    特朗普要叫停英伟对华特供版 英伟H20出口限制 或损失55亿美元

    是“中国特供版”人工智能芯片;是英伟公司为符合美国出口规定专门为中国市场开发的定制芯片,H20芯片在训练AI模型方面不如英伟其他芯片速度
    的头像 发表于 04-16 16:59 1884次阅读

    英伟市值一夜蒸发近2万亿 英伟股价下跌超8%

    在美东时间周一,美股三大指数集体收跌,截至收盘,英伟股价下跌超8%,英伟市值一夜蒸发2650亿美元(换算下来约合人民币19345亿元);目前英伟
    的头像 发表于 03-04 10:19 987次阅读

    英伟A100H100比较

    英伟A100H100都是针对高性能计算和人工智能任务设计的GPU,但在性能和特性上存在显著差异。以下是对这两款GPU的比较: 1. 架构与核心规格: A
    的头像 发表于 02-10 17:05 1.1w次阅读
    <b class='flag-5'>英伟</b><b class='flag-5'>达</b>A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比较

    刚刚!英伟最新回应!

    12月10日消息,据报道,英伟市值一夜蒸发掉了889亿美元(约合人民币6460亿元)。 据此前媒体报道,近日英伟公司因涉嫌违反《中华人民共和国反垄断法》及《市场监管总局关于附加限制
    的头像 发表于 12-10 18:13 1180次阅读

    英伟被立案调查 英伟回应反垄断调查

    英伟被立案调查! 国家市场监督管理总局在12 月 9 日晚宣布,英伟公司涉嫌违反《中华人民共和国反垄断法》及《市场监管总局关于附加限制性条件批准
    的头像 发表于 12-10 15:03 813次阅读