0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

GPU是否有替代方案?

芯片半导体 来源:半导体行业观察 2023-10-23 15:37 次阅读

最近在华尔街举行的 HPC + AI展会上举办了一场小组讨论,汇聚了主要供应商来讨论当前的 GPU Squeeze(短缺)问题。“挤压”是由于生成型人工智能/ LLM的快速持续增长造成的,现在已将 GPU 的需求推向前所未有的水平,并对 GPU 的可用性造成了“挤压”。

下面是主要讨论内容。

GPU到底有多缺货?

根据我们报道的消息,我认为 HPC 用户访问 GPU(购买的或在云中)会遇到一些挑战。我想检查我的假设,并从贵公司的角度询问“GPU 挤压”问题有多大。

Supermicro 的 Thomas Jorgensen 分享了一个有趣的数据点。“我可以告诉你,由于缺乏 H100 GPU,我们有数以万计的系统缺货。但是,我还要说,市场上有很多替代品,例如,我们有一组更新的 CPU,用于 HPC 工作负载,而传统上这些工作负载是由 GPU 提供服务的。”

Thomas 提到了带有 64 GB 嵌入式 HBM2 内存的新型 Intel Max Xeon CPU,极大地增强了一些 HPC 工作负载。他建议,如果无法获得 Nvidia GPU,本地 HPC 是缓解这种情况的方法之一。作为硬件中立的供应商,他还提到英特尔AMD 的其他 GPU 都很容易获得。

Thomas还提到了重要的一点,“很多人都说我们依赖CUDA,但如果你要等NVidia GPUS一年,那段时间你可以转换很多代码。因此,市场上其他一些 GPU 绝对有生命力,其中一些可以在很短的等待时间内被黑客攻击。”

他最后还提到了 Nvidia L40 GPU,他认为这是一个很好的替代品,或者至少是你可以购买的东西。此外,Thomas还提到,“所以,我想说,对于我们的本地客户来说,有很多替代方案,客户现在正在探索这一点。我想补充一点,为了取得巨大成功。”

英特尔的 Kiran Agrahara 补充道:“这取决于用例。当您查看短缺时,这取决于您正在研究的用例。” 他继续说道,“还有其他选择,并且大多数学习和推理现在都可以使用 Xeon Gen 4 处理器来完成。” 他提到英特尔有针对不同用例的基准测试。他还指出,每个人都认为每个用例都需要 NVidia GPU。

Kiran 还指出,英特尔拥有 Gaudi 2,它更像是一个推理处理器,而不是学习处理器,并且可以在本地和云端使用。他继续提到 Datacenter GPU Max 系列可以作为 A100 的替代品或替代品。最后,他呼吁大家关注英特尔的 OpenVINO(开放式视觉推理和神经网络优化)——所有英特尔 HPC 和人工智能产品之上的软件层。

Nvidia 全球合作伙伴成功经理Prabhu Ramamoorthy 指出,人们认为 GPU 短缺是最近才发生的,但我们已经看到这种情况好几年了。例如,三年前,GPU 在云端运行进行 NLP(自然语言处理)。许多对冲基金都在运行所有这些工作负载。生成式人工智能就像 NLP 的新的、美丽的、更性感的术语,现在对这些 GPU 的需求要大得多。正如Thomas所指出的,我们希望客户选择正确的用例。他还提醒大家,NVidia 雇佣的软件工程师比硬件工程师更多。作为这些努力的结果,他提到 TensorRT-LLM 等 Nvidia 软件可以优化应用程序并确保更有效地利用 GPU。

Google Cloud HPC 和 AI 基础设施解决方案经理Wyatt Gorman 总结道,他认为长期规划 GPU 需求非常重要。现在,看看替代方案,不要超出你的应用程序太多。考虑一下现在有哪些可能性,并且有一些方法可以优化 GPU 使用,这是很好的替代方案。是很好的选择。

GPU 替代方案

有关短缺的报道可能还会持续 18 个月。是否有其他方法建议 HPC 用户运行应用程序(云、替代硬件、软件优化)?例如,NAMD(一种 HPC 分子动力学代码)将使用 CPU 和 MPI 和/或 GPU 运行。用户会恢复使用 MPI 吗?

Kiran Agrahara 回忆起一个较旧的示例,其中用户需要 20 个 GPU,而要完成相同的工作,他们需要大约 180 个 CPU。但他建议看看过去三年发生了什么变化。他继续说道:“CPU 已经取得了长足的进步。那时我们还没有硬件加速器。如果你看看下一代 Xeon 处理器,我们有一个称为 RMX 的先进矩阵架构。所以今天,CPU 已经取得了长足的进步。你看到的是 128 个核心,然后你就有了 RMX 架构,我可以说它就像是增强版的 AVX512。所以答案是肯定的,你可以用 CPU 来实现这一点。”

Wyatt Gorman 补充说,让人们意识到较小的 GPU 非常重要。现在每个人都在考虑 A100 和 H100。速度较慢的 Nvidia T4、L4 和 L40 GPU 有足够的容量,并且可以在 Google Cloud 上使用,因为目前对它们的需求并不高。如果您对这些 GPU 进行一些调整和优化,您可以看到代码的加速。

HPC 和数据中心融合

通常,HPC 位于其自己的孤岛中,然后您可以在另一个正在开发的孤岛中使用快速增长的 GenAI 和类似的硬件。当人们开始认识到我们可以将这两种资源整合在一起时,您是否认为这可能会使 HPC 受益?您如何看待在数据中心运行的 HPC 应用程序与在具有单独硬件的研发实验室中运行的 HPC 应用程序的融合?

Wyatt Gorman 表示,谷歌在 HPC RFP 中看到了更多人工智能功能。他认为,随着这些问题类型的出现,随着 HPC 和 AI 的融合,我们会看到 AI 技术被引入传统的 HPC 问题解决应用程序中,并且我们将看到越来越多的此类技术以及越来越多的资源。正如我提到的,Slurm 现在支持 Google TPU,现在或将来您不一定需要 Kubernetes 来运行 HPC。你知道,即使它是一种选择,也没有必要。

Supermicro 的 Thomas Jorgensen 提到,英特尔第五代路线图显示,未来的某些 CPU 上将有多达 288 个核心。当然,CPU 平台上也发生了一些事情,这些事情将带来比传统 CPU 平台更高的性能。还有一点是Intel打造的Max GPU是HPC+AI GPU。我们在 Supermicro 所做的第一次测试展示了使用该 GPU 的 HPC 的真实性能。

从硬件的角度来看, Supermicro 试图成为中立者,与 Nvidia、AMD 和 Intel 合作。

Thomas 继续说道:“与英特尔 AMD 平台一样,我们拥有非常高的核心数量 Epyc 处理器,并与 Nvidia 进行了科学实验。在此测试中,我们可以在单个系统中放置十个 GPU。HPC 基准测试以及我们从 HPC 上的一个系统中获得的性能令人震惊。但这是一种前进的方式,至少,我的意思是,它对挤压没有帮助,对吧,因为使用 H100,但那里的一些性能显示出 HPC 工作负载的真正前景。因此,我对硬件和我们看到的一些优化非常充满希望,这些优化可以从现有硬件中发挥更多作用。”

此外,一些用户可能会发现传统 HPC 和 GenAI 之间的界限有点模糊。对快速 GPU 的需求表明这两种类型的应用程序都在进行大量的数字运算,但传统的 HPC 蒙特卡罗风险分析是否类似于经过训练进行风险分析的 GenAI?换句话说,您如何看待GenAI和HPC?它们属于同一大类还是代表两个不同的市场?它们相辅相成吗?

NVidia 的 Prabhu Ramamoorthy 立即提到,他看到这种融合现在正在发生,他们看到客户在致力于最终用例时混合使用 HPC 和 AI 解决方案。

Google Cloud 的 Wyatt Gorman 回答说,他看到人们将机器学习技术引入不同级别的 HPC 流程中。因此,请将其视为 HPC 中的一个子集、一个域。他认为,它可能会分拆出来,变得更加孤立,就像大数据从 HPC 中分离出来一样。但就目前而言,他认为情况正在趋同。

编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    18288

    浏览量

    222175
  • 嵌入式
    +关注

    关注

    4983

    文章

    18286

    浏览量

    288500
  • NVIDIA
    +关注

    关注

    14

    文章

    4595

    浏览量

    101730
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4422

    浏览量

    126711
  • HPC
    HPC
    +关注

    关注

    0

    文章

    279

    浏览量

    23419

原文标题:GPU到底有多缺货?有替代者吗?

文章出处:【微信号:TenOne_TSMC,微信公众号:芯片半导体】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    FPGA在深度学习应用中或将取代GPU

    、运动和电力限制等环境因素。 Larzul 说:“在一些关键的应用场景中,比如智慧城市的视频监控,要求硬件暴露在对 GPU 不利影响的环境因素 (比如太阳) 下。“ GPU 受晶体管技术的限制,导致
    发表于 03-21 15:19

    英伟达GTX 16系列GPU全面停产,无替代型号

    3 月 5 日消息,根据英伟达GPU产品路线图,GTX 16系列已于2024年第一季度全面停产,正式成为历史。这标志着GTX系列漫长而传奇的时代结束,且该系列停产后暂时没有其他替代的型号, GTX
    的头像 发表于 03-06 18:32 174次阅读

    PCM1750U-DUAL CMOS 18 BIT这款数模转换芯片国产替代吗?

    PCM1750U-DUAL CMOS 18 BIT这款数模转换芯片国产替代吗?国产替代是否会涉及专利权或者知识产权问题?
    发表于 03-05 18:46

    寻求温湿度变送器可替代方案

    这是一个温湿度变送器,对接电脑端相应软件能读取到温湿度信息,坏了就不好维修,请问各位大能有没有可替代的模块,或者替代模块的生产商可以私信联系我。
    发表于 12-28 14:36

    OpenHarmony开源GPU库Mesa3D适配说明

    、LCD驱动完整的基础之上,否则Launcher没有启动,也不能确定适配是否完好。所以,在GPU适配之前,需要确保在CPU渲染的基础上,Launcher是能正常启动的。 CPU渲染修改方法: 设置
    发表于 12-25 11:38

    请问ADI是否宽带双极性运算跨导放大器(OTA),可以替代TI的OPA861?

    请问ADI是否宽带双极性运算跨导放大器(OTA),可以替代TI的OPA861.
    发表于 11-14 07:49

    什么是虚拟GPU?虚拟GPU的优势有哪些?

    虚拟 GPU,也称为 vGPU,是通过将数据中心 GPU 进行虚拟化,用户可在多个虚拟机中共享该 GPU
    的头像 发表于 11-10 09:48 704次阅读
    什么是虚拟<b class='flag-5'>GPU</b>?虚拟<b class='flag-5'>GPU</b>的优势有哪些?

    Arm Mali™ GPU OpenCL开发者指南

    多得多的处理单元。这使马里™ GPU可以在不使用更多功率的情况下以比应用程序处理器更高的速率进行计算。 马里™ GPU可以一个或多个着色器核心。 标量指令是并行执行的,因此GPU同时
    发表于 08-10 07:47

    基于磁贴的GPU架构优缺点

    本指南介绍了基于磁贴的GPU架构的优缺点。它还将ARM马里基于瓷砖的GPU架构设计与台式PC或控制台中常见的更传统的即时模式GPU进行了比较。 马里GPU使用基于平铺的渲染体系结构。
    发表于 08-02 12:54

    GPU如何在imx8m plus上工作以及GPU驱动程序如何集成到DRM驱动程序框架中?

    知道用户空间核心库(openGL、vulkan、openCL、.etc),但我只想知道GPU在内核空间是如何工作的,即GPU如何处理缓冲区和命令管理。
    发表于 06-08 08:23

    芯片“新王”手创造的GPU制造龙头——英伟达

    当chatgpt掀起一股新的ai大规模模型热潮时,提供基本计算能力的nvidia是最大的受惠者之一,而nvidia的gpu产品几乎没有能够替代大规模模型训练的东西。
    的头像 发表于 06-05 10:58 1159次阅读

    是否适用于LPC4357的替代屏幕?

    看起来是一个显而易见的选择。 我看到它使用 K43WQA 屏幕,但这些屏幕并不广泛,我想选择屏幕尺寸,以及更容易获得的屏幕尺寸。 是否适用于 LPC4357 的替代屏幕?我不知道界面是什么。如果它是标准界面,那么我想我可以
    发表于 06-02 07:57

    如何检查imx6中的GPU使用情况?

    在板上运行 Qt6 应用程序,想观察该 Qt6 应用程序对 GPU 的使用情况。 如何检查应用程序的 GPU 使用情况或该应用程序是否真的在使用 GPU?我们可以查看和确认该使用情况的
    发表于 05-22 07:04

    如何获取GPU vivante这些文件和目录?

    我必须对 GPU vivante 进行一些测试。我可以在文档中看到它提到了 /unit_tests/GPUgpu.sh 和 gpu_info.sh 以及一些示例 /opt/viv_
    发表于 05-22 06:27