0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

卡都去哪了?AI超算成了GPU的无底黑洞

E4Life 来源:电子发烧友 作者:周凯扬 2024-06-26 09:03 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/周凯扬)AI大模型似乎陷入了一个怪圈,尽管对于深度学习、数据优化和爆款应用的研究从来没有终止,但大多数人开口问的第一句话就是,“你有卡吗”?从行业对GPU的狂热追求来看,未来继续扩展大模型的机会,似乎只会被大公司掌握在手中。

xAI拉拢戴尔和超微打造AI超算,马斯克继续买买买

xAI作为2023年3月才成立的一家初创公司,在构建算力基础设施的投入上却一点也不含糊,不过这也多亏了背后的金主埃隆马斯克。近日,戴尔CEO Michael Dell宣布他们正在打造一个由英伟达GPU驱动的AI工厂,为xAI的Grok模型提供动力。不过马斯克随即表示,戴尔只是其中一半服务器集群的供应商,另外一半的超算系统则是由超微打造。

由此推测,这一AI工厂应该就是马斯克在月初提到的10万块H100液冷训练集群了,尽管有两家供应商同时为xAI打造服务器,但市面上的GPU需求依然维持在高位,还需要几个月这一集群才会正式上线,用于Grok的下一代大模型迭代。

H100这张2023年发布的GPU可以说是目前全球大模型算力供应的主力,无论是OpenAI还是xAI,其最新模型都是基于该GPU训练迭代的。H100无论是显存容量、带宽和算力性能都实现了一轮新的突破,甚至可以说H100带动了这一代AI大模型的发展,然而在GTC之后,马斯克已经开始眼馋最新的B200了。他认为考虑到目前的技术演进速度,实在不值得把1GW的电力供应给H100。

为此xAI也已经开始在规划下一代系统,据马斯克透露,该系统将由30万块B200 GPU组成,但上线时间需要等到明年夏天了。B200速度高达H100的4倍,更是可以轻松做到单机柜1exaflop的算力表现,更何况在能耗成本上,B200相比H100改善了20多倍,即便是大规模部署,也不会让厂商面临供电和碳足迹的双重困扰。

尽管xAI的AI超算目标已经明确,但对于马斯克旗下的另一家公司特斯拉而言,其技术路线依旧不算明朗。虽然特斯拉也开启了新一轮的英伟达GPU采购潮,但其内部也在继续发展自研的Dojo超算。只不过近年来Dojo的情报越来越少,就连马斯克自己也将其列入“远景计划”之列。

OpenAI与微软,“鲸级”超算已在全速运转中

相信不少人都还记得去年11月首度上榜TOP500的微软超算Eagle,这台空降第三的AI超算凭借14400个英伟达H100和561PFlop/s的算力,不仅让Azure系统再次闯进了前十,还拿下了当下云端超算最高的排名。而当时的Azure还未部署完成,虽然最新的排名中Eagle依然维持在第三的位置,但其核心数已经近乎翻倍。

这台超算为OpenAI的GPT-4训练和推理提供了极大的助力,但这远没有达到微软的财力极限。早在3月底,就有消息传出微软和OpenAI正在打造一个代号名为“星门”的AI超算,耗资高达1000亿美元。微软CTO Kevin Scott称不少有关其超算计划的推测简直错得可笑,但也指出他们确实会为这一计划付出不少努力和成本。

在上个月举办的Microsoft Build中,Kevin Scott公开透露了他们未来的超算扩展计划。2020年,微软为OpenAI打造了第一台AI超算,正是因为这台机器才孕育了GPT-3。而他们构建的下一个系统,也就是Eagle,则用于训练GPT-4。Kevin Scott选择了用海洋生物来描述这些超算的规模,比如首台超算可以用鲨鱼来描述,Eagle则是虎鲸,而他们的下一台超算规模则可以比拟蓝鲸。

Kevin Scott更是强调,别看现在Eagle可以排到第三名的位置,从现在开始微软每个月都会部署五台同样规模的超算,也就是说每月都有至少搭载72000个H100 GPU或同等规模系统投入应用,每月带来2.8exaflops的算力增长。同时,他们用来连接GPU的高速和InfiniBand线缆可以绕地球至少五周,也就是说长度在20万公里以上总线缆长度。

很明显,作为已经凭借OpenAI获得成功的微软来说,接下来需要赢下的就是这场Scaling之战。

TPU和GPU并用,谷歌的Hypercomputer

尽管不少巨头都在考虑如何自研芯片来降低购置海量GPU带来的成本,但真的成功将其用于大模型的训练中去的,已经迭代至第六代的谷歌TPU,恰好就为谷歌解决了这个问题。TPU作为谷歌和博通联合设计了几代的产品,在谷歌自己推出的各种新模型训练与推理中,重要性已经等同于英伟达的GPU了。

谷歌本身作为在AI算法和大模型上耕耘了诸多时间的巨头,从设计芯片之初就知道他们需要何种计算资源,正因如此,TPU几乎将所有的面积都分给了低精度的张量计算单元。这种ASIC方案也让谷歌大幅降低了打造AI Hypercomputer的成本。

但谷歌作为云服务厂商巨头还是逃不开通用性的问题,谷歌的TPU更多是为Gemini的模型做了优化,尽管TPU支持PyTorch、Tensorflow等常见AI模型,但在追求极致性能的选择上,还是难以媲美GPU。正因如此,在谷歌和其他大模型开发者的眼中,TPU固然性能不弱,但更像是一个性价比之选。用于已经成功商业化模型的降本增效属于不错的选择,但如果想要在这个竞争激烈的大模型市场杀出重围,那就只有谷歌能将TPU物尽其用。

在不少AI芯片厂商的宣传中,为了抬高自己的专用产品定位,将英伟达的GPU还是定性为图形处理单元。可在H100这种规模的GPU上,无论是性能和能效,也毫不输某些专用开发环境下的ASIC,至于未来更复杂的图形处理,英伟达也推出了L4 GPU这样的对应方案。

在今年GTC上,谷歌的云服务部门也宣布和英伟达达成深度合作关系,通过英伟达的H100和L4 GPU支持使用其云服务的AI开发者。同时谷歌也将购置GB200 NVL72系统,基于谷歌云的A3实例为开发者提供DGX Cloud的云端LLM托管方案,这也是对现有H100机器的升级。除此之外,就连谷歌自己的JAX框架,也在双方的合作之下,在英伟达的GPU上得到了支持。可以看出,谷歌还是采取两手抓的策略,TPU和GPU一并重要。

全力追逐Scaling Laws的大厂们

对于AI大模型而言,模型大小、数据集大小和计算成本之间不仅组成了三元关系,也代表了模型性能。而Scaling Laws这一扩展法则定义了三者之间势必会存在某种比例扩展,只不过如今看来,其边际效应已经变得越来越大。以GPT为例,如果GPT-6继续按照这样的比例扩展下去,且不说性能提升有限,即便微软这样的商业巨头也很难撑起成本的剧增。

可就是这样微不可察的差距,甚至对于AI大模型的常见应用聊天机器人来说只是速度和精度上的一些差距,却决定了他们在之后的十几年里能否继续制霸下去。微软作为已经在操作系统上实现霸权地位的厂商,自然也明白先入为主的重要性。

在边际效应的影响下,即便后入局的巨头,也有不少迎头赶上的机会,比如近期传出正在秘密研发Metis聊天机器人的亚马逊。亚马逊同样拥有自研服务器芯片的技术积累,但主要优势还是在CPU上,AI加速器相关的产品(Inferentia和Trainium)依旧有比较大的改进空间,而且与亚马逊自己的业务还没有紧密结合起来。如果亚马逊愿意去打造这样一个聊天机器人应用,很有可能后续也会加强在GPU上的投入,而不再紧紧作为云托管方案。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • gpu
    gpu
    +关注

    关注

    28

    文章

    5099

    浏览量

    134464
  • AI
    AI
    +关注

    关注

    89

    文章

    38120

    浏览量

    296664
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    华为发布AI容器技术Flex:ai力平均利用率提升30%

    决方案。   当前,AI产业正处于高速发展的黄金时期,海量力需求如潮水般涌来。然而,力资源利用率偏低的问题却成为了产业发展的关键桎梏。具体表现为,小模型任务常常独占整,导致大量资
    的头像 发表于 11-26 08:31 7130次阅读

    640节点问世:国产力实现关键一跃

    单机柜级640节点ScaleX640,为如火如荼的力竞争注入了新的变量。   这款被命名为ScaleX640的节点,凭借“一拖二”高密架构和单机柜640
    的头像 发表于 11-11 09:26 1916次阅读

    节点+集群”:华为撞出来的力之路

    节点+集群”,成为彻底解决AI力困局的契机
    的头像 发表于 09-24 10:55 818次阅读
    “<b class='flag-5'>超</b>节点+集群”:华为撞出来的<b class='flag-5'>算</b>力之路

    力与电力的终极博弈,填上了AIDC的“电力黑洞

    ),专注于提供人工智能训练与推理所需的力服务、数据服务和算法服务。AIDC采用异构计算架构,结合GPU、FPGA、ASIC等多种AI加速芯片,形成高并发分布式系统,以满足大模型训练和推理的极高
    的头像 发表于 09-22 02:43 7378次阅读

    【「AI芯片:科技探索与AGI愿景」阅读体验】+AI的未来:提升力还是智力

    本章节作者分析AI的未来在哪里,就目前而言有来那个两种思想:①继续增加大模型②将大模型改为小模型,并将之优化使之与大模型性能不不相上下。 一、大模型是一条不可持续发展的道路 大模型的不可
    发表于 09-14 14:04

    睿海光电领航AI光模块:快交付与全场景兼容赋能智时代——以创新实力助力全球客户构建高效力底座

    深圳、北京、香港三大运营中心,提供本地化技术服务网络。公司首创“三年质保、终身维修”政策,累计服务全球1560余家客户,涵盖头部云厂商、电信运营商及中心。2025年初,睿海光电更推出AI智能诊断
    发表于 08-13 19:03

    aicube的ngpu索引该如何添加?

    请问有人知道aicube怎样才能读取ngpu索引呢,我已经安装了cuda和cudnn,在全局的py里添加了torch,能够调用gpu,当还是只能看到默认的gpu0,显示不了
    发表于 07-25 08:18

    【「力芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】+NVlink技术从应用到原理

    自家GPU 提出的多力互连技术,是早期为了应对深度学习对超高力需求而单卡力不足的局面的解决方案,当然这都是官方用来吹牛的话术。我自己
    发表于 06-18 19:31

    加速是什么东西?它真能在AI战场上干掉GPU和TPU!

    随着AI技术火得一塌糊涂,大家都在谈"大模型"、"AI加速"、"智能计算",可真到了落地环节,力才是硬通货。你有没有发现,现在越来越多的AI企业不光用
    的头像 发表于 06-05 13:39 1285次阅读
    智<b class='flag-5'>算</b>加速<b class='flag-5'>卡</b>是什么东西?它真能在<b class='flag-5'>AI</b>战场上干掉<b class='flag-5'>GPU</b>和TPU!

    DeepSeek推动AI力需求:800G光模块的关键作用

    数据传输速率,减少带宽瓶颈,成为数据中心和AI集群架构优化的重点。光模块速率的跃升不仅提升了传输效率,也为大规模并行计算任务提供必要的带宽保障。 800G光模块如何解决DeepSeek大规模
    发表于 03-25 12:00

    力破局:科通技术以&quot;AI大模型+AI芯片&quot;重构智底座

    “科通技术”)推出的“DeepSeek+AI芯片”全场景方案,在云AI领域取得重大突破。除了GPU力总量,云AI的一大挑战来源于
    的头像 发表于 03-17 11:14 708次阅读

    国家平台推出AI生态加速计划

    向有需求的企业免费开放为期三个月的DeepSeek API接口使用权。DeepSeek作为国家互联网平台的重要技术成果,其满血版模型镜像已正式上线,并将通过API接口的形式,为企业提供强大的AI计算能力。 此外,该计划还包括
    的头像 发表于 02-14 09:16 686次阅读

    GPU力租用平台有什么好处

    当今,GPU力租用平台为科研机构、企业乃至个人开发者提供灵活高效的力解决方案。下面,AI部落小编带您深入探讨
    的头像 发表于 02-07 10:39 724次阅读

    融合 南京信易达发布全新“智能力融合平台”

    1月7日,南京信易达发布旗下最新力平台“C-MOM智能力融合平台V3.0”,并更新全新的UI视觉与交互系统。 该平台集成了HPC
    的头像 发表于 01-08 10:56 1266次阅读
    <b class='flag-5'>超</b><b class='flag-5'>算</b>智<b class='flag-5'>算</b>融合 南京信易达发布全新“智能<b class='flag-5'>算</b>力融合平台”

    小米加速布局AI大模型,搭建GPU集群

    近日,有消息称小米正在紧锣密鼓地搭建自己的GPU集群,旨在加大对AI大模型的投入力度。据悉,小米的大模型团队在成立之初就已经拥有6500张GP
    的头像 发表于 12-28 14:25 791次阅读