0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

ChatGPT背后,是微软超级昂贵的超级计算机

传感器技术 来源:新智元 2023-03-21 13:43 次阅读

【导读】ChatGPT背后,是微软超级昂贵的超级计算机,耗资数亿美元,用了英伟达数万颗芯片

ChatGPT能成为如今火遍全球的顶流模型,少不了背后超强的算力。

数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)。

那么,作为依托的那台微软专为OpenAI打造的超级计算机,又是如何诞生的呢?

周一,微软在官博上连发两文,亲自解密这台超级昂贵的超级计算机,以及Azure的重磅升级——加入成千上万张英伟达最强的H100显卡以及更快的InfiniBand网络互连技术。

基于此,微软也官宣了最新的ND H100 v5虚拟机,具体规格如下:

8个NVIDIA H100 Tensor Core GPU通过下一代NVSwitch和NVLink 4.0互联

每个GPU有400 Gb/s的NVIDIA Quantum-2 CX7 InfiniBand,每个虚拟机有3.2Tb/s的无阻塞胖树型网络

NVSwitch和NVLink 4.0在每个虚拟机的8个本地GPU之间具有3.6TB/s的双向带宽

第四代英特尔至强可扩展处理器

PCIE Gen5到GPU互连,每个GPU有64GB/s带宽

16通道4800MHz DDR5 DIMM

数亿美元撑起来的算力

大约五年前,OpenAI向微软提出了一个大胆的想法——建立一个可以永远改变人机交互方式的人工智能系统。

当时,没人能想到,这将意味着AI可以用纯语言创造出人类所描述的任何图片,人类可以用聊天机器人来写诗、写歌词、写论文、写邮件、写菜单……

为了建立这个系统,OpenAI需要很多算力——可以真正支撑起超大规模计算的那种。

但问题是,微软能做到吗?

毕竟,当时既没有能满足OpenAI需要的硬件,也无法确定在Azure云服务中构建这样庞大的超级计算机会不会直接把系统搞崩。

随后,微软便开启了一段艰难的摸索。

为了构建支持OpenAI项目的超级计算机,它斥资数亿美元,在Azure云计算平台上将几万个Nvidia A100芯片连接在一起,并改造了服务器机架。

此外,为了给OpenAI量身打造这个超算平台,微软十分尽心,一直在密切关注着OpenAI的需求,随时了解他们在训练AI时最关键的需要。

这么一个大工程,成本究竟是多少呢?微软负责云计算和人工智能的执行副总裁Scott Guthrie不愿透露具体数目,但他表示,「可能不止」几亿美元。

OpenAI出的难题

微软负责战略合作伙伴关系的高管Phil Waymouth指出,OpenAI训练模型所需要的云计算基础设施规模,是业内前所未有的。

呈指数级增长的网络GPU集群规模,超过了业内任何人试图构建的程度。

微软之所以下定决心与OpenAI 合作,是因为坚信,这种前所未有的基础设施规模将改变历史,造出全新的AI,和全新的编程平台,为客户提供切实符合他们利益的产品和服务。

现在看来,这几亿美元显然没白花——宝押对了。

在这台超算上,OpenAI能够训练的模型越来越强大,并且解锁了AI工具令人惊叹的功能,几乎开启人类第四次工业革命的ChatGPT,由此诞生。

非常满意的微软,在1月初又向OpenAI狂砸100亿美元。

8eb0088a-c4b1-11ed-bfe3-dac502259ad0.png

可以说,微软突破AI超算界限的雄心,已经得到了回报。而这背后体现的,是从实验室研究,到AI产业化的转变。

目前,微软的办公软件帝国已经初具规模。

ChatGPT版必应,可以帮我们搜索假期安排;Viva Sales中的聊天机器人可以帮营销人员写邮件;GitHub Copilot可以帮开发者续写代码;Azure OpenAI 服务可以让我们访问OpenAI的大语言模型,还能访问Azure的企业级功能。

8f30f72e-c4b1-11ed-bfe3-dac502259ad0.png

和英伟达联手

其实,在去年11月,微软就曾官宣,要与Nvidia联手构建「世界上最强大的AI超级计算机之一」,来处理训练和扩展AI所需的巨大计算负载。

这台超级计算机基于微软的Azure云基础设施,使用了数以万计个Nvidia H100和A100Tensor Core GPU,及其Quantum-2 InfiniBand网络平台。

Nvidia在一份声明中表示,这台超级计算机可用于研究和加速DALL-E和Stable Diffusion等生成式AI模型。

8f5b14d2-c4b1-11ed-bfe3-dac502259ad0.png

随着AI研究人员开始使用更强大的GPU来处理更复杂的AI工作负载,他们看到了AI模型更大的潜力,这些模型可以很好地理解细微差别,从而能够同时处理许多不同的语言任务。

简单来说,模型越大,你拥有的数据越多,你能训练的时间越长,模型的准确性就越好。

但是这些更大的模型很快就会到达现有计算资源的边界。而微软明白,OpenAI需要的超级计算机是什么样子,需要多大的规模。

这显然不是说,单纯地购买一大堆GPU并将它们连接在一起之后,就可以开始协同工作的东西。

微软Azure高性能计算和人工智能产品负责人Nidhi Chappell表示:「我们需要让更大的模型训练更长的时间,这意味着你不仅需要拥有最大的基础设施,你还必须让它长期可靠地运行。」

Azure全球基础设施总监Alistair Speirs表示,微软必须确保它能够冷却所有这些机器和芯片。比如,在较凉爽的气候下使用外部空气,在炎热的气候下使用高科技蒸发冷却器等。

此外,由于所有的机器都是同时启动的,所以微软还不得不考虑它们和电源的摆放位置。就像你在厨房里同时打开微波炉、烤面包机和吸尘器时可能会发生的情况,只不过是数据中心的版本。

大规模AI训练

完成这些突破,关键在哪里?

难题就是,如何构建、操作和维护数万个在高吞吐量、低延迟InfiniBand网络上互连的共置GPU。

这个规模,已经远远超出了GPU和网络设备供应商测试的范围,完全是一片未知的领域。没有任何人知道,在这种规模下,硬件会不会崩。

微软Azure高性能计算和人工智能产品负责人Nidhi Chappell解释道,在LLM的训练过程中,涉及到的大规模计算通常会被划分到一个集群中的数千个GPU上。

在被称为allreduce的阶段,GPU之间会互相交换它们所做工作的信息。此时就需要通过InfiniBand网络进行加速,从而让GPU在下一块计算开始之前完成。

Nidhi Chappell表示,由于这些工作跨越了数千个GPU,因此除了要确保基础设施的可靠外,还需要大量很多系统级优化才能实现最佳的性能,而这是经过许多代人的经验总结出来的。

所谓系统级优化,其中就包括能够有效利用GPU和网络设备的软件。

在过去的几年里,微软已经开发出了这种技术,在使训练具有几十万亿个参数的模型的能力得到增长的同时,降低了训练和在生产中提供这些模型的资源要求和时间。

Waymouth指出,微软和合作伙伴也一直在逐步增加GPU集群的容量,发展InfiniBand网络,看看他们能在多大程度上推动保持GPU集群运行所需的数据中心基础设施,包括冷却系统、不间断电源系统和备用发电机。

微软AI平台公司副总裁Eric Boyd表示,这种为大型语言模型训练和下一波AI创新而优化的超算能力,已经可以在Azure云服务中直接获得。

并且微软通过与OpenAI的合作,积累了大量经验,当其他合作方找来、想要同样的基础设施时,微软也可以提供。

现在,微软的Azure数据中心已经覆盖了全球60多个地区。

全新虚拟机:ND H100 v5

在上面这个基础架构上,微软一直在继续改进。

今天,微软就官宣了全新的可大规模扩展虚拟机,这些虚拟机集成了最新的NVIDIA H100 Tensor Core GPU 和 NVIDIA Quantum-2 InfiniBand 网络。

通过虚拟机,微软可以向客户提供基础设施,根据任何AI任务的规模进行扩展。据微软称,Azure的新ND H100 v5 虚拟机为开发者提供卓越的性能,同时调用数千个GPU。

审核编辑 :李倩

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 人工智能
    +关注

    关注

    1777

    文章

    43920

    浏览量

    230665
  • OpenAI
    +关注

    关注

    8

    文章

    767

    浏览量

    5921
  • ChatGPT
    +关注

    关注

    27

    文章

    1413

    浏览量

    4800

原文标题:揭秘ChatGPT背后天价超算!上万颗英伟达A100,烧光微软数亿美元

文章出处:【微信号:WW_CGQJS,微信公众号:传感器技术】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    英伟达帮助日本建造混合量子超级计算机

    英伟达正在帮助日本建造混合量子超级计算机,这是日本国家量子计算计划的一部分。
    的头像 发表于 04-23 14:54 228次阅读

    微软和OpenAI计划投资1000亿美元建造“星际之门”AI超级计算机

    微软和OpenAI计划投资1000亿美元建造“星际之门”AI超级计算机这一消息属实。
    的头像 发表于 04-11 10:14 174次阅读

    微软携手OpenAI打造超级计算机数据中心 预计耗资超过1150亿美元

    在OpenAI内部,这个超级计算机项目被赋予了一个充满想象力的名字——“Stargate”,寓意着它将开启一扇通往未来人工智能世界的大门。
    的头像 发表于 04-01 15:22 270次阅读

    从原子到超级计算机:NVIDIA与合作伙伴扩展量子计算应用

    量子计算领域的最新进展包括分子研究、部署巨型超级计算机,以及通过一项新的学术计划培养量子从业人员。
    的头像 发表于 03-22 10:05 148次阅读

    诺和诺德基金会将联手英伟达打造丹麦AI超级计算机

    诺和诺德基金会携手英伟达,共同宣布在丹麦打造一台领先的AI超级计算机。这台超级计算机将致力于推动医疗保健、生命科学以及绿色转型等领域的科研与创新,为丹麦乃至全球的诺和诺德基金会携手英伟
    的头像 发表于 03-21 13:43 165次阅读

    特斯拉将在纽约州打造Dojo超级计算机

    特斯拉近日宣布,将在美国纽约州布法罗市投资5亿美元,建造一台名为“Dojo”的超级计算机。这一决策源于纽约州稳定的电力供应、杰出的人才储备以及满足项目需求的充足空间。
    的头像 发表于 02-01 10:32 343次阅读

    特斯拉将斥资5亿美元建造Dojo超级计算机

    据外媒报道,特斯拉将在其位于纽约布法罗的超级工厂投资超过5亿美元,建造一台名为Dojo的超级计算机。这一举措旨在推进特斯拉的自动驾驶汽车计划。
    的头像 发表于 01-29 11:26 353次阅读

    gh200和超级计算机哪个牛

    gh200和超级计算机哪个牛 随着科技的不断发展,计算机已经成为人类生活不可或缺的一部分。计算机的崛起极大地改变了世界和每个人的生活。过去几十年中,人们对
    的头像 发表于 08-17 10:51 324次阅读

    gh200和超级计算机哪个牛

    gh200和超级计算机哪个牛  随着科技的不断发展,计算机已经成为人类生活不可或缺的一部分。计算机的崛起极大地改变了世界和每个人的生活。过去几十年中,人们对
    的头像 发表于 08-16 17:34 340次阅读

    新书推荐《算力经济·从超级计算到云计算

    超级计算机是什么?超级计算机到底有什么用? 答案就藏在这本 澎峰科技首席科学家、顾问张云泉 参与编著的《算力经济》 里。 这本书深入浅出地叙述了超级
    的头像 发表于 07-13 18:15 389次阅读
    新书推荐《算力经济·从<b class='flag-5'>超级</b><b class='flag-5'>计算</b>到云<b class='flag-5'>计算</b>》

    「重大突破」微软量子超级计算机路线图公布!

    关注微软科技视频号 了解更多科技前沿资讯 点亮在看,给BUG点好看 点击阅读原文,了解关于微软那些事儿 原文标题:「重大突破」微软量子超级计算机
    的头像 发表于 07-07 00:10 284次阅读
    「重大突破」<b class='flag-5'>微软</b>量子<b class='flag-5'>超级</b><b class='flag-5'>计算机</b>路线图公布!

    NVIDIA推出DGX GH200 AI超级计算机

    新型AI超级计算机将256个Grace Hopper超级芯片连接为巨大的、1-Exaflop、144TB GPU,用于支持生成式AI、推荐系统和数据处理的巨型模型     COMPUTEX
    发表于 05-30 14:15 450次阅读
    NVIDIA推出DGX GH200 AI<b class='flag-5'>超级</b><b class='flag-5'>计算机</b>

    COMPUTEX2023 | NVIDIA 推出 DGX GH200 AI 超级计算机

    新型 AI 超级计算机将 256 个 Grace Hopper 超级芯片连接为巨大的、1-Exaflop、144TB GPU,用于支持生成式 AI、推荐系统和数据处理的巨型模型 COMPUTEX
    的头像 发表于 05-30 01:40 1519次阅读
    COMPUTEX2023 | NVIDIA 推出 DGX GH200 AI <b class='flag-5'>超级</b><b class='flag-5'>计算机</b>

    NVIDIA Grace 掀起新型节能 Arm 超级计算机的新浪潮

    英国科研联盟 GW4 打造能效提升 6 倍的超级计算机,用于气候科学、医学研究等领域 德国汉堡 - 国际超算大会(ISC)- 2023 年 5 月 21 日 - NVIDIA 今天
    的头像 发表于 05-23 07:10 384次阅读

    三星计划开发基于内存的超级计算机

    "三星电子的目标是在2028年前开发出一台基于内存的超级计算机,"三星电子设备解决方案业务的首席执行官Kyung Kye-hyun周四在大田的KAIST发表演讲时说。
    发表于 05-12 11:26 186次阅读