0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

算力呈指数级增长,服务器有哪些进展?

花茶晶晶 来源:电子发烧友网 作者:黄晶晶 2023-05-17 09:07 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/黄晶晶)人工智能的基座包括数据、算力和算法。其中算力更是数据和算法的支撑。各类模型基于数据量、算法的训练和推理推动了算力需求。

根据OpenAI的测算数据,AI训练运行所使用的算力每3-4个月增长一倍。AI训练运行所使用的算力已增长超30万倍。IDC数据显示,2022年我国智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模;预计未来5年我国智能算力规模的年复合增长率将达52.3%。

构筑算力必然离不开服务器的建设。作为全球顶级的人工智能/高性能计算服务器制造商和解决方案提供商,Supermicro公司日前向电子发烧友网表示,新业务合约有很大一部分来自人工智能/高性能计算领域,而且许多与ChatGPT有关。

Supermicro高管表示,人工智能界并不知道未来还会遇到多少计算密集型问题。以GPT-3为例,它需要323 Zetta FLOPS的算力和1750亿个参数来训练模型,更需要庞大的算力来执行推理工作。更加智能的GPT-4将会有更多的参数,有可能达到一万亿甚至更多。

为了运转这样的大模型和大规模参数,如何有效运用服务器显得十分重要,这关乎服务器的性价比选择。Supermicro公司高管说到,当大量的GPU服务器集群起来时,人工智能/高性能计算应用的每一微秒都很重要。Supermicro设计开发了各种不同架构的GPU服务器,提升了CPU和GPU之间或从GPU到GPU的数据传输速度。通过合理选择系统SKU,解决方案的设计可以将每个CPU/GPU核心利用到极致。从边缘到云,从训练到推理,当前市面上所需的人工智能/高性能计算应用,Supermicro都可以提供全方位的GPU服务器,能让客户充分利用计算资源上花费的每一分钱。

更大的服务器存储空间


随着CPU、GPU和内存技术的发展,现代计算集群处理数据的速度和数量不断增加,因此有必要增强存储性能,以便将数据馈送给应用时不会形成减缓整个系统的速度的瓶颈。

最近,Supermicro推出了超高性能、高密度PB级All-Flash NVMe服务器新机型。更新产品系列中初步推出的产品将在1U 16槽机架式安装系统中支持高达1/2 PB的储存空间,随后的产品则将在2U 32槽机架式安装系统中为IntelAMD PCIe Gen5平台提供1 PB储存空间。

Supermicro高管表示,Supermicro的Petascale All-Flash服务器提供业界领先的存储性能和容量,可以减少满足热存储和温存储要求所需的机架式系统数量,并通过诸多功能特点降低总体拥有成本。

具体来说,容量扩展,更广泛的PCB有助于实现更灵活的NAND芯片布局;性能扩展,可扩展连接器设计,多链路宽度(x4、x8、x16),支持不同电源配置;热效率,散热和制冷管理改进;面向未来,通用连接器适用于各种尺寸规格,可以为未来几代PCIe提供更加强大的信号完整性;解决方案范围,各种功率配置(20W-70W),适用于更高容量/性能的固态硬盘。

“安装了速度更快的固态硬盘之后,系统的平衡就变得更加重要。Supermicro拥有全新的NUMA平衡对称架构,可以提供到驱动器的最短信号路径、到存储器的带宽平衡和灵活的网络选项,从而降低时延。最重要的是,对称设计还有助于确保整个系统的气流畅通无阻,因此可以使用更加强大的处理器。”Supermicro高管说道。

桌面型GPU兼顾AI与液冷散热

CPU/GUP/xPU也构成了系统设计的热量挑战,各种处理器消耗的功率不断攀升,另一方面,科研/医疗设施/金融/石油和天然气企业需要人工智能/高性能计算来提高其专业竞争力。在这些企业中,有很多需要在员工工作的地点设置工作站或本地服务器。

基于这样的需求,Supermicro推出功能强大、安静且节能的NVIDIA加速人工智能(AI)开发平台系列当中的首款装置。全新的AI开发平台SYS-751GE-TNRT-NV1是一款应用优化的系统,在开发及运行AI软件时表现尤其出色。此外,这个性能强大的系统可以支持小团队里的用户同步运行训练、推理和分析等工作负载。

独立的液冷功能可满足四个NVIDIA® A100 Tensor Core GPU和两个第4代Intel Xeon可扩展处理器的散热需求,在发挥完整性能的同时提高整体系统效率,并实现了在办公环境下的安静(约30dB)运行。

对于散热的考量,Supermicro高管认为搭载NVIDIA A800等强大的协加速器、且声压级介于30~45分贝的工作站,必须采用液冷解决方案才能满足这一需求。冷板式液冷在市场上经过了十多年的考验,目前其成熟度和可靠性已经达到了数据中心大规模部署的水平。

创新技术驱动成长

早前,Supermicro就提出了观察到的七大创新技术,他们包括高性能350W CPU和700W GPU、处理速度更快的DDR5内存、第五代PCI-E 5.0技术、Compute Express Link(CXL,开放式互联标准)、400G高速网络、新型固态硬盘和液冷技术。

简言之就是更高的功耗和更快的数据传输速度。这就需要优化功率效率、解决热量挑战、加强第五代PCIe、DDR5、高速网络、无阻塞系统架构设计和部署等。

Supermicro高管指出,这些创新技术背后的一个共同点是热量调度。更快的处理器频率、更多的计算核心、更高速的网络都会产生更多的热量,这些热量必须输送到数据中心之外。他表示,正如我们预计的技术趋势和产品路线图所示,当前和新一代人工智能/高性能计算服务器采用的热量解决方案必须比目前的空气冷却更加高效。

展望已经到来的AI爆发的时代,ChatGPT的需求日益增长,不仅推高了服务器的销量,而且还推动新技术通过大规模部署而被普遍接纳的机会。GPT提供的服务包括语言翻译、聊天机器人、内容生成、语言分析、语音辅助等等。

要实现人工智能系统的所有关键技术,就需要足够快速的服务器,并通过复杂的架构、用于维护工作的液冷管布置等将其联网。这些专业技术知识意味着解决方案将不再作为一个个的服务器提供。完整的解决方案部署更像是一个具有机架级就绪水平的即插即用解决方案。

Supermicro将ChatGPT视为服务器市场增长的关键驱动力,未来我们会看到GPT服务的更多创新型用例。Supermicro已准备好面对这个趋势,始终保持在AI服务器技术前沿,并提供创新的解决方案,使得客户能够加速他们的AI应用规划,同时优化总体拥有成本并通过绿色计算最大限度地减少对环境的影响。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    13

    文章

    10093

    浏览量

    90856
  • AI
    AI
    +关注

    关注

    89

    文章

    38085

    浏览量

    296320
  • Supermicro
    +关注

    关注

    0

    文章

    33

    浏览量

    9666
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    液冷服务器成为AI黄金赛道!华为挺,两大国际芯片巨头下场

    2024年以来,全球AI液冷服务器快速增长,中国液冷服务器市场进展如何?液冷技术出现哪些主流路线?代表厂商的旗舰产品哪些?本文进行汇总。
    的头像 发表于 11-27 09:22 5907次阅读
    液冷<b class='flag-5'>服务器</b>成为AI黄金赛道!华为<b class='flag-5'>力</b>挺,两大国际芯片巨头下场

    湘军,让变成生产

    脑极体
    发布于 :2025年11月25日 22:56:58

    觉醒 · AI共生——上海永铭电子2025AI服务器电容应用专题会议圆满落幕

    随着人工智能浪潮席卷全球,AI正以前所未有的速度爆发式增长。在这场决定未来的技术竞速中,稳定、高效、可靠的电力供应是基石的核心。而电
    的头像 发表于 11-03 14:00 482次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>觉醒 · AI共生——上海永铭电子2025AI<b class='flag-5'>服务器</b>电容应用专题会议圆满落幕

    AI 服务器备用电源:高效、可靠与智能的未来保障

    电子发烧友网综合报道 随着人工智能技术的飞速发展,AI 服务器已成为数据中心的核心引擎。然而,需求的指数
    的头像 发表于 10-09 02:38 4522次阅读

    天波科普:超过30T的边缘计算服务器可以做什么?

    网关的能力边界,也涉及到高低。那么,目前边缘计算服务器到多少算高呢?以广东天波AI边缘计算盒子V3为例,
    的头像 发表于 09-28 11:18 427次阅读
    天波科普:<b class='flag-5'>算</b><b class='flag-5'>力</b>超过30T的边缘计算<b class='flag-5'>服务器</b>可以做什么?

    多达 48 个计算节点!Firefly 推出 CSC2-N48 AI 服务器

    Firefly最新推出CSC2-N48服务器,内置48个分布式计算节点,单节点可提供6TOPS-157TOPS,可选瑞芯微、
    的头像 发表于 08-20 16:37 1254次阅读
    多达 48 个计算节点!Firefly 推出 CSC2-N48 AI <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>

    新品 | 破局散热困境!捷智5090 浸没式液冷服务器全新来袭!

    需求爆发式增长的当下,服务器硬件适配困难与散热不畅这两大难题,一直困扰着许多用户。不过,曙光已现!捷智
    的头像 发表于 08-06 17:12 1606次阅读
    新品 | 破局散热困境!捷智<b class='flag-5'>算</b>5090 浸没式液冷<b class='flag-5'>服务器</b>全新来袭!

    能发布超节点服务器,128颗BM1690芯片组成

    电子发烧友网综合报道 在2025世界人工智能大会上,能最新发布了一款超节点服务器,可提供多达8T显存空间以及巨大的FP8,形成一台强大“智
    的头像 发表于 08-03 07:33 7102次阅读
    <b class='flag-5'>算</b>能发布超节点<b class='flag-5'>服务器</b>,128颗BM1690芯片组成

    借势 RISC-V与 AI 浪潮,元石智打造新范式

    在AI技术飞速发展的当下,需求指数增长,成为推动行业前行的核心动力。与此同时,RISC-
    的头像 发表于 07-25 14:51 440次阅读
    借势 RISC-V与 AI 浪潮,元石智<b class='flag-5'>算</b>打造<b class='flag-5'>算</b><b class='flag-5'>力</b>新范式

    AI新基建背后的中国芯力量——中微爱芯服务器芯片国产化替代全景解读

    人工智能(AI)技术正以颠覆性力量重塑全球产业图景,从深度学习的复杂模型训练到生成式AI的实时推理,其背后是海量数据与指数增长需求。
    的头像 发表于 06-20 13:55 1429次阅读
    AI<b class='flag-5'>算</b><b class='flag-5'>力</b>新基建背后的中国芯力量——中微爱芯<b class='flag-5'>服务器</b>芯片国产化替代全景解读

    服务器多少钱一台?价格因素与选购指南

    入门服务器可能只需几千元,而高性能计算(HPC)或AI训练专用服务器则可能高达数十万元。一般来说,中小型企业常用的
    的头像 发表于 06-17 09:45 1517次阅读

    AI原生架构升级:RAKsmart服务器在超大规模模型训练中的突破

    近年来,随着千亿参数模型的崛起,AI训练对的需求呈现指数增长。传统
    的头像 发表于 04-24 09:27 608次阅读

    智能服务器应用领域

    智能服务器应用领域 一、‌金融行业‌ 智能风控与投顾‌:通过集群支撑AI模型训练,实现风险预警、智能投顾等场景规模化应用,例如工商银
    的头像 发表于 04-21 09:09 1209次阅读
    智能<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>应用领域

    RAKsmart服务器如何重塑AI高并发格局

    在AI大模型参数量突破万亿、实时推理需求激增的当下,传统服务器架构的并发处理能力已逼近物理极限。RAKsmart通过“硬件重构+软件定义”的双引擎创新,推出新一代AI服务器解决方案。下面,AI部落小编为您解析RAKsmart
    的头像 发表于 04-03 10:37 668次阅读

    Firefly 服务器系列:覆盖多个领域的高解决方案

    服务器覆盖60~1570TOPS强劲,支持Transformer架构下大语言模型的私有化部署,如Gemma-2B、ChatGLM3
    的头像 发表于 02-19 16:34 1350次阅读
    Firefly <b class='flag-5'>服务器</b>系列:覆盖多个领域的高<b class='flag-5'>算</b><b class='flag-5'>力</b>解决方案