0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

算力呈指数级增长,服务器有哪些进展?

晶芯观察 来源:电子发烧友网 作者:黄晶晶 2023-05-17 09:07 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

电子发烧友网报道(文/黄晶晶)人工智能的基座包括数据、算力和算法。其中算力更是数据和算法的支撑。各类模型基于数据量、算法的训练和推理推动了算力需求。

根据OpenAI的测算数据,AI训练运行所使用的算力每3-4个月增长一倍。AI训练运行所使用的算力已增长超30万倍。IDC数据显示,2022年我国智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模;预计未来5年我国智能算力规模的年复合增长率将达52.3%。

构筑算力必然离不开服务器的建设。作为全球顶级的人工智能/高性能计算服务器制造商和解决方案提供商,Supermicro公司日前向电子发烧友网表示,新业务合约有很大一部分来自人工智能/高性能计算领域,而且许多与ChatGPT有关。

Supermicro高管表示,人工智能界并不知道未来还会遇到多少计算密集型问题。以GPT-3为例,它需要323 Zetta FLOPS的算力和1750亿个参数来训练模型,更需要庞大的算力来执行推理工作。更加智能的GPT-4将会有更多的参数,有可能达到一万亿甚至更多。

为了运转这样的大模型和大规模参数,如何有效运用服务器显得十分重要,这关乎服务器的性价比选择。Supermicro公司高管说到,当大量的GPU服务器集群起来时,人工智能/高性能计算应用的每一微秒都很重要。Supermicro设计开发了各种不同架构的GPU服务器,提升了CPU和GPU之间或从GPU到GPU的数据传输速度。通过合理选择系统SKU,解决方案的设计可以将每个CPU/GPU核心利用到极致。从边缘到云,从训练到推理,当前市面上所需的人工智能/高性能计算应用,Supermicro都可以提供全方位的GPU服务器,能让客户充分利用计算资源上花费的每一分钱。

更大的服务器存储空间


随着CPU、GPU和内存技术的发展,现代计算集群处理数据的速度和数量不断增加,因此有必要增强存储性能,以便将数据馈送给应用时不会形成减缓整个系统的速度的瓶颈。

最近,Supermicro推出了超高性能、高密度PB级All-Flash NVMe服务器新机型。更新产品系列中初步推出的产品将在1U 16槽机架式安装系统中支持高达1/2 PB的储存空间,随后的产品则将在2U 32槽机架式安装系统中为IntelAMD PCIe Gen5平台提供1 PB储存空间。

Supermicro高管表示,Supermicro的Petascale All-Flash服务器提供业界领先的存储性能和容量,可以减少满足热存储和温存储要求所需的机架式系统数量,并通过诸多功能特点降低总体拥有成本。

具体来说,容量扩展,更广泛的PCB有助于实现更灵活的NAND芯片布局;性能扩展,可扩展连接器设计,多链路宽度(x4、x8、x16),支持不同电源配置;热效率,散热和制冷管理改进;面向未来,通用连接器适用于各种尺寸规格,可以为未来几代PCIe提供更加强大的信号完整性;解决方案范围,各种功率配置(20W-70W),适用于更高容量/性能的固态硬盘。

“安装了速度更快的固态硬盘之后,系统的平衡就变得更加重要。Supermicro拥有全新的NUMA平衡对称架构,可以提供到驱动器的最短信号路径、到存储器的带宽平衡和灵活的网络选项,从而降低时延。最重要的是,对称设计还有助于确保整个系统的气流畅通无阻,因此可以使用更加强大的处理器。”Supermicro高管说道。

桌面型GPU兼顾AI与液冷散热

CPU/GUP/xPU也构成了系统设计的热量挑战,各种处理器消耗的功率不断攀升,另一方面,科研/医疗设施/金融/石油和天然气企业需要人工智能/高性能计算来提高其专业竞争力。在这些企业中,有很多需要在员工工作的地点设置工作站或本地服务器。

基于这样的需求,Supermicro推出功能强大、安静且节能的NVIDIA加速人工智能(AI)开发平台系列当中的首款装置。全新的AI开发平台SYS-751GE-TNRT-NV1是一款应用优化的系统,在开发及运行AI软件时表现尤其出色。此外,这个性能强大的系统可以支持小团队里的用户同步运行训练、推理和分析等工作负载。

独立的液冷功能可满足四个NVIDIA® A100 Tensor Core GPU和两个第4代Intel Xeon可扩展处理器的散热需求,在发挥完整性能的同时提高整体系统效率,并实现了在办公环境下的安静(约30dB)运行。

对于散热的考量,Supermicro高管认为搭载NVIDIA A800等强大的协加速器、且声压级介于30~45分贝的工作站,必须采用液冷解决方案才能满足这一需求。冷板式液冷在市场上经过了十多年的考验,目前其成熟度和可靠性已经达到了数据中心大规模部署的水平。

创新技术驱动成长

早前,Supermicro就提出了观察到的七大创新技术,他们包括高性能350W CPU和700W GPU、处理速度更快的DDR5内存、第五代PCI-E 5.0技术、Compute Express Link(CXL,开放式互联标准)、400G高速网络、新型固态硬盘和液冷技术。

简言之就是更高的功耗和更快的数据传输速度。这就需要优化功率效率、解决热量挑战、加强第五代PCIe、DDR5、高速网络、无阻塞系统架构设计和部署等。

Supermicro高管指出,这些创新技术背后的一个共同点是热量调度。更快的处理器频率、更多的计算核心、更高速的网络都会产生更多的热量,这些热量必须输送到数据中心之外。他表示,正如我们预计的技术趋势和产品路线图所示,当前和新一代人工智能/高性能计算服务器采用的热量解决方案必须比目前的空气冷却更加高效。

展望已经到来的AI爆发的时代,ChatGPT的需求日益增长,不仅推高了服务器的销量,而且还推动新技术通过大规模部署而被普遍接纳的机会。GPT提供的服务包括语言翻译、聊天机器人、内容生成、语言分析、语音辅助等等。

要实现人工智能系统的所有关键技术,就需要足够快速的服务器,并通过复杂的架构、用于维护工作的液冷管布置等将其联网。这些专业技术知识意味着解决方案将不再作为一个个的服务器提供。完整的解决方案部署更像是一个具有机架级就绪水平的即插即用解决方案。

Supermicro将ChatGPT视为服务器市场增长的关键驱动力,未来我们会看到GPT服务的更多创新型用例。Supermicro已准备好面对这个趋势,始终保持在AI服务器技术前沿,并提供创新的解决方案,使得客户能够加速他们的AI应用规划,同时优化总体拥有成本并通过绿色计算最大限度地减少对环境的影响。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    14

    文章

    10371

    浏览量

    91768
  • AI
    AI
    +关注

    关注

    91

    文章

    41295

    浏览量

    302679
  • Supermicro
    +关注

    关注

    0

    文章

    35

    浏览量

    9724
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    成都汇阳投资关于AI 引爆需求,存储芯片涨价周期来袭

    。2026年全球AI 服务器出货量预计同比激增 180%,云厂 商资本开支同比提升40%至6000亿美 元 ,建设的加速直接推动存储芯片需求进入指数
    的头像 发表于 03-27 17:12 477次阅读

    爆发下的刚需赛道:AI服务器高频高速连接需求迎爆发式增长

    当前,AI基建正进入全面爆发期,高频高速连接作为AI服务器的核心零部件,承担着短距离高速信号与电流传输的关键作用,其需求伴随AI产业的快速扩张呈现几何
    的头像 发表于 03-20 14:07 958次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>爆发下的刚需赛道:AI<b class='flag-5'>服务器</b>高频高速连接<b class='flag-5'>器</b>需求迎爆发式<b class='flag-5'>增长</b>

    曙光数创解锁高密的核心钥匙

    随着需求的爆发式增长,CPU、GPU等核心部件性能不断跃升,其功耗也指数攀升。目前,一台
    的头像 发表于 03-18 14:59 546次阅读

    服务器电源中功率元器件的选型策略

    随着AI需求的指数增长,数据中心GPU的单卡功耗已突破700W。一台标准2U服务器搭载8张
    的头像 发表于 03-10 14:31 537次阅读

    高达 1570 TOPS!支持多硬盘的高服务器 CSB2-N10

    CSB2-N10服务器内置10个分布式计算节点,单节点可提供6-157TOPS,可选瑞芯微、能、NVIDIA等平台。支持主流AI大模型的私有化部署、多种深度学习框架。拥有2个万兆
    的头像 发表于 01-06 16:33 786次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>高达 1570 TOPS!支持多硬盘的高<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b> CSB2-N10

    高达 1100 TOPS!内置 Jetson AGX Orin 模组的高服务器

    万兆网口,可扩展SATA3.0硬盘。配套智能管理系统,标准的1U机架服务器机箱设计,广泛适用于边缘计算、大模型本地化、智慧城市、智慧医疗、智慧工业等产品和领域。提
    的头像 发表于 12-17 16:31 840次阅读
    <b class='flag-5'>算</b><b class='flag-5'>力</b>高达 1100 TOPS!内置 Jetson AGX Orin 模组的高<b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>

    液冷服务器成为AI黄金赛道!华为挺,两大国际芯片巨头下场

    2024年以来,全球AI液冷服务器快速增长,中国液冷服务器市场进展如何?液冷技术出现哪些主流路线?代表厂商的旗舰产品哪些?本文进行汇总。
    的头像 发表于 11-27 09:22 7569次阅读
    液冷<b class='flag-5'>服务器</b>成为AI黄金赛道!华为<b class='flag-5'>力</b>挺,两大国际芯片巨头下场

    湘军,让变成生产

    脑极体
    发布于 :2025年11月25日 22:56:58

    AI 服务器备用电源:高效、可靠与智能的未来保障

    电子发烧友网综合报道 随着人工智能技术的飞速发展,AI 服务器已成为数据中心的核心引擎。然而,需求的指数
    的头像 发表于 10-09 02:38 5487次阅读

    天波科普:超过30T的边缘计算服务器可以做什么?

    网关的能力边界,也涉及到高低。那么,目前边缘计算服务器到多少算高呢?以广东天波AI边缘计算盒子V3为例,
    的头像 发表于 09-28 11:18 863次阅读
    天波科普:<b class='flag-5'>算</b><b class='flag-5'>力</b>超过30T的边缘计算<b class='flag-5'>服务器</b>可以做什么?

    多达 48 个计算节点!Firefly 推出 CSC2-N48 AI 服务器

    Firefly最新推出CSC2-N48服务器,内置48个分布式计算节点,单节点可提供6TOPS-157TOPS,可选瑞芯微、
    的头像 发表于 08-20 16:37 1832次阅读
    多达 48 个计算节点!Firefly 推出 CSC2-N48 AI <b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>服务器</b>

    新品 | 破局散热困境!捷智5090 浸没式液冷服务器全新来袭!

    需求爆发式增长的当下,服务器硬件适配困难与散热不畅这两大难题,一直困扰着许多用户。不过,曙光已现!捷智
    的头像 发表于 08-06 17:12 2403次阅读
    新品 | 破局散热困境!捷智<b class='flag-5'>算</b>5090 浸没式液冷<b class='flag-5'>服务器</b>全新来袭!

    借势 RISC-V与 AI 浪潮,元石智打造新范式

    在AI技术飞速发展的当下,需求指数增长,成为推动行业前行的核心动力。与此同时,RISC-
    的头像 发表于 07-25 14:51 828次阅读
    借势 RISC-V与 AI 浪潮,元石智<b class='flag-5'>算</b>打造<b class='flag-5'>算</b><b class='flag-5'>力</b>新范式

    AI新基建背后的中国芯力量——中微爱芯服务器芯片国产化替代全景解读

    人工智能(AI)技术正以颠覆性力量重塑全球产业图景,从深度学习的复杂模型训练到生成式AI的实时推理,其背后是海量数据与指数增长需求。
    的头像 发表于 06-20 13:55 2124次阅读
    AI<b class='flag-5'>算</b><b class='flag-5'>力</b>新基建背后的中国芯力量——中微爱芯<b class='flag-5'>服务器</b>芯片国产化替代全景解读

    服务器多少钱一台?价格因素与选购指南

    入门服务器可能只需几千元,而高性能计算(HPC)或AI训练专用服务器则可能高达数十万元。一般来说,中小型企业常用的
    的头像 发表于 06-17 09:45 3472次阅读