(电子发烧友网 文/黄晶晶)无疑生成式AI的火热带动了互联网厂商、运营商、云服务商以及各类应用方等对数据中心、AI服务器的大力投入。同时,像中国的“东数西算”工程正构筑着坚实的算力基建。为了适应大数据、人工智能的发展,必须要解决如何增强算力、存力和运力的问题。那么高速的数据传输是不可缺少的核心环节。在此背景下,我们需要前瞻布局哪些数据传输的接口技术来适应发展呢?最近,Rambus 解决方案营销高级总监Tim Messegee接受采访,分享了他对于数据中心高速接口技术和市场的洞见。
图:Rambus 解决方案营销高级总监Tim Messegee
Tim Messegee表示,总体上,新数据中心的架构设计应考虑到性能、可扩展性、可靠性和安全性,满足生成式AI和大数据应用的具体需求。新数据中心首先需要配备高性能计算(HPC)基础设施来满足生成式AI和大数据应用的密集计算需求,比如使用功能强大的处理器、GPU、内存、网络、专用硬件加速器等高效处理大量数据并执行复杂计算。
新数据中心架构的设计应该使内存、存储等易于扩展。例如,CXL技术可以帮助建立内存池,从架构上将CPU和内存分离,不仅能够共享内存,还能在性能需求日益增加的情况下更加轻松地增加内存。
突破数据传输的瓶颈
业界一直都存在“内存墙”的问题,其根源还是数据传输的速率性能瓶颈。Tim Messegee说道,与“木桶定律”中的例子一样,限制数据中心数据传输速率的元素不止一个,而是所有相关元素的性能。显然,解决这一问题需要强大的 CPU、高速内存、高带宽网络以及许多其他方面的支持。
实际上大家都不希望自己是最短板的那一块。而以Rambus来看,其擅长的是提供先进内存接口芯片和接口IP解决方案帮助满足数据中心对带宽不断增长的需求。对此,Tim Messegee进行了解析。
具体来看,DDR5 DIMM芯片组:Rambus DDR5内存接口芯片组由 DDR5 RCD、SPD Hub 和温度传感器组成,专为满足最新一代DDR5内存系统的大容量、高带宽性能要求而量身定制。这些芯片使服务器和客户端计算系统能够处理最苛刻的工作负载和应用。
CXL技术:CXL可使数据中心从原来每台服务器拥有专用的处理和内存以及网络和加速器等其他资源的模式,转变为使用共享资源池的分解模式,共享资源池可根据特定工作负载的需求进行高效组合。
PCIe 6接口子系统IP:PCIe 接口是在 CPU、GPU、FPGA 和特定工作负载加速器等不同计算节点之间以高带宽和低延迟传输数据的关键骨干。Rambus PCIe 6解决方案支持下一代数据中心的性能要求,具有延迟、功耗、面积和安全性方面的优势。
HBM内存控制器:HBM是一种高性能内存标准,具有功耗低、外形小的特点。Rambus HBM 3.0和2E/2控制器可为AI/ML、图形和HPC应用提供高带宽、低延迟的内存性能。
新的接口技术何时落地
以上列举了几种应用于数据中心的先进的接口技术,包括DDR5、PCIe 6.0、HBM、CXL等。然而它们有各自的应用进程。
首先是DDR5。Tim Messegee表示,DDR5内存已于2021年进入市场。我们现在看到服务器和PC市场都在使用DDR5内存。根据IDC的预测,DDR5的跨越点,即DDR5位出货量超过DDR4位出货量的时刻将在2023年底出现。随着时间的推移,DDR5有望在数据中心和消费市场得到更广泛的应用。
其次,PCIe在服务器和PC之外也得到了广泛应用,其规模经济效益使其对物联网、汽车等领域以数据为中心的应用极具吸引力。尽管如此,PCIe 6.0的初期部署将针对需要尽可能高带宽的应用,这些应用都是数据中心的核心,如AI/ML、HPC、云计算、网络等。Tim Messegee预计第一代PCIe 6.0系统将在2026年问世。
再者,HBM正在成为超级计算机的首选内存。市场对AI/ML的需求推动了 HBM 在数据中心的广泛应用。如今,英伟达推出的H200 GPU以及GH200超级芯片开始配备141GB HBM3E。HBM的发展大致以两年为一个周期,技术还在不断演进当中。
此外,随着CXL标准从1.0发展到 3.0,行业头部厂商正在积极支持CXL。Tim Messegee说,要真正在市场上得到广泛应用,可能还需要一段时间。可以肯定的是,由于CXL的特性,最早采用这项技术的将是那些需要最高带宽、最低延迟和多设备一致性的应用。目前,我们预计CXL将于2026年在数据中心得到广泛应用。
诚然,特定技术的应用周期取决于多种因素,包括市场需求、软硬件生态、成本和性能优势等。Tim Messegee指出,一般来说,内存和总线技术升级通常需要更长的时间,这是因为它们需要与整个生态兼容,而且所有相互连接的软硬件元素都需要时间来验证和检验。因此,一项技术的采用情况会因技术特性、复杂程度和市场需求而异。总之,随着数据中心建设的加速,DDR5、PCIe 6.0、HBM和CXL等高速连接技术将在未来几年继续发展和普及,但其采用率可能会因技术和细分市场的不同而有所差异。
观察市场的反馈,Tim Messegee看到的趋势是,许多为数据中心开发的技术正在向客户端扩散。AI推理向边缘以及AI赋能的客户端和终端系统转移,这一趋势将继续加速。我们的IP解决方案可以集成到客户端系统的芯片中,我们的产品路线图上有支持未来客户端平台的Rambus芯片解决方案。
小结:
AI大模型的参数量越来越庞大,内容形式也越来越丰富,随着数据中心工作负载的增加,DDR、HBM、PCIe和CXL等内存技术将继续为数据中心提供更高容量、更低延迟和更高能效的数据传输速率以满足不断增长的算力需求。同时,Rambus也希望通过内存解决方案的不断改进总体上为提高数据中心的整体能效带来真正的机会。

Tim Messegee表示,总体上,新数据中心的架构设计应考虑到性能、可扩展性、可靠性和安全性,满足生成式AI和大数据应用的具体需求。新数据中心首先需要配备高性能计算(HPC)基础设施来满足生成式AI和大数据应用的密集计算需求,比如使用功能强大的处理器、GPU、内存、网络、专用硬件加速器等高效处理大量数据并执行复杂计算。
新数据中心架构的设计应该使内存、存储等易于扩展。例如,CXL技术可以帮助建立内存池,从架构上将CPU和内存分离,不仅能够共享内存,还能在性能需求日益增加的情况下更加轻松地增加内存。
突破数据传输的瓶颈
业界一直都存在“内存墙”的问题,其根源还是数据传输的速率性能瓶颈。Tim Messegee说道,与“木桶定律”中的例子一样,限制数据中心数据传输速率的元素不止一个,而是所有相关元素的性能。显然,解决这一问题需要强大的 CPU、高速内存、高带宽网络以及许多其他方面的支持。
实际上大家都不希望自己是最短板的那一块。而以Rambus来看,其擅长的是提供先进内存接口芯片和接口IP解决方案帮助满足数据中心对带宽不断增长的需求。对此,Tim Messegee进行了解析。
具体来看,DDR5 DIMM芯片组:Rambus DDR5内存接口芯片组由 DDR5 RCD、SPD Hub 和温度传感器组成,专为满足最新一代DDR5内存系统的大容量、高带宽性能要求而量身定制。这些芯片使服务器和客户端计算系统能够处理最苛刻的工作负载和应用。
CXL技术:CXL可使数据中心从原来每台服务器拥有专用的处理和内存以及网络和加速器等其他资源的模式,转变为使用共享资源池的分解模式,共享资源池可根据特定工作负载的需求进行高效组合。
PCIe 6接口子系统IP:PCIe 接口是在 CPU、GPU、FPGA 和特定工作负载加速器等不同计算节点之间以高带宽和低延迟传输数据的关键骨干。Rambus PCIe 6解决方案支持下一代数据中心的性能要求,具有延迟、功耗、面积和安全性方面的优势。
HBM内存控制器:HBM是一种高性能内存标准,具有功耗低、外形小的特点。Rambus HBM 3.0和2E/2控制器可为AI/ML、图形和HPC应用提供高带宽、低延迟的内存性能。
新的接口技术何时落地
以上列举了几种应用于数据中心的先进的接口技术,包括DDR5、PCIe 6.0、HBM、CXL等。然而它们有各自的应用进程。
首先是DDR5。Tim Messegee表示,DDR5内存已于2021年进入市场。我们现在看到服务器和PC市场都在使用DDR5内存。根据IDC的预测,DDR5的跨越点,即DDR5位出货量超过DDR4位出货量的时刻将在2023年底出现。随着时间的推移,DDR5有望在数据中心和消费市场得到更广泛的应用。
其次,PCIe在服务器和PC之外也得到了广泛应用,其规模经济效益使其对物联网、汽车等领域以数据为中心的应用极具吸引力。尽管如此,PCIe 6.0的初期部署将针对需要尽可能高带宽的应用,这些应用都是数据中心的核心,如AI/ML、HPC、云计算、网络等。Tim Messegee预计第一代PCIe 6.0系统将在2026年问世。
再者,HBM正在成为超级计算机的首选内存。市场对AI/ML的需求推动了 HBM 在数据中心的广泛应用。如今,英伟达推出的H200 GPU以及GH200超级芯片开始配备141GB HBM3E。HBM的发展大致以两年为一个周期,技术还在不断演进当中。
此外,随着CXL标准从1.0发展到 3.0,行业头部厂商正在积极支持CXL。Tim Messegee说,要真正在市场上得到广泛应用,可能还需要一段时间。可以肯定的是,由于CXL的特性,最早采用这项技术的将是那些需要最高带宽、最低延迟和多设备一致性的应用。目前,我们预计CXL将于2026年在数据中心得到广泛应用。
诚然,特定技术的应用周期取决于多种因素,包括市场需求、软硬件生态、成本和性能优势等。Tim Messegee指出,一般来说,内存和总线技术升级通常需要更长的时间,这是因为它们需要与整个生态兼容,而且所有相互连接的软硬件元素都需要时间来验证和检验。因此,一项技术的采用情况会因技术特性、复杂程度和市场需求而异。总之,随着数据中心建设的加速,DDR5、PCIe 6.0、HBM和CXL等高速连接技术将在未来几年继续发展和普及,但其采用率可能会因技术和细分市场的不同而有所差异。
观察市场的反馈,Tim Messegee看到的趋势是,许多为数据中心开发的技术正在向客户端扩散。AI推理向边缘以及AI赋能的客户端和终端系统转移,这一趋势将继续加速。我们的IP解决方案可以集成到客户端系统的芯片中,我们的产品路线图上有支持未来客户端平台的Rambus芯片解决方案。
小结:
AI大模型的参数量越来越庞大,内容形式也越来越丰富,随着数据中心工作负载的增加,DDR、HBM、PCIe和CXL等内存技术将继续为数据中心提供更高容量、更低延迟和更高能效的数据传输速率以满足不断增长的算力需求。同时,Rambus也希望通过内存解决方案的不断改进总体上为提高数据中心的整体能效带来真正的机会。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
IP
+关注
关注
5文章
1849浏览量
154903 -
数据中心
+关注
关注
16文章
5515浏览量
74642 -
AI
+关注
关注
89文章
38090浏览量
296477 -
高速接口
+关注
关注
1文章
67浏览量
15213
发布评论请先 登录
相关推荐
热点推荐
未来的数据中心需要怎样的布线方案
随着数字时代的发展,数据中心对能源效率和环境可持续性的需求日益迫切。为了满足这些日益增长的需求,数据中心必须变得更加环保和可持续。光纤布线已成为实现可持续数据中心目标的关键技术。本文探
微软最新AI技术数据中心即将启用
微软在美国威斯康星州 Mount Pleasant 建设的最新AI技术数据中心即将投入使用,预计 2026 年初正式启用。第二座同规模中心也在规划中,总投资将超过 70 亿美元。
Credo携1.6T Bluebird DSP破解AI数据中心算力瓶颈
高速连接17年的企业再掷重磅——发布 新一代1.6T Bluebird DSP ,为AI数据中心的“算力军备竞赛”注入关键动力。 当下,AI大模型训练集群的GPU数量已突破百万级,单节
技术资讯 I 数据中心能否承受高温运行?
通常,当我们讨论面向数据中心的数字孪生软件时,会重点介绍工程师如何运用基于物理原理的仿真技术,通过我们的数据中心软件建立复杂热力学模型,为IT设备寻找高效的冷却方案。但从提高效能和节约成本的角度出发
睿海光电以高效交付与广泛兼容助力AI数据中心800G光模块升级
合作案例,成为AI数据中心升级的关键推动者。
一、技术实力:AI光模块的研发与量产先锋
睿海光电作为全球AI光模块的领先品牌,专注于为
发表于 08-13 19:01
加速AI未来,睿海光电800G OSFP光模块重构数据中心互联标准
定义数据中心互联的新范式。
一、技术实力:800G OSFP光模块的卓越性能表现
睿海光电800G OSFP光模块系列采用行业领先的PAM4调制技术,具备以下核心优势:
超高速率 :单
发表于 08-13 16:38
国民技术发布面向AI数据中心的3 kW数字电源参考设计方案
在人工智能(AI)算力爆发式增长与全球能源结构转型的双重驱动下,电力供给体系正经历从”粗放式”到”智能化”的范式变革。AI数据中心的单机功耗已突破15kW,根据Uptime Insti
中型数据中心中的差分晶体振荡器应用与匹配方案
同步模块等。
2. 高校/科研机构智能计算中心
应用背景: 服务于AI训练、大数据建模与图像处理的科研计算平台,要求高速网络与大容量数据同步
发表于 07-01 16:33
小型数据中心晶振选型关键参数全解
。建议使用良好的接地设计和低阻抗走线来减少干扰。
总结
在小型数据中心中,差分晶体振荡器(DCO)扮演着至关重要的角色,尤其是在交换机、路由器、网络接口卡(NIC)、存储设备和光纤通信设备等高速、精密
发表于 06-11 13:37
适用于数据中心和AI时代的800G网络
随着人工智能(AI)技术的迅猛发展,数据中心面临着前所未有的计算和网络压力。从大语言模型(LLM)训练到生成式AI应用,海量数据处理需求推动
发表于 03-25 17:35
华为全新升级星河AI数据中心网络
在华为中国合作伙伴大会2025期间,以 “星河AI数据中心网络,赋AI时代新动能”为主题的数据中心网络分论坛圆满落幕。本次论坛汇聚了来自全国的300多位客户和伙伴,共同探讨
优化800G数据中心:高速线缆、有源光缆和光纤跳线解决方案
随着技术的飞速发展,数据中心正在从100G和400G演进到800G时代,对高速数据传输的需求与日俱增。因此,选择高效且可靠的布线解决方案对于800G
发表于 03-24 14:20
Cadence颠覆AI数据中心设计
,当今新型数据中心(AI 工厂)的建设正面临着如何处理其巨大的功耗和散热问题的严峻挑战,数字孪生技术在这场变革中扮演着至关重要的角色。
韩国将建全球最大AI数据中心
据最新报道,韩国即将启动一项雄心勃勃的计划——建设全球最大的人工智能(AI)数据中心。该数据中心不仅在规模上令人瞩目,更在技术和投资上展现了韩国的强大实力。 据悉,该

AI加持下的数据中心,需要怎样的高速接口技术?
评论