0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

聊聊数据中心的两项最新黑科技—NPO/CPO

鲜枣课堂 来源:鲜枣课堂 作者:小枣君 2022-10-21 09:37 次阅读

故事还是要从头开始讲起。

去年,国家发布了“东数西算”战略,吸引了全社会的关注。

所谓“东数西算”,其实就是数据中心的任务分工调整。我们将东部沿海地区的部分算力需求,转移到西部地区的数据中心完成。

之所以这么做,就是因为西部地区能源资源比较充沛,而且自然温度较低,可以大幅减少电费以及碳排放。

我们都知道,数据中心是算力的载体,现阶段我们大搞数字化转型和数字经济,离不开算力,也离不开数据中心。但是,数据中心的耗电问题,无法忽视。

根据数据显示,2021年全国数据中心总用电量为2166亿千瓦时,占全国总用电量的2.6%,相当于2个三峡水电站的年发电量,1.8个北京地区的总用电量。

如此恐怖的耗电量,对我们实现“双碳”目标造成了很大压力。

于是乎,行业开始加紧研究,究竟如何才能将数据中心的能耗降下来。

数据中心(IDC

大家应该都知道,数据中心有一个重要的参数指标,那就是PUE(Power Usage Effectiveness,电能使用效率)

PUE=数据中心总能耗/IT设备能耗。其中数据中心总能耗,包括IT设备能耗,以及制冷、配电等其它系统的能耗。

我们可以看出,除了用在主设备上的电量之外,还有很大一部分能耗,用在散热和照明上。

所以,捣鼓数据中心的节能减排,思路就在两点:

1、减少主设备的功耗

2、减少散热和照明方面的功耗(主要是散热)

主设备的功耗挑战

说起主设备,大家马上就想到了服务器。是的没错,服务器是数据中心最主要的设备,它上面承载了各种业务服务,有CPU、内存等硬件,可以输出算力。

但实际上,主设备还包括一类重要的设备,那就是网络设备,也就是交换机、路由器、防火墙等。

目前,AI/ML(人工智能/机器学习)的加速落地,再加上物联网的高速发展,使得数据中心的业务压力越来越大。

这个压力不仅体现在算力需求上,也体现在网络流量上。数据中心的网络接入带宽标准,从过去的10G、40G,一路提升到现在100G、200G甚至400G。

网络设备为了满足流量增长的需求,自身也就需要不断迭代升级。于是乎,更强劲的交换芯片,还有更高速率的光模块,统统开始用上。

我们先看看交换芯片

交换芯片是网络设备的心脏,它的处理能力直接决定了设备的能力。这些年,交换芯片的功耗水涨船高,如下图所示:

ad6e3752-5066-11ed-a3b6-dac502259ad0.png

交换机芯片功耗变化趋势

值得一提的是,虽然网络设备的总体功耗在持续提升,但是,单Bit(比特)的功耗是持续降低的。也就是说,能效越来越高。

再看光模块

光模块在光通信领域,拥有重要的地位,直接决定了网络通信的带宽。

早在2007年的时候,一个万兆(10Gbps)的光模块,功率才1W左右。

随着40G、100G到现在的400G,800G甚至以后的1.6T光模块,功耗提升速度就像坐上了火箭,一路飙升,直逼30W。大家可要知道,一个交换机可不止一个光模块,满载的话,往往就有几十个光模块(假如48个,就是48×30=1440 W)。

一般来说,光模块的功耗大约占整机功耗的40%以上。这就意味着,整机的功耗极大可能会超过3000 W。

一个数据中心,又不止一交换机。这背后的功耗,想想都很可怕。

除了交换芯片和光模块之外,网络设备还有一个大家可能不太熟悉的“耗电大户”,那就是——SerDes

SerDes是英文SERializer(串行器)/DESerializer(解串器)的简称。在网络设备中,它是一个重要器件,主要负责连接光模块和网络交换芯片。

ad7eb24e-5066-11ed-a3b6-dac502259ad0.png   简单来说,就是将交换芯片出来的并行数据,转换成串行数据进行传输。然后,在接收端,又将串行数据转换成并行数据。

前面提到,网络交换芯片的能力在不断提升。因此,SerDes的速率也必须随之提升,以便满足数据传输的要求。

SerDes的速率提升,自然就带动了功耗的增加。

在102.4Tbps时代,SerDes速率需要达到224G,芯片SerDes(ASIC SerDes)功耗预计会达到300W。

需要注意的是,SerDes的速率和传输距离,会受到PCB材料工艺的影响,并不能无限增加。换句话说,当SerDes速率增加、功耗增加时,PCB铜箔能力不足,不能让信号传播得更远。只有缩短传输距离,才能保证传输效果。

这有点像扔铅球比赛,当铅球越重(SerDes速率越高),你能扔的距离就越短。

ad911b00-5066-11ed-a3b6-dac502259ad0.png

具体来说,SerDes速率达到224G时,最多只能支持5~6英寸的传输距离。

这意味着,在SerDes没有技术突破的前提下,网络交换芯片和光模块之间的距离,必须缩短。

综上所述,交换芯片、光模块、SerDes,是网络设备的三座“功耗”大山。

根据设备厂商的数据显示,过去的12年时间,数据中心的网络交换带宽提升了80倍,背后的代价就是:交换芯片功耗提升约8倍,光模块功耗提升26倍,交换芯片SerDes功耗提升25倍。

adb303f0-5066-11ed-a3b6-dac502259ad0.jpg

信息来源:2020 Cisco and/or its affiliates.All rights reserved.Cisco Public

在此情况下,网络设备在数据中心内的功耗占比,随之不断攀升。

adcddbbc-5066-11ed-a3b6-dac502259ad0.jpg

网络设备(红色)的能耗占比

数据来源:Facebook-OIF CPO Webinar 2020

散热的功耗挑战

前面小枣君仔细介绍了网络设备的功耗挑战。接下来,我们再看看散热。

事实上,相比对网络设备的功耗提升,散热的功耗才是真正的大头

根据数据统计,交换设备在典型数据中心总能耗中的占比,仅仅只有4%左右,还不到服务器的1/10。

但是散热呢?根据CCID数据统计,2019年中国数据中心能耗中,约有43%是用于IT设备的散热,基本与45%的IT设备自身的能耗持平。

即便是现在国家对PUE提出了严格要求,按照三级能效(PUE=1.5,数据中心的限定值)来算,散热也占了将近40%。

addbe5d6-5066-11ed-a3b6-dac502259ad0.png

传统的散热方式(风冷/空调制冷),已经不能满足当前高密数据中心的业务发展需求。于是,我们引入了液冷技术

液冷,是使用液体作为冷媒,为发热部件散热的一种新技术。引入液冷,可以降低数据中心能近90%的散热能耗。数据中心整体能耗,则可下降近36%。

ae04ae6c-5066-11ed-a3b6-dac502259ad0.png

这个节能效果,可以说是非常给力了,直接省电三分之一。

除了散热更强更省电之外,液冷在噪音、选址(不受环境气候影响)、建设成本(可以让机柜采用高密度布局,减少机房占地面积)等方面也有显著优势。

所以,现在几乎所有的数据中心,都在采用液冷。有的液冷数据中心,甚至可以将PUE干到1.1左右,接近1的极限值。

液冷,是不是把整个设备全部浸没在液体里呢?

不一定。

液冷的方案,一般包括两种,分别是浸没式冷板式

浸没式,也叫直接式,是将主设备里发热量大的元器件,全部浸入冷却液中,进行散热。

冷板式,也称间接式,是将主要散热部件与一块金属板贴合,然后金属板里有冷媒液体流动,把热量带走。现在很多DIY组装电脑,就是冷板式。

服务器采用液冷,已经是非常成熟的技术。那么,既然要上液冷,当然是服务器和网络设备一起上,会更好啊,不然还要搞两套体系。

问题来了,咱们的网络设备,能上液冷吗?

NPO/CPO,闪亮登场

当当当!铺垫了那么多,我们的主角,终于要闪亮登场了。

为了尽可能地降低网络设备的自身工作功耗以及散热功耗,在OIF(光互联网络论坛)的主导下,业界多家厂商,共同推出了——NPO/CPO技术

2021年11月,国内设备厂商锐捷网络(Ruijie Networks),发布了全球第一款25.6T的NPO冷板式液冷交换机。2022年3月,他们又发布了51.2T的 NPO冷板式液冷交换机(概念机)。

NPO冷板式液冷交换机

NPO,英文全称Near packaged optics,近封装光学。CPO,英文全称Co-packaged optics,共封装光学。

简单来说,NPO/CPO是将网络交换芯片和光引擎(光模块)进行“封装”的技术。

我们传统的连接方式,叫做Pluggable(可插拔)。光引擎是可插拔的光模块。光纤过来以后,插在光模块上,然后通过SerDes通道,送到网络交换芯片(AISC)。

aef556aa-5066-11ed-a3b6-dac502259ad0.png

CPO呢,是将交换芯片和光引擎共同装配在同一个Socketed(插槽)上,形成芯片和模组的共封装。

NPO是将光引擎与交换芯片分开,装配在同一块PCB基板上。

大家应该能看出来,CPO是终极形态,NPO是过渡阶段。NPO更容易实现,也更具开放性。

之所以要做集成(“封装”),目的很明确,就是为了缩短了交换芯片和光引擎间的距离(控制在5~7cm),使得高速电信号能够高质量的在两者之间传输,满足系统的误码率(BER)要求。

af598be8-5066-11ed-a3b6-dac502259ad0.png

缩短距离,保证高速信号的高质量传输

集成后,还可以实现更高密度的高速端口,提升整机的带宽密度。

此外,集成使得元件更加集中,也有利于引入冷板液冷。

af6ce8be-5066-11ed-a3b6-dac502259ad0.png

NPO交换机内部(揭开冷板后)

可以看到,交换芯片和光引擎之间的距离大幅缩短

NPO/CPO技术的背后,其实就是现在非常热门的硅光技术

硅光,是以光子和电子为信息载体的硅基光电大规模集成技术。简单来说,就是把多种光器件集成在一个硅基衬底上,变成集成“光”路。它是一种微型光学系统。

硅光之所以这么火,根本原因在于微电子技术已经逐渐接近性能极限,传统的“电芯片”在带宽、功耗、时延方面,越来越力不从心,所以,就改走了“(硅)光芯片”这个新赛道。

NPO/CPO交换机的进展

NPO/CPO技术是目前各大厂商研究的热门方向。尤其是NPO,因为拥有最优开放生态,产业链更加成熟,可以获得成本及功耗的最快收益,所以,发展落地更快。

前面提到了锐捷网络的25.6T硅光NPO冷板式液冷交换机。

这款NPO交换机基于112G SerDes的25.6T的交换芯片,1RU的高度,前面板支持64个连接器的400G光接口,由16个1.6T(4×400G DR4)的NPO模块组成,支持8个ELS/RLS(外置激光源模块)。

散热方面,采用了非导电冷却剂的冷板冷却方式。

那款51.2T硅光NPO冷板式液冷交换机,高度不变,将NPO模组从1.6T升级到了3.2T,前面板支持64个800G连接器,每个连接器还可以分成2个400G端口,实现向前兼容。外置光源模块增加到了16个。

51.2T NPO冷板式液冷交换机

在实际组网中,51.2T的NPO交换机(最快在2023年底商用发布),可以应用于100G/200G的接入网络,作为接入&汇聚设备,实现高速互联。

值得一提的是,NPO/CPO的技术和产品研发,并不是一件简单的事情,背后是对一家企业整体研发实力的考验。

这次锐捷网络能够全球首发NPO/CPO产品,是他们持续投入资源进行艰苦研发和创新的成果,也体现了他们在这个领域的技术领先性。

锐捷网络在2019年开始关注硅光领域技术,2020年6月正式成立研发及产品团队。作为OIF/COBO的成员,他们一直都有参与工作组全球会议,参加相关标准的讨论和制定。

在硅光这个方向上,锐捷网络已经走在了世界前列,未来可期。

结语

好了,介绍了这么多,相信大家已经看明白,到底什么是NPO/CPO了。

这两项技术,是数据中心网络设备毫无疑问的发展方向。在目前的数字化浪潮下,我们对算力和网络通信能力的追求是无止境的。在追求性能的同时,我们也要努力平衡功耗。毕竟,我们要走的是可持续性发展的道路。

希望以NPO/CPO为代表的硅光科技,能够进一步加速落地,为信息基础设施的绿色低碳做出贡献。

未来,硅光技术究竟还会带来怎样的技术创新?让我们拭目以待吧!





审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    12

    文章

    8116

    浏览量

    82499
  • 人工智能
    +关注

    关注

    1776

    文章

    43845

    浏览量

    230591
  • 机器学习
    +关注

    关注

    66

    文章

    8122

    浏览量

    130556
  • 交换芯片
    +关注

    关注

    0

    文章

    78

    浏览量

    10903
  • CPO
    CPO
    +关注

    关注

    0

    文章

    14

    浏览量

    100

原文标题:数据中心的黑科技——到底什么是NPO/CPO?

文章出处:【微信号:鲜枣课堂,微信公众号:鲜枣课堂】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    #mpo极性 #数据中心mpo

    数据中心MPO
    jf_51241005
    发布于 :2024年04月07日 10:05:13

    数据中心子系统的组成

    本帖最后由 bestups365 于 2011-11-11 10:21 编辑 数据中心的主要组成部分共有如下11个。(1)物理结构数据中心的物理结构就是能够安装数据中心并保护其免受环境条件
    发表于 11-11 10:16

    走向绿色数据中心的7种手段

      云计算数据中心涉及资源空间,电力,不间断电源等等因素。毫无疑问,数据中心对当地的生态系统造成巨大的压力。将数据中心变成环保的数据中心不是一个简单的任务,就像许多
    发表于 08-16 15:35

    数据中心市场的十大趋势

    使云数据中心运营商能够通过提高功率效率来降低成本。例如,现在可以在单个芯片上配置48端口开关,而以前则需要个芯片。 优化的解决方案(如MACOM的L-PIC™)让云数据中心运营商能够以高性价比的方式
    发表于 12-31 22:23

    数据中心的建设也看重风水

    相比中国传统的风水理论,数据中心所看重的风水则更加贴合实际。以整体架构来划分,目前的主流的数据中心已经进入第三代,并开始向第四代演进。第一代和第二代数据中心分别诞生于20世纪40和70年代,当时
    发表于 08-07 06:22

    数据中心光互联解决方案

      数据中心光互联解决方案  随着数据中心在全球的大规模部署,数据中心对于100Gbps模块的需求时代已经到了,而对于10G/40Gbps模块的需求依然强劲。  SMC针对数据中心光模
    发表于 07-03 10:36

    未来数据中心与光模块发展假设

    国内数据中心的发展经历了由运营商主导的以通信机楼为主的分散、小规模化发展阶段,逐步向市场驱动的规模化、标准化、高密度、绿色节能方向发展。随着我们步入未来,数据中心的任务和概念还将继续发展。而光模块占
    发表于 08-07 10:27

    数据中心布线之有源光缆

    本帖最后由 易飞扬 于 2020-8-22 15:05 编辑 根据通信产业研究机构(CIR)的报告,2020年用于数据中心的有源光缆AOC市场将达42亿美元(约合人民币266.8亿元)。有源
    发表于 08-22 15:04

    数据和物联网是如何影响数据中心的?

    数据和物联网是如何影响数据中心的?
    发表于 05-21 06:24

    数据中心太耗电怎么办

    ​​​​​​摘要:其实对于节能,传统技术也是做了“十二分”的努力。但是在技术不断演进的情况下,传统节能技术还是存在问题,如何破?本文分享自华为云社区《数据中心节能?来试试华为NAIE数据中心节能技术
    发表于 06-30 06:27

    数据中心是什么

    数据中心是什么:数据中心是全球协作的特定设备网络,用来在因特网络基础设施上传递、加速、展示、计算、存储数据信息。数据中心大部分电子元件都是由低直流电源驱动运行的。
    发表于 07-12 07:10

    PUE指标能准确衡量数据中心能效吗?

    PUE指标能准确衡量数据中心能效吗?孙长青,注册暖通工程师,高级工程师,规划设计部总工程师,IDC单位设计总监等,有多年从事数据中心规划设计、咨询顾问、甲方自建设计部等全过程的实战经验,对数据中心
    发表于 07-12 08:06

    如何去提高数据中心的运营效率呢

    现如今,尽管IT业界的各种新兴技术可能正发生着各种突飞猛进的快速变化,但每家数据中心仍然需要依赖电力资源的消耗来维持其运行能力。故而,数据中心运营商们仍然需要通过更新电源使用、冷却和电气设计方案,来
    发表于 09-09 06:14

    什么是数据中心

    数据中心是企业用来容纳其关键业务应用程序和信息的物理设施。随着它们的发展,重要的是要长期考虑如何保持它们的可靠性和安全性。什么是数据中心数据中心通常被称为单个事物,但实际上它们由许多技...
    发表于 09-15 06:46

    可插拔LPO如何替代NPO/CPO的传统技术

    作为一项技术的伪概念,LPO由来已久。然而我们必须及时放弃,替代以NPO/CPO的传统技术观念。   大体上,人们可以实现200G LPO的基本应用,且最好基于硅光子技术。至于更多速率LPO的升级
    的头像 发表于 09-10 09:15 978次阅读