0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

海量数据当道,数据中心节能减耗迫在眉睫

lhl545545 来源:中关村在线 作者:王嘉陆 2020-12-02 14:02 次阅读

数据中心正在等待一场升级。

新基建正在以我们肉眼可见的速度稳步推进,不难想象的是,随着5G的发展和应用,数据中心将会迎来一次新的发展契机,但更多的则是来自各方面的挑战。大规模的连接和海量的数据会推动数据中心规模和设备密度的进一步加剧,而视频、直播等新兴应用的普及也会使得数据中心的负载越来越多样和复杂,硬件在提高密度的同时也必须具备更大的灵活性。从IDC最新的统计和预测可以看到,全球数据圈会在2018年的32ZB增长到2025年的175ZB,如此海量数据的增长自然需要更多的计算能力进行运算和处理。

海量数据当道,数据中心节能减耗迫在眉睫

全球数据圈将会大幅增长

海量数据当道,数据中心节能减耗迫在眉睫

除了更高的设备密度,数据中心要面临的另一个问题则来自于能耗方面。随着边缘计算、大数据、人工智能等新技术的发展,数据中心需要更高性能的服务器满足业务的发展需要。但根据摩尔定律的发展,芯片的升级也带来了芯片温度的提高,给服务器那颗滚烫的“芯”降温成为了亟待解决的问题。更低能耗的数据中心,不仅关系到了环境的可持续发展,也决定了算力的成本和服务的竞争力。

在今年的OCPChinaDay峰会上,英特尔数据中心平台事业部首席工程师高级平台架构师龚海峰示,边缘数据中心的发展速度十分之快,与大型数据中心不同的是,容量相对较小,只有十几个机柜,也并不采用顶级元器件的边缘数据中心,工作环境要更加恶劣,既要解决高密度的计算问题,又要解决能效的问题,简言之,数据中心需要具备更高的可靠性,更低的成本和功耗。

全国也在出台相应的政策,以上海为例,上海最近发布了新建数据中心PUE严格控制在1.3以下,可以预见的是,如果放任不管,无论是对环境的污染还是对能源的浪费都是很严重的,无论是国家还是各个地方政府,对未来的大规模数据中心的建设都会严格控制。

数据中心早期并没有专用的精密空调,也没有统一的标准,最早的时候用的甚至还是民用大功率空调,到上世纪70年代,机房专用精密空调出现,可以有效保障数据中心的恒温恒湿环境,而除尘方面采用新风系统和机房正压除尘,从而满足数据中心保持适度恒定,良好的空气洁净度、具备远程监控等要求。但在当下的市场环境里,风冷则面临着很多窘境,抛去能耗升高的问题不谈,风冷失效率上升的因素包含温度、振动、粉尘、潮湿等,而这些因素也会同时造成硬盘、主板、内存等元器件的故障,进而影响到整个数据中心的可靠性。

根据第三方数据公司统计,到2025年,常见的自然风冷技术会得到广泛使用,风冷+液冷混合的分散方案会成为主流,浸没式液冷的方案也会得到大量应用。

未来冷却技术使用比例预测

风冷未央,液冷已至,“老”技术仍待升级

从年龄上看,液冷技术也是十多岁的大龄技术了,但发展比较缓慢,究其原因还是落地、部署及运行的过程中存在不少问题,以浸没式液冷为例,之前鲜有互联网数据中心大规模进行部署,首先是液冷的可靠性,如果可靠性不能达到和风冷一个级别,那使用液冷就变得毫无意义。再就是由于介质的改变,元器件是否能在液体中可以长期稳定的工作,液体的导电性如何,很多诸如此类的问题,最后就是运维的挑战,密度变高之后,重量也会增加,维护也会更难。

“阿里云从2015年开始对比了不同的冷却架构,包括空气冷却,冷板液冷,我们从不同的维度进行总结和对比。从空气冷却到冷板液冷,从各个方面进行对比,我们实践中不同的尝试着验证迭代,我们总结出一些对比可以看到,浸没液冷是数据中心的一个跃迁式的技术创新,具有高可靠、高可用的特点。”阿里云基础设施服务器研发架构师钟杨帆说道。

要实现绿色数据中心,首先要解决的是电子元器件产品方面的问题,英特尔对CPU的路线图,其产品策略就是在制造风冷产品的同时,也大力发展支持液冷的产品,同时英特尔对四种液冷方式都在做产品开发,以适应未来液冷普及的需求。而阿里巴巴则从2016年开始尝试大规模部署液冷技术,今年在杭州建成了全球规模最大的浸没液冷数据中心,这也是全中国首个绿色数据中心。相比传统的数据中心,阿里云这一个数据中心每年可以节省至少上千万的电。

阿里巴巴绿色数据中心实践

相比传统的风冷,浸没式液冷几乎不依赖任何气象条件,可以在高温、高湿、甚至在腐蚀性极强的环境中进行,此外噪音也比较小,对于运维人员来讲也是十分大的改善。但到了具体的使用场景,首先要考虑产品对业务性能的要求,在根据业务性能要求选择元器件,再根据业务的算力选择CPU或者元器件的型号后,根据对应的TDP选择液冷或者风冷。除此之外,机房的基础设施、机柜的功率密度、可靠性的要求、PUE的要求,机房占地面积等要求都对采取的冷却方式有所影响。

机房冷却技术的发展将在很大程度上推动着数据中心的发展,随着计算存储网络以及各种应用的加速,这种设备的虚拟性能的要求对散热提出了更高的挑战,如何帮助数据中心达到节能绿色环保的要求,对液冷这个面世虽早,但仍然具有很大发展潜力的技术而言,也需要更多的实践探索。
责任编辑:pj

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据中心
    +关注

    关注

    15

    文章

    4178

    浏览量

    69951
  • 人工智能
    +关注

    关注

    1776

    文章

    43796

    浏览量

    230570
  • 大数据
    +关注

    关注

    64

    文章

    8643

    浏览量

    136585
收藏 人收藏

    评论

    相关推荐

    #mpo极性 #数据中心mpo

    数据中心MPO
    jf_51241005
    发布于 :2024年04月07日 10:05:13

    #mpo光纤跳线 #数据中心光纤跳线

    光纤数据中心
    jf_51241005
    发布于 :2024年03月22日 10:18:31

    #光纤弯曲 #光纤衰减 #数据中心光纤

    光纤数据中心
    jf_51241005
    发布于 :2024年03月08日 09:59:50

    #MPO预端接 #数据中心机房 #机房布线

    数据中心MPO
    jf_51241005
    发布于 :2024年03月01日 11:12:47

    #永久链路 #信道测试 #数据中心

    数据中心
    jf_51241005
    发布于 :2024年02月23日 10:17:58

    #紧套光缆 #松套光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2024年01月26日 09:44:11

    数据中心变“绿“要点有哪些?

    数据中心作为一个复杂的系统,存储着大量敏感信息和重要数据,又是能耗“大户”,需要应对不断提升的“绿”电、节能要求,全面及时的检测维护对于数据中心尤为重要,
    的头像 发表于 01-25 11:12 340次阅读

    #光缆水峰 #综合布线光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2024年01月15日 09:43:26

    数据中心 3D 机房数字孪生 #数据中心

    3D数据中心
    阿梨是苹果
    发布于 :2023年12月28日 10:02:33

    #预端接光缆 #24芯光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2023年12月08日 11:01:21

    大模型时代,数据中心将转向何方?

    数据中心大模型
    脑极体
    发布于 :2023年11月22日 09:01:41

    数据中心机房冷冻水空调系统的组成和节能设计

    的几种节能措施,以帮助数据中心用户更好的实现节能增效,下面介绍数据中心机房冷冻水空调系统的一般组成、管路设计模式以及节能方法等,对于相关工程
    的头像 发表于 11-20 14:40 2307次阅读
    <b class='flag-5'>数据中心</b>机房冷冻水空调系统的组成和<b class='flag-5'>节能</b>设计

    iCooling,数据中心AI系统级节能专家

    随着5G、云计算、AIGC大模型等新技术蓬勃兴起,数据中心作为我国数字经济飞速发展的基石和算力底座,兼具高能耗属性,肩负着节能减碳的社会责任及适应算力需求的持续增长。 国家工信部数据显示,截至
    的头像 发表于 10-28 16:25 287次阅读
    iCooling,<b class='flag-5'>数据中心</b>AI系统级<b class='flag-5'>节能</b>专家

    综合能效管理系统为数据中心配电管理能耗

    节能降耗压力迫在眉睫,供配电系统作为数据中心的动力心脏,如何实现供配电系统稳定、可靠、安全、经济、节能、低碳成为数据中心领域关注点。 关键词
    的头像 发表于 10-19 10:39 284次阅读
    综合能效管理系统为<b class='flag-5'>数据中心</b>配电管理能耗

    数据中心能效诊断系统及节能管理措施

    地区也对新建数据中心能源利用效率(PUE)提出了高要求。原有老旧数据中心的机电系统已落后,需进行能效诊断和升级改造提高PUE。通过能效管理系统研究数据中心能耗构成,进行能效诊断,并针对性地提出
    的头像 发表于 06-21 09:31 480次阅读
    <b class='flag-5'>数据中心</b>能效诊断系统及<b class='flag-5'>节能</b>管理措施