0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

恢宏壮观的数据中心是如何节省能耗的

4ueq_hr_opt 来源:未知 作者:胡薇 2018-11-21 14:08 次阅读

先让我们走进恢宏壮观而神秘的数据中心

一排排机柜整齐排列,服务器和网络设备层层堆叠,设备不停的运转,无数个风扇发出嗡嗡作响声。

突然,有机柜发出了更响亮的嗡嗡声,这是服务器的风扇正在全速运转。

随后,传来了告警声,这是服务器没有得到足够的制冷而发出的求救信号

不一会,最糟糕的事情发生了,服务器过热保护,自动关闭运行,这或将导致大量的用户无法访问服务器。

与家用空调不同,机房设备更需高效、可靠的呵护。一个数据中心动辄数千台服务器,大量的设备所消耗的电能几乎都会变成废热,为了让每台设备保持在恒定的温度下正常运转,数据中心配置了如冷水机组、冷却塔、末端空调等设备的大型的制冷系统来吸入热空气、排出冷空气。

可你知道吗?为了排放废热,这些制冷系统是数据中心的耗电大户,降低数据中心的能耗(降低PUE值)一直是业界关注的焦点。

一个大型数据中心的电费占据了约70%的运营成本,全球数据中心每年电力消耗相当于8个三峡水电站的发电量。例如PUE为2的数据中心,在总能耗中,IT设备能耗占了一半,制冷系统能耗占约30%,这就是PUE居高不下的原因。

近年来,随着移动互联网、云计算技术的蓬勃发展,数据中心已成为现代信息生活不可或缺的ICT基础设施。面向5G万物互联时代,数据流量急剧增长,数据中心必将进一步向大型化和高密化发展。

但海量数据处理产生的热量随之增加,为保障设备稳定运行,制冷系统能耗也将持续走高。

如何让数据中心更节能、更高效?业界为此绞尽了脑汁…

比如,Facebook在瑞典北部,靠近北极圈的地方建数据中心,以利用自然低温为数据中心散热,降低能耗。

微软在苏格兰奥克尼群岛海岸附近建“水下数据中心”,利用寒冷的海水散热。

Facebook和微软将数据中心建在北极和海下,目的是通过“免费”获取冷源的自然冷却技术来降低能耗。

但是, Facebook和微软采用的自然环境冷却方式受地域限制,你不可能把所有数据中心都搬到遥远的北极或沉到海底,未来5G时代的低时延应用更需就近部署。

所以,我们还得把目光转回来,看看如何降低制冷系统本身的能耗。总的来讲,当下制冷系统向高效化和智能化趋势发展,方法可谓是“软硬兼施”,以获得更低的PUE。

大型数据中心一般采用冷冻水制冷系统。制冷系统主要由冷水机组、冷却塔、水泵和末端空调等组成,通常冷水机组、末端及水系统组件是能耗关注的重点。

过去以来,为了提升制冷系统能效,在冷源侧,从风冷向水冷、自然冷却发展;在空调末端侧,从房间级制冷发展到行级制冷、顶置制冷和机柜级制冷,以更加靠近热源,减少冷媒输送能耗,提升冷却效率。

随后,由于数据中心内设备众多,设备发热量动态变化,智能化的制冷系统开始应用于数据中心,使能根据变化随时随地的提供动态调节制冷方案,比如变频空调、变容量压缩机、风量智能调节技术等。

但是,由于传统制冷系统中精密空调、水泵、冷水机组、冷却塔来源不同厂家,各自独立运行,少有对整个制冷系统进行系统性的效率优化。

要系统性的提升制冷效率,需要实现从冷冻站、空调末端到IT负载的端到端协同管理和精细控制来智能化降低制冷系统的功耗。

最近在HUAWEI CONNECT 2018上,华为发布了基于AI的iCooling解决方案,正是这种智能化方向的代表。

基于AI的iCooling数据中心能效优化解决方案,针对数据中心制冷效率提升瓶颈,通过机器深度学习,对大量的历史数据进行业务分析,探索影响能耗的关键因素,获取PUE的预测模型。基于PUE的预测模型,获取与PUE敏感的特征值,利用特征值,进行业务训练,输出业务的预测模型。最后利用系统可调整的参数作为输入,将PUE预测模型、业务预测模型作为约束,利用寻优算法,获取调优参数组,下发到控制系统,实现制冷系统的控制。最终通过规范化的实践引导和目标导向评测,不断调整优化,获取均衡PUE。

在华为廊坊数据中心,实测环境为1500柜,单柜密度4kW/柜,43%IT负载率,2N供电系统,N+1冷冻水系统,采用iCooling智能温控技术后,冷冻站总能耗降低325.6kW,冷冻站COP提升8.2,全年PUE由1.42降为1.304,每年可节省电费372万元,实现了从“制冷”向“智冷”转变,为未来降低数据中心能耗奠定了新方向。

其实,试图用AI优化制冷的并不只有华为,Google已宣布通过旗下DeepMind公司AI技术来降低数据中心能耗,其原理与iCooling类似,在制冷系统中安装数千个传感器收集并发送数据到深度神经网络,再作出最优决策建议。

不过,Google开发的技术目前只针对自己的数据中心,未对外,不具有普适性。而华为iCooling作为对外发布的解决方案,为各家数据中心提供了最优解决方案。

基于软件化的AI解决方案是趋势,同样,在硬件效率的提升上业界也一直不遗余力。

各厂家在硬件上常选用更节能的压缩机和风机来提升空调末端效率,并有持续的投入,使得在这两部分上技术和性能都差异不大。但加湿系统的能耗往往容易被忽视。

通信机房要求湿度必须控制在50%±5%。以北方数据中心为例,空调系统全年耗电约有2%~3%的比例消耗在加湿系统上;如果数据中心制冷系统年耗电在1000万kwh,那么10年生命周期将有200~300万kwh的电费消耗在加湿系统上。

因此,数据中心除了在不间断使用的的制冷系统上进行节能减排措施外,也需要在加湿等温湿度及环境控制辅助耗电单元上进行优化设计,进一步降低日趋膨胀的数据中心能源消耗。

目前常用的内置式加湿有:红外加湿、电极加湿、湿膜加湿。

湿膜加湿的大致原理是,通过循环水泵将水箱中的水送到湿膜顶部布水器,水向下渗透,均匀地湿润湿膜表面,通过水蒸发增加空气的湿度。整个过程不需要耗费额外功率。

与红外加湿和电极加湿相比,湿膜加湿不必将热量转化为水蒸气,在改变空气湿度的同时还能降低温度,可大幅降低功耗,且维护方便,无需额外水处理设备。

湿膜加湿可以多节能?让我们来看一组统计数据。

这同样是来自华为的数据,在目前内置式加湿中,华为采用独有湿模式加湿技术,相比传统的加湿方式节能95%。

以上提到了2个华为的案例,也许有点出乎你的意料,都说华为的电信设备和手机做得好,在数据中心制冷系统领域,难道华为也是佼佼者?

答案是:Yes.

华为于2008年成立网络能源产品线,开始数据中心温控产品研发。十年来,华为温控产品线每年将销售收入的15%投入研发,已在全球设立三大空调研发中心,分别位于中国西安、深圳以及德国纽伦堡,现有温控研发工程师超过150人,提供全系列的自研数据中心温控解决方案。

根据ICTresearch的研报, 2016年和2017年华为行级温控在中国市场份额蝉联第一。

数据来源:ICTresearch 2018

不久前,中国移动2018年山西等五省新型空调末端系统集成补充采购项目结果揭晓,华为以33.32%的份额中标。

不断研发投入和技术创新以降低数据中心能耗,是华为的坚持,也是行业一致的追求。一直以来,业界都在不懈努力使得PUE值尽可能接近1。随着数据流量爆发,数据中心需求持续增长,提升能耗效率越来重要,相信行业将会带来更多的惊喜。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    12

    文章

    8103

    浏览量

    82485
  • 数据中心
    +关注

    关注

    15

    文章

    4176

    浏览量

    69927

原文标题:走进数据中心,揭秘你所不知道的能耗节省大法

文章出处:【微信号:hr_opt,微信公众号:网优雇佣军】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    数据中心UPS系统运行能耗优化探讨与应用

    的能效指标起到重要作用,当地市电的供电质量对UPS系统运行有重要的影响,灵活的UPS系统运行方式能大程度对数据中心能耗优化。 安科瑞薛瑶瑶 关键词:UPS;能效指标;设备选型;电源质量;能耗优化 一、前言 全国人大代表、中国信息
    的头像 发表于 04-11 15:36 101次阅读
    <b class='flag-5'>数据中心</b>UPS系统运行<b class='flag-5'>能耗</b>优化探讨与应用

    #mpo极性 #数据中心mpo

    数据中心MPO
    jf_51241005
    发布于 :2024年04月07日 10:05:13

    #mpo光纤跳线 #数据中心光纤跳线

    光纤数据中心
    jf_51241005
    发布于 :2024年03月22日 10:18:31

    浅析我国数据中心配电系统能耗及能效水平

    浅析我国数据中心配电系统能耗及能效水平 张颖姣 安科瑞电气股份有限公司 上海嘉定201801 摘要:伴随着互联网技术的深入全面发展,在“互联网+”的时代,信息化进程日益加快,我国数据中心的整体
    的头像 发表于 03-11 15:48 95次阅读
    浅析我国<b class='flag-5'>数据中心</b>配电系统<b class='flag-5'>能耗</b>及能效水平

    #MPO预端接 #数据中心机房 #机房布线

    数据中心MPO
    jf_51241005
    发布于 :2024年03月01日 11:12:47

    #永久链路 #信道测试 #数据中心

    数据中心
    jf_51241005
    发布于 :2024年02月23日 10:17:58

    #紧套光缆 #松套光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2024年01月26日 09:44:11

    数据中心变“绿“要点有哪些?

    数据中心作为一个复杂的系统,存储着大量敏感信息和重要数据,又是能耗“大户”,需要应对不断提升的“绿”电、节能要求,全面及时的检测维护对于数据中心尤为重要,
    的头像 发表于 01-25 11:12 339次阅读

    #光缆水峰 #综合布线光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2024年01月15日 09:43:26

    #预端接光缆 #24芯光缆 #数据中心

    数据中心光缆
    jf_51241005
    发布于 :2023年12月08日 11:01:21

    大模型时代,数据中心将转向何方?

    数据中心大模型
    脑极体
    发布于 :2023年11月22日 09:01:41

    综合能效管理系统为数据中心配电管理能耗

    摘要:2022年11月1日,国家标准《数据中心能效限定值及能效等级》在全国范围内强制实施。国家对数据中心能耗总量和能耗强度考核指标越来越严格,新建
    的头像 发表于 10-19 10:39 284次阅读
    综合能效管理系统为<b class='flag-5'>数据中心</b>配电管理<b class='flag-5'>能耗</b>

    浅析基于电力无线物联网建设的数据中心能耗管理研究及平台应用

    ; 能耗管理; 监测系统; 节能 0引言 数据中心PUE值应限制在1.3以下。 电力物联网技术的提出,为解决数据中心能耗管理可以为电力用户提供更高质量的服务。 本文首先分析了目前
    的头像 发表于 10-19 09:37 380次阅读
    浅析基于电力无线物联网建设的<b class='flag-5'>数据中心</b><b class='flag-5'>能耗</b>管理研究及平台应用

    分析打造“绿色低能耗数据中心”的可实施方案

    可能有很多人还不太明白能耗的管理为什么对数据中心来说如此重要,那首先来说因为数据中心拥有能量密集和高耗能的标签,耗能是很大的。所以,数据中心能耗
    的头像 发表于 07-13 17:00 328次阅读
    分析打造“绿色低<b class='flag-5'>能耗</b><b class='flag-5'>数据中心</b>”的可实施方案

    数据中心能耗采集装置的设计-安科瑞贾林杨

    摘要 本文系统介绍了一款数据中心精密电源配电柜用多回路能耗采集装置的设计方法。详细说明了设计原理、硬件构成以及软件设计的方法。以此方式设计的装置能够满足精密电源柜对多回路负载电量的集成化测量和安装
    的头像 发表于 04-25 15:33 352次阅读
    <b class='flag-5'>数据中心</b><b class='flag-5'>能耗</b>采集装置的设计-安科瑞贾林杨