0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一种新型数据中心液冷系统的实验研究

jf_86259660 来源:jf_86259660 作者:jf_86259660 2023-05-04 11:26 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

来源|Case Studies in Thermal Engineering

原文 |https://doi.org/10.1016/j.csite.2023.102925

01背景介绍

大型数据中心和其他大型计算基础设施由数千个机架组成,支持数万台服务器和其他电子设备。这些电子设备消耗大量的电力,产生大量的热量。2019年,数据中心消耗了约3%的全球电力。由于对数据中心的需求巨大,预计这一数字将以每年12%的速度增长。

在一个典型的直流系统中,冷却系统占总能量的40%。产生的热量可能会导致服务器过热,威胁到服务器的安全运行,如果不及时有效地散热,可能会导致服务器故障。此外,CPU的温度对功率有直接的影响。因此,适宜的CPU温度可以提供显著的节能效果。

风冷是最常用的冷却系统。风冷需要使用强大的风扇,并在电子设备之间提供空间,以放置笨重的散热器,并允许足够的气流。用于计算的电子设备不仅性能越来越好,还具有更大的功率,即最大理论负载下的功耗。因此,迫切需要改进目前的冷却解决方案。

02成果掠影

poYBAGRTJZiAIs-dAAJwx5g5ceA197.png

近年来,液冷作为传统风机强制风冷的补充或替代方法被引入电子设备机架。液冷直流系统最近成为重要的和流行的散热设备,并且液冷系统具有更好的传输特性,具有更优异的经济性。近期,

法国的Mohamad Hnayno教授,Ali Chehade教授和Chadi Maalouf教授介绍了在OVHcloud实验室

开发的一种新的单相浸入/液冷技术的实验研究,将直接到芯片的水冷系统与被动的单浸入冷却技术相结合。实验装置测试了三种介质流体(S5X, SmartCoolant和ThermaSafe R)的影响,水回路配置的影响,以及服务器的功率/配置。结果表明,该系统冷却需求取决于流体的粘度。当黏度从4.6 mPa s增加到9.8 mPa s时,冷却性能下降了约6%。此外,所有的IT服务器配置都在不同的进水温度和流速下进行了验证。在一个600千瓦的数据中心(DC)比较了本文的技术和OVHcloud之前使用的液冷系统的能源性能。与液冷系统相比,所提出的技术减少了至少20.7%的直流电力消耗。最后,在服务器层面对空气和液冷系统的冷却性能和所提出的解决方案进行了计算比较。使用该解决方案时,与风冷系统相比节能至少20%,与液冷系统相比节能至少7%。

研究成果以“Experimental investigation of a data-centre cooling system using a new single-phase immersion/liquid technique”为题发表于《Case Studies in Thermal Engineering》。

03图文导读

poYBAGRTJZyAc1koAAGywLyFGJQ833.png

图1.IC系统示意图。

pYYBAGRTJaCAObkuAAVVeRuA-E8142.png

图2.单相浸没/液冷技术架构。

poYBAGRTJaWAcyRTAAaNU4FNE9A681.png

图3.(a) IC IT机架(48台服务器),(b) 600kw IC集装箱。

pYYBAGRTJamAYo9cAAUh6rCG25E969.png

图4.(a) IC实验室实验装置方案,(b) IC实验装置照片。

pYYBAGRTJa2AaxaEAAGg-ckZSUU838.png

图5.在使用S5 X、SmartCoolant和ThermaSafe R流体时,(a) IC流体温度和(b) IT 温度在不同tc和流速下的变化。

表1.比较在OVHcloud实验DC中使用的风冷、液冷和浸泡/液冷服务器(服务器#4)。

poYBAGRTJbSAEqvrAAEYKjy7Pi4273.png

表2.AMD Socket SP3处理器的尺寸和导热系数。

pYYBAGRTJbiARK91AAEPYEJ9Fic841.png

审核编辑:汤梓红

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 服务器
    +关注

    关注

    13

    文章

    10096

    浏览量

    90902
  • 数据中心
    +关注

    关注

    16

    文章

    5527

    浏览量

    74661
  • 液冷
    +关注

    关注

    5

    文章

    146

    浏览量

    5682
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    电压放大器在芯片散热驱动液冷系统实验中的应用

    实验名称:面向电子芯片散热的压电驱动液冷系统集成实验研究 研究方向:针对高集成度电子芯片的散热需
    的头像 发表于 11-28 15:31 182次阅读
    电压放大器在芯片散热驱动<b class='flag-5'>液冷</b><b class='flag-5'>系统</b><b class='flag-5'>实验</b>中的应用

    曙光数创液冷方案助力数据中心绿色发展

    近期,“东数西算”工程绿色化实践广受关注。央视报道指出数据中心两大突破:是绿电使用占比显著提升,二是引入浸没式液冷系统后节能超30%。国家数据
    的头像 发表于 09-24 09:36 494次阅读

    数据中心液冷服务器该配什么样的 UPS 不间断电源?

    在当今数字化飞速发展的时代,数据中心就像是整个数字世界的心脏,承载着海量的数据存储与处理任务。而液冷服务器作为数据中心的核心设备之,因其高
    的头像 发表于 08-21 11:01 648次阅读
    <b class='flag-5'>数据中心</b><b class='flag-5'>液冷</b>服务器该配什么样的 UPS 不间断电源?

    聚焦液冷痛点:英特尔UQD互换性认证助力数据中心高效发展

    认证的技术创新之道,及其对降低数据中心运维复杂度、提升系统可靠性、助力液冷产业规模化的重要性。 英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立表示:“作为AI模型运行和硬件部署
    的头像 发表于 08-20 15:25 876次阅读

    曙光数创亮相2025亚洲数据中心峰会暨展览会

    、新代极智(冷板式)液冷数据中心整体解决方案以及相变间接液冷数据中心整体解决方案,现场引发广泛关注,成为展会焦点之
    的头像 发表于 07-22 09:51 669次阅读

    易飞扬浸没液冷延长器与硅光液冷光模块主题研究 ——液冷光互连技术的数据中心革命

    1.02-1.05,适用于超高密度算力集群。 • 冷板式液冷:适用于部分液冷改造场景,但散热效率低于浸没式。 • 硅光技术+液冷:硅光子(SiPh)可降低光模块功耗,结合液冷可进
    的头像 发表于 07-20 12:19 606次阅读
    易飞扬浸没<b class='flag-5'>液冷</b>延长器与硅光<b class='flag-5'>液冷</b>光模块主题<b class='flag-5'>研究</b>  ——<b class='flag-5'>液冷</b>光互连技术的<b class='flag-5'>数据中心</b>革命

    曙光数创推出液冷数据中心全生命周期定制新服务

    在AI 算力爆发式增长的当下,液冷技术已成为数据中心突破散热瓶颈、支撑高密度算力的必选项。但液冷服务落地面临着多重挑战:服务器选型难匹配、设计院经验与液冷需求脱节、
    的头像 发表于 06-13 14:45 1108次阅读

    海瑞思科技助力数据中心液冷分水器泄漏检测

    随着数据中心算力密度激增,液冷技术正加速普及进程。作为液冷系统的"循环心脏",分水器通过流道网路将冷却介质输送至每个计算单元。然而,其核心的焊接方管与多接口结构在制造过程中,易诱发细微
    的头像 发表于 05-21 09:28 741次阅读

    英特尔引领液冷革新,与壳牌共筑数据中心高效冷却新范式

    打造业界领先的浸没式液冷解决方案,为数据中心用户在AI时代构建可持续、高效液冷的发展路径。 在AI和计算能力飞速发展的当下,数据中心对强大基础设施的需求持续增长,随之而来的散热问题也愈
    的头像 发表于 05-16 10:14 460次阅读

    RAKsmart液冷技术如何实现PUE&lt;1.2的绿色数据中心

    传统数据中心因依赖风冷技术,能源使用效率(PUE)普遍在1.5以上,导致大量电力被用于散热而非计算本身。面对“双碳”目标与可持续发展的紧迫需求,RAKsmart凭借其创新的液冷技术,成功将数据中心的PUE降至1.2以下,为行业树
    的头像 发表于 05-15 09:58 634次阅读

    流量与压力传感:数据中心液冷的″智慧之眼″

    在数字化浪潮席卷全球的当下,数据中心作为数字世界的“心脏”,承担着海量数据的存储、处理与传输重任。随着服务器性能的不断提升,其产生的热量也呈指数级增长,高效可靠的冷却系统成为保障数据中心
    的头像 发表于 05-14 11:26 748次阅读
    流量与压力传感:<b class='flag-5'>数据中心</b><b class='flag-5'>液冷</b>的″智慧之眼″

    数据中心液冷技术和风冷技术的比较

    (Power Usage Effectiveness,电源利用效率)<1.2,而传统的风冷制冷方式已经无法满足数据中心的散热需求,更加高效的液冷方案应运而生。特别在人工智能领域,随着智算需求的爆发,液冷方案已经成为
    的头像 发表于 05-09 09:41 2820次阅读
    <b class='flag-5'>数据中心</b><b class='flag-5'>液冷</b>技术和风冷技术的比较

    宁畅亮相2025中国数据中心液冷技术大会

    日前,2025中国数据中心液冷技术大会在杭州落下帷幕,国内主流数据中心液冷技术企业齐聚堂,共同探讨“
    的头像 发表于 04-16 09:12 1155次阅读

    优化800G数据中心:高速线缆、有源光缆和光纤跳线解决方案

    一种经济高效的方式,实现更大的带宽传输。 800G有源光缆 800G有源光缆通过增加带宽、降低延迟并减少功耗来优化性能,非常适合去中心数据中心和云环境。此外,VCSEL与PAM4 DSP技术
    发表于 03-24 14:20

    施耐德电气即将亮相2025中国数据中心液冷技术大会

    以“液冷深融合”为主题,由CDCC与益企研究院共同主办的第三届中国数据中心液冷技术大会即将召开。会上将汇集多方数据中心行业的资深专家、
    的头像 发表于 03-21 16:47 2221次阅读