0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据中心冷却技术的发展趋势

贸泽电子 来源:贸泽电子 2025-05-15 13:38 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

数据中心与能源消耗

预计到2025年,全球发电量将达到26,787TWh,其中数据中心和加密货币将消耗约536TWh,约占全球总发电量的2%。按照目前的趋势,数据中心的电力消耗到2030年很可能达到甚至超过1,000TWh,接近全球总电力消耗的5%。

如今,全球电力供应仍主要依赖煤炭、天然气、石油等非可再生能源,但随着数字化转型步伐越来越快,电力需求将会越来越高,因此必须提升可再生能源发电量来为这些技术提供支持,同时还要提高这些应用场景的能源利用效率。

在超大规模数据中心〔包括运行人工智能AI)和高性能计算(HPC)工作负载的数据中心〕中,电子设备冷却是一个耗电量非常大的领域。各类AI和HPC部署对冷却的要求高低不一、差异巨大,但通常都需要长时间持续工作,而且它们的功率密度可能高达常规数据中心服务器应用的10倍以上。能源的价格正持续上涨,但电力供应却难以跟上,因此提高数据中心冷却效率已成为近年来值得关注的焦点问题。

一些新建的数据中心采用了与可再生能源发电设施同步建设的方式,旨在利用这些可再生能源为数据中心供电。从能源使用的角度来看,这种做法非常经济高效,但冷却技术带来的工作能耗需求仍然很高,足以大幅推高此类项目的初始资本成本。

业界专家设计了许多创新方法,将数据中心转型为更节能的平台,例如在沿海地区部署全浸没在水下的数据中心舱。然而,美国传统的数据中心通常建在气候干旱的偏远地区。廉价土地的充足供应、较少的监管限制以及优惠的税收政策,使这些地区成为了理想的数据中心选址地点,但代价就更高的冷却需求以及有限或昂贵的水资源供应。

本文将探讨当今数据中心设施的冷却方法,以及未来有望改变电子设备冷却行业的新技术。

01数据中心冷却技术的发展趋势

超高密度数据中心的机架功率密度已从不到10kW上升到某些情况下超过100kW。在如此高的功率密度面前,大家普遍认为风冷技术无法满足要求,而且效率过低,难以和液冷技术竞争。在这些方法中,单相直接芯片(DTC)液冷技术在亟需更高效冷却方法的市场中具备优势。

DTC技术在冷却主要处理硬件方面已经颇为成熟并且高效。然而,这种方法往往无法顾及网络、内存和存储等硬件芯片,致使它们只能采用风冷。而单相或两相浸没式冷却就是解决这一问题的潜在方案。在浸没式冷却中,整个数据中心机架都浸没在具有良好热传导性能的绝缘液体中,从而有效地将电子元器件产生的热量传递至液体中,随后通过热交换器(单相)或蒸汽与冷凝管理系統(双相)实现高效冷却。后门热交换器也正在逐渐普及,尤其是在改造风冷为主的传统数据中心的场景中。

风冷的前期成本非常低,而DTC和浸没式冷却则属于成本高、复杂的冷却方式之一。对于资金充裕、盈利预期良好的新建数据中心而言,液冷方案显然是理想选择。然而,在高昂的前期成本面前,一些老旧数据中心甚至某些新建项目仍在依赖采用传统空调技术、效率低下的风冷系统。部分地区的监管要求可能会限制此类低效冷却技术的应用,但运营成本上升带来的经济压力更可能促使数据中心放弃传统风冷方案。目前,通过优化风扇布局、机架位置以及气流设计等手段,已经可以显著提升系统效率、降低成本。

浸没式冷却技术有望成为一种非常高效、可持续的冷却技术,尤其是考虑到该技术能够应对非常高的热密度。根据估计,与传统风冷相比,浸没式冷却技术可将数据中心的冷却能耗降低达90%。随着AI和HPC领域的新技术推动机架功率密度不断提高,这项冷却技术有望进一步得到普及。不过,由于浸没式冷却还是一项比较新的技术,其基础设施的供应暂时还无法跟上数据中心大规模部署的步伐。然而,随着越来越多浸没式冷却企业涌现,并从数据中心的大规模投资中获利,这一状况在未来几年内有望改变。

液冷方法(尤其是浸没式冷却)的另一项潜在优势,在于它能够将废热收集起来,为游泳池、学校、商业区、室内园艺设施、废弃物处理、化学加工/精炼等应用领域供热;废热甚至还可以供应给热能储存系统,这些系统可根据用电需求将废热转化为电能。

02数据中心冷却技术的未来

新技术的发展,对AI和HPC的响应速度提出了更高的要求,因而需要将它们部署在更接近终端用户的位置,这与上文讨论的限制因素叠加在一起,构成了更大的挑战。越来越多的应用场景都开始采用AI、虚拟现实(VR)、增强现实(AR)和自动化功能,它们都需要毫秒级的响应时间,所以必须部署在靠近用户的地方。而大多数此类终端应用场景都位于人口稠密的城市地区,要想在这里建设更多数据中心,势必要面临房租贵、空间小、污染和用水限制严格、供电容量不足等问题。在空间受限的前提下,要实现数据中心的性能目标,就必须在密度上做文章了。

因此,数据中心机架的功率密度将会不断提高,比如一个晶圆级AI处理器的功耗就可能高达数十千瓦;然而冷却技术却滞后于数据中心的增长和扩张。随着越来越多AI和HPC技术得到部署,以及云基础设施为了满足日益增长的需求而不断扩展,这种趋势只会进一步恶化。

对数据中心运营商来说,摆在他们面前的一项艰巨任务,就是彻底改造传统风冷系统,并将液冷技术融入到新的数据中心设计中。毕竟,对正在运行的数据中心进行任何环境改动,都伴随着巨大的风险和复杂的运维工作。因此,在资金充足的情况下,运营商为了适应新变化,都更倾向于从头开始建设新的数据中心,而不是改造现有的数据中心。随着电子设备冷却行业不断并购,数据中心运营商与冷却企业之间的合作日益增多,这将促进先进冷却技术的普及。

要追赶这一趋势,需要使用更严谨的传感、分析和优化方案。传统的算法冷却控制系统可能会被更先进的冷却优化技术(包括AI)所取代,以协调数据中心内可能存在的数以万计的传感器和冷却装置。而实现优化的方式之一,是借助先进的监控和分析技术,让数据中心能够运行在高于传统目标值的温度下,同时又能够确保没有任何硬件的温度达到导致性能下降的程度。

结语

目前,风冷仍占据数据中心冷却的主导地位,但在不久之后,改造和新建的数据中心就会开始采用风冷/液冷混合技术,而未来的数据中心或超高密度数据中心将会采用先进的液冷技术。为了实现这样的目标,DTC必须进一步提高可靠性,因为即使是几秒钟的DTC故障,也可能导致服务器长时间停机或损坏。浸没式冷却技术可以满足这一可靠性需求,而且能够实现更高的功率密度,但其代价是复杂性增加,以及需要更专业的安装和维护。

未来,机架功率密度将会超过100kW乃至300kW,工程师在考虑散热问题时不能只局限于机架。如何将冷却过程中产生的多余热能加以收集利用,将变得愈发关键,尤其是在许多政府和机构正寻求立法,要求数据中心实现显著的可持续性水平的背景下。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 冷却
    +关注

    关注

    0

    文章

    47

    浏览量

    18311
  • 数据中心
    +关注

    关注

    16

    文章

    5538

    浏览量

    74686

原文标题:AI与HPC:数据中心冷却技术的发展和未来展望

文章出处:【微信号:贸泽电子,微信公众号:贸泽电子】欢迎添加关注!文章转载请注明出处。

收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    技术资讯 I 数据中心能否承受高温运行?

    通常,当我们讨论面向数据中心的数字孪生软件时,会重点介绍工程师如何运用基于物理原理的仿真技术,通过我们的数据中心软件建立复杂热力学模型,为IT设备寻找高效的冷却方案。但从提高效能和节约
    的头像 发表于 09-19 15:55 361次阅读
    <b class='flag-5'>技术</b>资讯 I <b class='flag-5'>数据中心</b>能否承受高温运行?

    华为液冷热管理控制器TMU荣获“数据中心冷却创新奖”

    近日,W.Media 2025中东云计算和数据中心产业奖项在迪拜揭晓,华为液冷热管理控制器TMU凭借卓越的换热性能、前瞻的可靠性设计以及敏捷的智能运维能力,在众多冷却技术中脱颖而出,斩获“数据
    的头像 发表于 09-16 15:19 1750次阅读

    物联网未来发展趋势如何?

    ,人们才会更加信任和接受物联网技术。 综上所述,物联网行业的未来发展趋势非常广阔。智能家居、工业互联网、智慧城市、医疗保健以及数据安全和隐私保护都将成为物联网行业的热点领域。我们有理由相信,在不久的将来,物联网将进一步改变我们
    发表于 06-09 15:25

    数据中心液冷技术和风冷技术的比较

    近年来,随着数字经济的蓬勃发展数据中心建设规模不断扩大,导致机房单位面积功耗居高不下,对数据中心散热制冷技术提出了更高的要求。同时,根据国家对数据
    的头像 发表于 05-09 09:41 2910次阅读
    <b class='flag-5'>数据中心</b>液冷<b class='flag-5'>技术</b>和风冷<b class='flag-5'>技术</b>的比较

    ​ 尼得科从5月开始量产AI数据中心新型冷却系统产品——行间式(In Row式)大型CDU

    GPU和CPU发热量增加趋势的影响,对更高性能且高效率冷却系统的需求不断增加。本产品是一种可以同时冷却多台装有GPU、CPU的AI服务器机架的CDU,是尼得科为提高未来数据中心冷却效率
    的头像 发表于 04-27 15:43 609次阅读
    ​  尼得科从5月开始量产AI<b class='flag-5'>数据中心</b>新型<b class='flag-5'>冷却</b>系统产品——行间式(In Row式)大型CDU

    ST电机控制方案如何为数据中心等高功率冷却系统“降温增效”

    数据中心、暖通空调(HVAC)以及电池储能系统(BESS)飞速发展的当下,高功率冷却系统的重要性愈发凸显。作为这些系统的关键一环,电机控制技术的优劣直接影响着
    的头像 发表于 04-18 09:24 1675次阅读
    ST电机控制方案如何为<b class='flag-5'>数据中心</b>等高功率<b class='flag-5'>冷却</b>系统“降温增效”

    华为亮相2025数据中心冷却高峰论坛(长三角)

    此前,2025年4月2—3日,由中国制冷学会主办的2025数据中心冷却高峰论坛(长三角)在上海成功举办。本次论坛汇聚数据中心行业精英领袖、技术专家、高校学者等,聚焦智算时代数据中心前沿
    的头像 发表于 04-08 14:25 1292次阅读

    工业电机行业现状及未来发展趋势分析

    引言:工业电机行业作为现代制造业的核心动力设备之一,具有广阔的发展前景和巨大的市场潜力。随着技术的不断进步和市场需求的持续增长,工业电机行业将迎来更多的发展机遇和挑战。以下是中研网通过大数据
    发表于 03-31 14:35

    适用于数据中心和AI时代的800G网络

    随着人工智能(AI)技术的迅猛发展数据中心面临着前所未有的计算和网络压力。从大语言模型(LLM)训练到生成式AI应用,海量数据处理需求推动了网络带宽的快速增长。在此背景下,800G网
    发表于 03-25 17:35

    华为全新升级星河AI数据中心网络

    在华为中国合作伙伴大会2025期间,以 “星河AI数据中心网络,赋AI时代新动能”为主题的数据中心网络分论坛圆满落幕。本次论坛汇聚了来自全国的300多位客户和伙伴,共同探讨数据中心网络的发展趋
    的头像 发表于 03-24 14:46 871次阅读

    Molex莫仕助力数据中心浸没式冷却系统未来发展

    伴随数据中心规模的日益扩大,算力需求不断增加,传统空气冷却方法愈发力不从心。浸没式冷却(将硬件浸入介质液体中)提供了更有效的热管理方法。然而,这种技术也带来了独特的挑战,特别是在材料兼
    的头像 发表于 03-17 15:05 919次阅读

    数据中心发展与改造

    全球多数数据中心基础设施已超六年,能耗高而效率低。随着AI的发展,企业正致力于整合与提升能效的现代化改造。同时数据中心呈现规模化、高密化、绿色化发展趋势。19821800313 一、目
    的头像 发表于 02-28 16:50 757次阅读
    <b class='flag-5'>数据中心</b><b class='flag-5'>发展</b>与改造

    数据中心中温冷源供应系统

    数据中心冷源供应系统设计说明 在建筑一层设置冷冻站为数据中心供应中温冷冻水,一层设置两套制冷系统。每套制冷系统设计采3869KW变频离心式水冷冷水机组2+1台,为了实现系统最大节能效果,每合冷水机组
    的头像 发表于 02-26 14:35 626次阅读
    <b class='flag-5'>数据中心</b>中温冷源供应系统

    数据中心机房冷水系统

    如需了解详细产品资料、配置方案、产品价格、产品技术参数;       依据自身情况选择冷却技术 数据中心在选择冷却
    的头像 发表于 02-24 13:52 607次阅读
    <b class='flag-5'>数据中心</b>机房冷水系统

    华为发布2025数据中心能源十大趋势

    今日,华为举办2025数据中心能源十大趋势发布会,华为数据中心能源领域总裁尧权全面解读数据中心能源十大趋势,为AI时代
    的头像 发表于 01-14 10:24 888次阅读