0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

数据中心冷却标准

jf_51241005 来源:jf_51241005 作者:jf_51241005 2024-05-31 11:23 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

众所周知,环境因素会严重影响数据中心设备。过多的热量积聚会损坏服务器,可能导致其自动关闭。经常在高于可接受的温度下运行服务器会缩短其使用寿命,并导致更频繁的设备更换。

不过,危险不仅仅在于高温。高湿度也会导致冷凝、腐蚀和灰尘等污染物堆积在数据中心的设备上。同时,低湿度会导致两个物体之间发生静电放电,从而损坏设备。

而经过适当校准的冷却系统可以防止这些问题,并让数据中心全天候保持正确的温度和湿度,从而最终会降低设备损坏造成的运营风险。因此,数据中心运营商可以通过一些方法确定数据中心所需的冷却标准。

数据中心冷却标准

例如,ASHRAE(美国采暖、制冷与空调工程师学会)制定并发布了数据中心的温度和湿度指南。最新版本根据设备分类概述了可以可靠运行数据中心的温度和湿度水平。

在最新的指南中,ASHRAE 建议 IT 设备应遵循以下使用方式:

温度在 18 至 27 摄氏度之间。

露点为 -9 至 15 C摄氏度。

相对湿度为60%。

确定 IT 设备的适当环境取决于其分类(A1 至 A4),该分类基于设备的类型及其运行方式,按敏感度降序排列。A1 设备是指需要最严格环境控制的企业服务器和其他存储设备。A4 级适用于 PC、存储产品、工作站和大容量服务器,允许的温度和湿度范围最广。

这些指南的先前版本侧重于可靠性和正常运行时间,而不是能源成本。为了与数据中心对节能技术和效率的日益关注保持一致,ASHRAE 开发了更好地概述环境和能源影响的课程。

审核编辑 黄宇

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据中心
    +关注

    关注

    16

    文章

    5518

    浏览量

    74651
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    技术资讯 I 数据中心能否承受高温运行?

    通常,当我们讨论面向数据中心的数字孪生软件时,会重点介绍工程师如何运用基于物理原理的仿真技术,通过我们的数据中心软件建立复杂热力学模型,为IT设备寻找高效的冷却方案。但从提高效能和节约成本的角度出发
    的头像 发表于 09-19 15:55 341次阅读
    技术资讯 I <b class='flag-5'>数据中心</b>能否承受高温运行?

    华为液冷热管理控制器TMU荣获“数据中心冷却创新奖”

    近日,W.Media 2025中东云计算和数据中心产业奖项在迪拜揭晓,华为液冷热管理控制器TMU凭借卓越的换热性能、前瞻的可靠性设计以及敏捷的智能运维能力,在众多冷却技术中脱颖而出,斩获“数据中心冷却创新奖”,充分彰显行业对华为
    的头像 发表于 09-16 15:19 1705次阅读

    Kao Data与Cadence合作验证数据中心间接蒸发冷却设计

    Kao Data 计划在占地 36 英亩的园区内建立四个数据中心,目前已完成其中一个,即 KDL1 数据中心,这是英国第一个 100% 自由冷却的大规模主机托管设施。该数据中心园区旨在
    的头像 发表于 06-11 10:43 823次阅读

    易华录参编的绿色数据中心评价国家标准发布

    近日,我国首部数据中心绿色化评价方面国家标准《绿色数据中心评价》正式实施,标志着在国家层面绿色数据中心评价有标可依,为我国数据中心的绿色低碳
    的头像 发表于 06-07 09:57 862次阅读

    数据中心都在用的差分晶振,看完你就懂了

    数据中心
    FCom富士晶振
    发布于 :2025年05月30日 13:12:30

    数据中心冷却技术的发展趋势

    预计到2025年,全球发电量将达到26,787TWh,其中数据中心和加密货币将消耗约536TWh,约占全球总发电量的2%[1],[2]。按照目前的趋势,数据中心的电力消耗到2030年很可能达到甚至超过1,000TWh,接近全球总电力消耗的5%。
    的头像 发表于 05-15 13:38 819次阅读

    ​ 尼得科从5月开始量产AI数据中心新型冷却系统产品——行间式(In Row式)大型CDU

    GPU和CPU发热量增加趋势的影响,对更高性能且高效率冷却系统的需求不断增加。本产品是一种可以同时冷却多台装有GPU、CPU的AI服务器机架的CDU,是尼得科为提高未来数据中心冷却效率而推出的新型解决方案产品。通过将本产品装配到
    的头像 发表于 04-27 15:43 586次阅读
    ​  尼得科从5月开始量产AI<b class='flag-5'>数据中心</b>新型<b class='flag-5'>冷却</b>系统产品——行间式(In Row式)大型CDU

    ST电机控制方案如何为数据中心等高功率冷却系统“降温增效”

    数据中心、暖通空调(HVAC)以及电池储能系统(BESS)飞速发展的当下,高功率冷却系统的重要性愈发凸显。作为这些系统的关键一环,电机控制技术的优劣直接影响着冷却效率与能耗。为解决这些痛点,ST
    的头像 发表于 04-18 09:24 1633次阅读
    ST电机控制方案如何为<b class='flag-5'>数据中心</b>等高功率<b class='flag-5'>冷却</b>系统“降温增效”

    华为亮相2025数据中心冷却高峰论坛(长三角)

    此前,2025年4月2—3日,由中国制冷学会主办的2025数据中心冷却高峰论坛(长三角)在上海成功举办。本次论坛汇聚数据中心行业精英领袖、技术专家、高校学者等,聚焦智算时代数据中心前沿制冷技术和创新
    的头像 发表于 04-08 14:25 1275次阅读

    适用于数据中心和AI时代的800G网络

    随着人工智能(AI)技术的迅猛发展,数据中心面临着前所未有的计算和网络压力。从大语言模型(LLM)训练到生成式AI应用,海量数据处理需求推动了网络带宽的快速增长。在此背景下,800G网络技术应运而生
    发表于 03-25 17:35

    优化800G数据中心:高速线缆、有源光缆和光纤跳线解决方案

    和抗压性,并支持100G/400G/800G升级,是当前800G数据中心布线的理想选择。此外,US Conec MTP®连接器完全符合MPO标准,相较于普通MPO连接器,性能更优。 Uniboot
    发表于 03-24 14:20

    Molex莫仕助力数据中心浸没式冷却系统未来发展

    伴随数据中心规模的日益扩大,算力需求不断增加,传统空气冷却方法愈发力不从心。浸没式冷却(将硬件浸入介质液体中)提供了更有效的热管理方法。然而,这种技术也带来了独特的挑战,特别是在材料兼容性、温升(T-rise)和互连设计等方面。
    的头像 发表于 03-17 15:05 906次阅读

    数据中心中温冷源供应系统

    数据中心冷源供应系统设计说明 在建筑一层设置冷冻站为数据中心供应中温冷冻水,一层设置两套制冷系统。每套制冷系统设计采3869KW变频离心式水冷冷水机组2+1台,为了实现系统最大节能效果,每合冷水机组
    的头像 发表于 02-26 14:35 599次阅读
    <b class='flag-5'>数据中心</b>中温冷源供应系统

    数据中心机房冷水系统

    如需了解详细产品资料、配置方案、产品价格、产品技术参数;       依据自身情况选择冷却技术 数据中心在选择冷却技术时,不能盲目跟风,而要充分考虑自身的实际情况。规模较小、功率密度较低的数据
    的头像 发表于 02-24 13:52 592次阅读
    <b class='flag-5'>数据中心</b>机房冷水系统

    亚马逊云科技发布全新数据中心组件

    近日,亚马逊云科技宣布了一项重大创新,推出了一系列全新的数据中心组件。这些组件旨在满足新一代人工智能(AI)创新的需求,并帮助客户应对日益复杂且多变的应用场景。 亚马逊云科技通过对电源、冷却以及硬件
    的头像 发表于 12-24 15:05 813次阅读