0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

兰洋科技为联通部署浸没式液冷可移动高密度绿色数据中心投入使用,运行稳定

爱云资讯 2024-07-22 17:17 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

随着算力产业及通信网络的快速发展,硬件不断更新升级,设备集成度及单机柜功率密度显著提高,在当前算力需求急剧增长和能效要求日益严苛的背景下,三大运营商积极响应国家绿色、节能、低碳政策要求,推动建立并完善数据中心液冷技术生态系统,通过寻找高效的液冷解决方案,以应对数据中心日益严峻的能耗和散热问题。

以位于河北石家庄的联通浸没式液冷可移动集装箱式高密度绿色数据中心为例,联通在推动液冷行业业内实践及应用落地的过程中,与兰洋科技进行了深入的技术交流与合作探讨。基于对液冷技术的共同理解和认可,兰洋科技团队在针对项目应用场景及应用需求的深入评估后,为联通提供了一个创新且高效的解决方案:远程部署浸没式液冷可移动集装箱式高密度绿色数据中心。

wKgZomaeI5aAAk0pAAFhL8kCqK4185.jpg

浸没式液冷可移动集装箱式高密度绿色数据中心

为联通使用场景量身打造的浸没式液冷可移动集装箱式高密度绿色数据中心,在灵活扩容、安全可靠的前提下,由专业的结构、热控、材料、电子工程师团队主导,采用了兰洋科技自主研发的液冷材料和浸没式液冷散热系统。结合成熟的系统设计和管路布局,有效解决了高密度散热难题。此项目方案突破了液冷材料、复杂密封结构设计、系统集成与模块化设计上的诸多挑战与难点,在确保整体散热效率和系统可靠性、扩展性的同时,为迫切需要高效散热解决方案且空间有限的应用环境实现了液冷应用示范。

浸没式液冷集装箱项目亮点及创新点

(1)BO系列冷却液,安全可靠

在冷却液的选择上,该项目采用了兰洋科技自研BO系列导热液,具有更高的热交换效率,拥有8—10年使用寿命,原料已完全国产化,为散热系统长期稳定运行提供保障,在核心攻关技术问题上完成了国产化替代的同时,也为行业输送了不同应用场景下的一系列优秀液冷工质。液冷材料和浸没式液冷散热系统不仅有效解决了高密度散热难题,还通过成熟的散热系统设计,确保了整体散热效率和可靠性。

wKgaomaeI5aAIy0uAAYnAfHmDMM056.png

服务器浸没在兰洋科技BO系列导热液中稳定运行

(2)多项关键核心零部件及创新设计

该解决方案整体设计中,包含了多项关键核心零部件及创新设计,其代表了领先的整体散热解决方案设计能力,及产业化能力。这些关键核心零部件及产业链上游设计能力对于未来几年算力产业和高效绿色液冷数据中心的发展都将起到关键的推动作用。

(3)自主研发技术,散热精准高效

采用自主研发生产的浸没式卧柜设计,具有可靠良好的换热性能和创新的密封结构,可以兼容90%以上服务器;

包含了多项关键核心零部件及创新设计,其代表了兰洋科技领先的整体散热解决方案设计能力,及产业化能力。这些关键核心零部件及产业链上游设计能力对于未来几年算力产业和高效绿色液冷数据中心的发展都将起到关键的推动作用;

作为应用示范案例的关键设计之一,领先的CDU设计思路也是整套设计方案的亮点之一:CDU采用自主设计,并配备有1+1冗余动力泵,精准控制,可对超多散热节点联合部署。

(4)系统集成密度高,模块化部署

项目采用一体式设计的集装箱模块化部署方式,显著缩短了部署周期,可实现8-10天快速部署。同时具备优异的可扩展性和灵活性,可根据实际需求在室外部署并实现快速扩容,安装方便快捷,配合性高。

在设备部署密度提升上,液冷技术使得数据中心内部的设备可以更加紧凑地排列,实现了服务器部署数量的增加。这种密集部署可以提高数据中心的总体计算能力,进而提高资源利用率和经济效益。

wKgZomaeI5aAFsqVAAHHVO_TgOg025.jpg

浸没式液冷可移动高密度绿色数据中心吊装

(5)降低能耗及成本,提高经济效益

在能源效率提升方面,浸没式液冷散热大幅减少了数据中心运行能耗;在节能减排方面,通过减少能源消耗,绿色高密度液冷数据中心可以显著降低碳排放量。

以联通此次液冷集装箱部署地河北为例,本次通过整体的换热系统设计,全年有2个月以上无须依靠一次侧冷源,极大地降低全年综合能耗及数据中心运营成本。

目前联通液冷集装箱项目已部署完成40英尺集装箱内320U的高密度容量并投入使用,80台服务器支持最大550 kW的计算功耗。项目运行稳定,各项数据表现良好。

252U服务器部署后30天内,中央处理器平均温度基本稳定在62±2℃以内,GPU平均温度基本稳定在61±2℃以内,两种硬件之间的平均温差约为4℃,进一步体现了设备运行的稳定性和温度控制的有效性。本项目采用兰洋科技浸没式单相液冷技术,能源使用效率指标实现全年运行PUE值1.1,pPUE值低至1.03,每年节电600万kW·h。

通过兰洋科技针对此项目的方案设计和技术应用,不仅在高效散热和能效利用方面达到了行业领先水平,也在系统可靠性、安全性和扩展性方面建立了新的标准。不仅为中国联通强大的数据处理能力提供了支撑,也为整个行业展示了如何在满足日益增长的数据处理需求的同时,实现能源使用的优化和环境影响的最小化。

wKgaomaeI5aAf-GoAAEAHvkbO8A450.jpg

浸没式液冷可移动高密度绿色数据中心内部

兰洋科技的液冷散热解决方案可够针对不同散热场景进行定制化调整,有较强的可复制性,现已在全国多个城市落地,并广泛应用于教育、云游戏、通信基站、人工智能等领域。未来兰洋科技将依托“液冷集装箱数据中心”等液冷产品,以创新为驱动力,携手行业伙伴共谋绿色发展之路,为行业数字化转型奠定基础。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 数据中心
    +关注

    关注

    16

    文章

    5515

    浏览量

    74649
  • 散热系统
    +关注

    关注

    0

    文章

    69

    浏览量

    10794
  • 液冷
    +关注

    关注

    5

    文章

    146

    浏览量

    5682
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    高密度光纤布线:未来的数据通信解决方案

    数据中心、电信基础设施和大型网络每天都面临着不断增长的数据处理和存储需求。需要更快、更可靠和更高效的解决方案来满足这些需求,这就是高密度光纤布线技术发挥作用的地方。这些布线解决方案节省了网络基础设施
    的头像 发表于 12-02 10:28 121次阅读

    ‌MMC光纤连接系统:推动AI数据中心高密度互联的技术解析

    Molex MMC线缆组件有助于数据中心优化空间和密度,以满足AI驱动的要求,并采用超小尺寸 (VSFF) 设计,在相同占位面积内实现更高密度。106292系列线缆组件每个连接器有16或24根光纤
    的头像 发表于 11-17 11:23 383次阅读

    曙光数创液冷方案助力数据中心绿色发展

    近期,“东数西算”工程绿色化实践广受关注。央视报道指出数据中心两大突破:一是绿电使用占比显著提升,二是引入浸没液冷系统后节能超30%。国家
    的头像 发表于 09-24 09:36 483次阅读

    易飞扬浸没液冷延长器与硅光液冷光模块主题研究 ——液冷光互连技术的数据中心革命

    1.02-1.05,适用于超高密度算力集群。 • 冷板式液冷:适用于部分液冷改造场景,但散热效率低于浸没。 • 硅光技术+
    的头像 发表于 07-20 12:19 600次阅读
    易飞扬<b class='flag-5'>浸没</b><b class='flag-5'>液冷</b>延长器与硅光<b class='flag-5'>液冷</b>光模块主题研究  ——<b class='flag-5'>液冷</b>光互连技术的<b class='flag-5'>数据中心</b>革命

    浸没液冷数据中心的发展历程与应用现状

    浸没液冷是最彻底的液冷方案,将整台服务器乃至整个机柜完全浸泡在绝缘冷却液中,实现所有元件同时冷却。浸没冷却因其极高的传热效率和对超高功率
    的头像 发表于 07-18 14:04 1326次阅读

    曙光数创推出液冷数据中心全生命周期定制新服务

    在AI 算力爆发式增长的当下,液冷技术已成为数据中心突破散热瓶颈、支撑高密度算力的必选项。但液冷服务落地面临着多重挑战:服务器选型难匹配、设计院经验与
    的头像 发表于 06-13 14:45 1106次阅读

    高密度配线架和中密度的区别

    高度)集成数百个光纤或铜缆端口(如MPO高密度配线架支持1U/96芯以上)。 空间利用率:通过模块化设计(如MPO连接器集成多芯光纤)和紧凑结构,显著提升机柜空间利用率,适合数据中心等对空间敏感的场景。 中
    的头像 发表于 06-13 10:18 610次阅读

    英特尔引领液冷革新,与壳牌共筑数据中心高效冷却新范式

    打造业界领先的浸没液冷解决方案,数据中心用户在AI时代构建持续、高效
    的头像 发表于 05-16 10:14 455次阅读

    RAKsmart液冷技术如何实现PUE&lt;1.2的绿色数据中心

    传统数据中心因依赖风冷技术,能源使用效率(PUE)普遍在1.5以上,导致大量电力被用于散热而非计算本身。面对“双碳”目标与可持续发展的紧迫需求,RAKsmart凭借其创新的液冷技术,成功将数据中心的PUE降至1.2以下,
    的头像 发表于 05-15 09:58 622次阅读

    流量与压力传感:数据中心液冷的″智慧之眼″

    在数字化浪潮席卷全球的当下,数据中心作为数字世界的“心脏”,承担着海量数据的存储、处理与传输重任。随着服务器性能的不断提升,其产生的热量也呈指数级增长,高效可靠的冷却系统成为保障数据中心稳定
    的头像 发表于 05-14 11:26 738次阅读
    流量与压力传感:<b class='flag-5'>数据中心</b><b class='flag-5'>液冷</b>的″智慧之眼″

    施耐德电气发布数据中心高密度AI集群部署解决方案

    在人工智能(AI)驱动的产业革命浪潮中,数据中心正迎来深刻变革。面对迅猛增长的人工智能算力需求,部署高密度AI集群已成为数据中心发展的必然选择。
    的头像 发表于 04-19 16:54 1244次阅读
    施耐德电气发布<b class='flag-5'>数据中心高密度</b>AI集群<b class='flag-5'>部署</b>解决方案

    光纤高密度odf是怎么样的

    、模块化、以及便捷的跳纤操作,适用于数据中心、电信网络、企业网络等需要大规模光纤管理的场景。 高密度ODF的特点 高密度设计 节省空间:高密度ODF支持大量光纤的集中管理,减少了设备占
    的头像 发表于 04-14 11:08 1440次阅读

    优化800G数据中心:高速线缆、有源光缆和光纤跳线解决方案

    和800G OSFP XDR8光模块直连设计。MTP/MPO布线解决方案数据中心提供了高密度、可靠性和灵活性,可用于核心层、脊架构和叶架构之间的连接。该线缆还具备即插即用、易于管理、出色的抗弯曲
    发表于 03-24 14:20

    Molex莫仕解读高密度连接器助力构建更智能的数据中心扩展

    随着超大规模数据中心的迅速崛起,其复杂性与日俱增。高密度光连接器逐渐成为提升整体资源效率的核心关键,旨在助力实现更快部署、优化运营并确保基础设施在未来继续保持领先。 市场研究机构Synergy
    发表于 02-25 11:57 1271次阅读

    首个液冷整机柜服务器行业标准发布,科技核心参编!

    近日,在工信部发布的2024年第28号文件中,由中国信通院牵头制定,超聚变、中国电信、中国联通、中国移动科技等单位核心参编的《冷板式液冷
    的头像 发表于 12-16 14:30 898次阅读
    首个<b class='flag-5'>液冷</b>整机柜服务器行业标准发布,<b class='flag-5'>兰</b><b class='flag-5'>洋</b>科技核心参编!