0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

TeamGroup发布首款液冷散热SSD 可降低10℃

454398 来源:工程师吴畏 2019-07-29 09:25 次阅读
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

M.2 SSD发热量越来越大,散热手段也不断升级,散热片越来越复杂、高级,有的甚至用上了热管、风扇,如今终于走到了水冷这一步。

Team Group最新发布的T-Force Cardea Liquid M.2就是目前已知第一款用上水冷(严格来说叫液冷)散热的SSD,不过比较简单,是个封闭式系统,内部分为两个腔室,紧挨闪存芯片、主控腔室内的液体被加热后,流到第二个腔室(外有铝质散热片),温度降低后返回,如此往复循环。

由于没有外接冷排之类的装置,实际散热效果不但要取决于冷却液,还要看散热片和周围环境。

官方宣称,用上水冷之后,SSD的温度可降低10℃。

另外需要注意的是,这款SSD出厂时没有冷却液,需要用户自行添加。

同时也要特别小心与X570主板的兼容性,因为该主板基本都有主动风扇散热,Team Group也贴心地给出了一份名单:

规格方面,这款M.2 2280 SSD使用群联PS5012-E12主控、不知来源3D TLC闪存,支持PCIe 3.0 x4、NVMe 1.3、SLC缓存加速,容量256GB、512GB、1TB,持续读写速度3GB/s、1-3GB/s,随机读写速度200-450K IOPS、200-400K IOPS。

最大写入量380TB、800TB、1665TB,平均故障间隔时间200万小时,质保时间3年,平均每天1.4-1.5次全盘写入。

价格没说,但作为一款“划时代”的产品,必然不会便宜。

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • SSD
    SSD
    +关注

    关注

    21

    文章

    3061

    浏览量

    121784
  • 液冷
    +关注

    关注

    5

    文章

    146

    浏览量

    5682
收藏 人收藏
加入交流群
微信小助手二维码

扫码添加小助手

加入工程师交流群

    评论

    相关推荐
    热点推荐

    电压放大器在芯片散热驱动液冷系统实验中的应用

    实验名称:面向电子芯片散热的压电驱动液冷系统集成实验研究 研究方向:针对高集成度电子芯片的散热需求,设计并验证一种基于压电驱动的新型热交换系统。研究通过优化压电微泵的结构参数提升其驱动性能,并采用
    的头像 发表于 11-28 15:31 171次阅读
    电压放大器在芯片<b class='flag-5'>散热</b>驱动<b class='flag-5'>液冷</b>系统实验中的应用

    液冷散热时代:AI服务器如何重构磁元件设计

    随着AI服务器功率密度的快速提升,传统的风冷散热方案在热管理方面逐渐面临挑战。在此背景下,液冷散热技术正加速应用于数据中心,特别是高算力的AI集群中。 这一散热方式的变革,并不仅仅是冷
    的头像 发表于 11-21 11:42 176次阅读
    <b class='flag-5'>液冷</b><b class='flag-5'>散热</b>时代:AI服务器如何重构磁元件设计

    英特尔携本地生态伙伴发布双路冷板式全域液冷服务器,引领数据中心散热与能效革新

    服务器。该创新方案由全本地生态赋能,实现了关键热源的高比例液冷覆盖,在提升可靠性与能效的同时,显著降低能耗与运维成本,为数据中心散热与能效树立全新标杆。
    发表于 11-19 21:21 1176次阅读
    英特尔携本地生态伙伴<b class='flag-5'>发布</b>双路冷板式全域<b class='flag-5'>液冷</b>服务器,引领数据中心<b class='flag-5'>散热</b>与能效革新

    忆联商用消费级QLC SSD AE531深度评测

    近日,深耕存储及硬件领域的专业评测机构PCEVA对忆联QLC商用消费级SSD AE531展开了深度评测。结果显示,AE531在性能以及各项测试上的成绩均超越同级表现。同时,务实的SLC缓存策略、跨平台兼容性与60℃满载无降速
    的头像 发表于 11-07 11:02 1596次阅读
    忆联<b class='flag-5'>首</b><b class='flag-5'>款</b>商用消费级QLC <b class='flag-5'>SSD</b> AE531深度评测

    如何通过优化电能质量在线监测装置的散热系统来降低功耗?

    风扇本身的电力消耗。以下是具体落地的优化方向及措施: 一、优化散热介质与导热路径:提升散热效率,减少风扇依赖 散热介质(如散热器、导热材料
    的头像 发表于 11-05 11:54 109次阅读

    伟创力重磅发布全球面向千兆瓦级数据中心的AI基础设施平台

    伟创力重磅发布全球面向千兆瓦级数据中心的AI基础设施平台,平台集成了电源和冷却产品、计算能力和服务,专为AI和高性能计算而设计,帮助数据中心运营商将部署速度提升高达30%,大幅降低
    的头像 发表于 10-23 15:08 597次阅读

    液冷板:液冷技术的关键角色

    电子发烧友网综合报道 液冷技术作为应对高热流密度散热需求的重要手段,主要分为接触式与非接触式两种类型。接触式液冷通过冷却液体与发热器件直接接触实现散热,涵盖浸没式和喷淋式
    的头像 发表于 10-13 08:37 1.1w次阅读

    易飞扬浸没液冷延长器与硅光液冷光模块主题研究 ——液冷光互连技术的数据中心革命

    1.02-1.05,适用于超高密度算力集群。 • 冷板式液冷:适用于部分液冷改造场景,但散热效率低于浸没式。 • 硅光技术+液冷:硅光子(SiPh)
    的头像 发表于 07-20 12:19 600次阅读
    易飞扬浸没<b class='flag-5'>液冷</b>延长器与硅光<b class='flag-5'>液冷</b>光模块主题研究  ——<b class='flag-5'>液冷</b>光互连技术的数据中心革命

    可编程电源有哪些温度控制措施?

    (Derating): 温度接近阈值时,逐步降低输出功率(如从100%降至50%),避免突然关断。 适用场景:需要持续供电的场景(如通信基站)。 热设计优化 散热片与风扇: 高功率电源(如&
    发表于 06-25 14:56

    【技术贴】超低功耗黑科技!艾为AW86320 高压液冷驱动IC,散热新宠诞生

    倍以上,能精准应对芯片核心区域散热痛点,正成为高端电子设备散热方案升级的主流选择。近日艾为电子推出的全新的国产液冷驱动AW86320压电驱动器【新品发布】“静界·
    的头像 发表于 06-20 18:51 1040次阅读
    【技术贴】超低功耗黑科技!艾为AW86320 高压<b class='flag-5'>液冷</b>驱动IC,<b class='flag-5'>散热</b>新宠诞生

    南芯科技推出190Vpp压电微泵液冷驱动芯片SC3601

    今日,南芯科技(证券代码:688484)宣布推出自主研发的 190Vpp 压电微泵液冷驱动芯片 SC3601,可在移动智能终端实现低功耗液冷散热。SC3601 实现
    的头像 发表于 06-18 17:20 1377次阅读

    英特尔引领液冷革新,与壳牌共筑数据中心高效冷却新范式

    打造业界领先的浸没式液冷解决方案,为数据中心用户在AI时代构建持续、高效液冷的发展路径。 在AI和计算能力飞速发展的当下,数据中心对强大基础设施的需求持续增长,随之而来的散热问题也愈
    的头像 发表于 05-16 10:14 455次阅读

    海瑞思重磅亮相深圳液冷散热峰会

    近日,在中国深圳举办的"第二届新能源热管理产品智造供应链创新峰会暨AI人工智能液冷散热峰会"成为新能源与散热技术领域的重要里程碑。本次峰会汇聚了比亚迪、中兴通讯、海瑞思科技、英伟
    的头像 发表于 04-28 10:00 525次阅读

    AI服务器液冷散热如何实现动态平衡?

      随着AI大模型训练与推理需求的爆发式增长,高功率密度服务器的热管理正面临前所未有的挑战。当GPU集群功率突破20kW/柜时,传统风冷系统的散热效率已逼近物理极限,液冷技术凭借其单位体积散热
    的头像 发表于 03-06 17:32 998次阅读
    AI服务器<b class='flag-5'>液冷</b><b class='flag-5'>散热</b>如何实现动态平衡?

    关于液冷技术的三个误读

    。 相关研究表明,当芯片TDP(Thermal Design Power,散热设计功耗)超过350W时,风冷逼近极限,液冷呼之欲出。液冷目前在我国的整体渗透率约为10%,业内认为,预计
    的头像 发表于 02-19 10:01 660次阅读