广告
加载中

从“要不要用”到“如何用好” 液冷市场的爆发不是偶然

张申宇 2025/06/28 08:30
张申宇 2025/06/28 08:30

邦小白快读

液冷技术成为数据中心散热新趋势。

1. 液冷技术可将数据中心PUE值从风冷的1.25降至1.1以下,节能30%,运营成本显著降低。

2. 安全性问题已通过碳基合成油和负压液冷机制解决,漏液不再导致设备短路。

3. AI推动GPU机柜功率达120kW,迫使液冷普及,2027年中国市场规模或破千亿。

4. 部署成本已与传统风冷持平,单千瓦成本控制在2万元内,电力节省可快速收回投入。

应用建议:

1. 按需选择风液混合方案,存储场景建议保持风冷

2. 采用恒温差/恒压差控制适配服务器负载变化

液冷赛道迎来品牌差异化竞争窗口期。

1. 英特尔等芯片厂商开始提供液冷维保,硬件生态支持加速技术渗透。

2. 运营商集体规划2025年50%项目应用液冷,推动标准统一形成行业准入门槛。

3. 政策指标驱动采购决策,上海要求新建智算中心液冷机柜超50%,直接影响品牌获单能力。

4. 合成油材料创新成差异化突破口,如绿色云图与潞安集团合作研发碳基导热油。

消费趋势洞察:

1. 客户从单纯比价转向全生命周期成本考量

2. 技术背书能力成品牌溢价关键要素

液冷市场爆发蕴含多重商机。

1. 政策红利:多地将液冷纳入绿色数据中心评价指标,上海补贴改造项目。

2. 增量市场:2024年中国液冷市场同比增53%,GPU服务器配套需求激增。

3. 合作模式:冷板式方案需服务器厂商深度适配,带来定制化服务机会。

4. 风险提示:氟化液因环保问题淘汰,及时转向合成油技术避免库存风险。

实操建议:

1. 重点关注运营商集采项目和AI算力中心建设

2. 建立液冷设备回收处置增值服务

液冷设备制造迎来技术升级需求。

1. 精密加工:冷板式液冷要求微通道散热器加工精度达±0.01mm。

2. 材料革新:碳基合成油产线需配套防腐蚀处理设备,山西潞安已建示范生产线。

3. 设备兼容:需开发适配20-120kW机柜的模块化液冷机箱。

4. 检测认证:漏液监测传感器需求激增,需符合UL2904等安规标准。

生产建议:

1. 与服务器厂商共建联合实验室加快产品验证

2. 布局负压液冷系统专用真空泵生产线

液冷技术解决方案双路径突破。

1. 安全路线:

- 介质革新:碳基合成油导电率<10μS/cm,相较纯水(550μS/cm)安全提升55倍

- 机制创新:负压液冷通过真空泵控制,泄漏时自动阻断流体

2. 能效优化:恒温差模式较传统控制节能15%,适合负载波动场景。

3. 混合部署:风液协同方案降低初期改造成本30%。

客户痛点解决:

1. 老旧数据中心改造采用分区渐进式部署

2. 提供液冷系统保险增值服务打消客户顾虑

液冷生态构建催生平台新机遇。

1. 标准建设:需牵头制定冷板接口、介质纯度等行业标准。

2. 招商重点:引进真空泵、合成油等关键部件供应商完善供应链。

3. 运维管理:开发液冷系统AI预测性维护平台,监测200+传感器参数。

4. 风控要点:建立漏液应急响应SOP,要求服务商提供分钟级止损承诺。

平台策略:

1. 创建液冷技术适配认证体系

2. 搭建二手液冷设备交易平台盘活存量

液冷技术演进揭示产业变革方向。

1. 技术拐点:摩尔定律失效迫使散热方式革新,相变液冷或成下一代方向。

2. 政策助推:多地PUE硬指标实质推动技术扩散,需评估补贴政策有效性。

3. 商业模式:IDC服务商尝试液冷节电收益分成模式,破解初期投入难题。

4. 瓶颈待解:冷板式占当前市场90%,浸没式仍需突破介质成本难题。

研究建议:

1. 关注合成油专利布局态势

2. 量化分析风液混合模式碳减排贡献

{{loading ? '正在重新生成' : '重新生成'}}

返回默认

我是 品牌商 卖家 工厂 服务商 平台商 研究者 帮我再读一遍。

目前来看,仅采用传统风冷技术的数据中心PUE极限值为1.25,而采用液冷技术后,数据中心PUE值可低于1.1。

据Trend Force预测,全球数据中心液冷采用率有望从2024年的14%提升到2025年的26%。而在中国,据预计,2024年中国液冷数据中心市场将同比增长53%,市场规模将增长至236亿元;预计到2027年,随着AI系列应用的规模化落地以及液冷生态的日趋成熟,市场规模将突破千亿大关。

液冷在数据中心中的应用已经是不可逆的趋势。

从“要不要”到“如何用好”

时间拨回到2020年前后,彼时,数据中心主要供冷手段还是风冷,用户对于液冷的态度,一方面是“没必要”;另一方面,对于技术持相对保守态度的数据中心行业,因为对业务稳定性要求极高,所以对新技术的接受度并不是很高。那时业内常有声音表示,“宁可不用,也不能因为应用新技术而带来附加的风险。”亦有声音认为,这些理念都是在炒概念,并不看好液冷在数据中心中应用的场景。

尽管如此,一些服务商却始终坚定液冷路线,提前布局了液冷设备,这其中就包括了网宿科技。据网宿科技副总裁、绿色云图CEO胡世轩向笔者介绍,网宿科技早在2010年前后就开始尝试在数据中心中应用液冷的布局,并在2015年将液冷的部门单独成立了全资子公司——绿色云图。

当时间来到大模型元年,2022年,随着ChatGPT的问世,AI的浪潮又一次席卷全球、全行业。AI对于GPU的需求,进一步推高单机柜的功率。2.5KW标准机柜已经是过去式,8kW、10kW,甚至20、50kW的机柜不断出现。

英伟达发布的Blackwell GB200 GPU异构计算,其单机柜功耗更是高达120kW。而随着摩尔定律逐渐失效,在后摩尔定律时代下,芯片算力与其功耗仍将大幅提升。传统的风冷已经不足以支撑高功耗设备的散热需求,液冷成为高密度部署、并且降低能耗的最佳选择。

一方面,风冷散热的增益开始衰减,“如果要进一步提升散热功能的话,(风冷)性价比会越来越低,”英特尔资深技术专家曾对笔者表示,“并且风扇的可靠性也会越来越低。”

另一方面,随着液冷技术的不断迭代与成熟,其对数据中心节能减排愈发重要,“应用液冷技术相较风冷可节能30%,减少30%的碳排放。”绿色云图高级总监徐明微曾告诉笔者。

作为数据中心行业发展的“国家队”,中国移动、中国联通、中国电信三大运营商在2023年联合发布的《电信运营商液冷技术白皮书》中曾明确,2025年开展(液冷)规模应用,50%以上项目应用液冷技术,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局。

从国家政策层面,液冷也成为未来评价数据中心是否具备绿色化能力的一个指标。今年6月1日起正式实施的《绿色数据中心评价》中就突出了液冷、高效IT设备等先进适用技术产品应用。

以数据中心市场发展的“黄金”地带——上海为例,《上海市智能算力基础设施高质量发展 “算力浦江”智算行动实施方案(2024—2025年)》中曾明确,力争到2025年上海市新建智算中心PUE值达到1.25以下........液冷机柜数量占比超过50%。此外,《上海市工业节能降碳"百一"行动计划》也鼓励数据中心采用液冷等方式升级改造。

除此之外,胡世轩还特别向笔者强调,对于液冷发展有一个至关重要的因素——硬件厂商的背书,“诸如芯片、服务器的厂商对液冷设备的背书,也就是用户应用液冷之后,这些硬件厂商之前不太愿意提供维保,”胡世轩进一步指出,“不过这种现象已经明显有所改观,诸如英特尔这样的硬件厂商已经开始布局液冷方面的应用。”

如何用更好?

既然业内已经就“要不要用”达成了统一意见,下一步就该讨论“如何用更好”的话题。以原先的经验来看,用户对于液冷存在比较大质疑的两个点是:部署成本和安全性。

安全性一直是液冷所面临的最大挑战(甚至没有之一)。众所周知,论比热容、流动性、性价比,目前市面上没有一种液体比水更适合用作液冷媒介。但导电性也是在机柜里应用水为媒介的液冷安全性方面带来的最大阻碍。

机柜内部的电子元器件与机柜不间断通电的特性,让位于液冷设备中的水一旦泄露,就会给用户带来不能挽回的损失,轻则烧毁服务器,重则损失本台服务器的全部数据。这点是用户不能接受的。

如何解决这个问题,就成为了在推进液冷应用的过程中,众多服务商所要面对的挑战。目前市面上有两种路径,一种是研发新的媒介;另一种是从机制上做好漏液后的响应。

新媒介方面,除了原本因不太环保而逐渐被淘汰的氟化液之外,合成油成为了当下比较普遍的选择。前不久的IDCE上,网宿科技旗下的绿色云图就发布了基于全新的碳基合成油的冷板式液冷解决方案。据胡世轩介绍,与传统的水+乙二醇/丙二醇的媒介相比,绿色云图与山西潞安集团太行润滑油合作研发的全新碳基合成油在规避了导电性的缺点的同时,在流动性、导热性,甚至成本方面都无限接近于水,可以作为最新的冷板式液冷的导热媒介选择。

“全新的合成油并不会因为漏液导致服务器短路,漏液后,运维人员仅需将漏出的液体擦掉,更换漏液的管道即可,安全性大幅提升。”胡世轩向笔者介绍道。

不仅于此,徐明微还告诉笔者,绿色云图此次结合新媒介全新推出的冷板式液冷解决方案还提供了恒温差与恒压差两种控制方式,“两种模式不仅能满足客户的定制化选择需求,还可以根据实际服务器的负载率变化灵活切换控制,以求达到最适合当下的控制方式。”徐明微指出。

除了采用新媒介以外,还有一些服务商通过采用“新机制”来对漏液之后做出快速响应。在机制层面,将“水管”内部抽真空的负压液冷方式创新萌芽。以浪潮信息为例,首创了一种可以使得液冷系统二次侧均为负压的动力单元——液环式真空CDU,由于管路内均为负压,因此彻底杜绝了漏液隐患。同时,这项技术创新突破了液冷循环系统只能采用高压水泵,才能实现液体循环流动的“定律”,实现了仅依靠真空泵通过不同传感器控制多腔室功能切换,即可实现流体的循环流动,在技术极简化同时也实现了可靠性的大幅提升。

如果说安全性的问题决定了液冷能否在数据中心中应用,那么部署成本的高低就决定了液冷能否在数据中心中普及。原先因为技术壁垒较高,且零部件制造成本高昂的情况下,使得即便有的用户想应用液冷,也在高额的成本面前望而却步。

再加之原先企业对于高性能算力的需求并不大,机柜功率基本稳定在10kW以内,而以CPU为主导的通用算力部署液冷后,与传统风冷相比,节能效果并不很明显。

但随着生成式AI的兴起,GPU在企业部署应用过程中的地位越来越重要,机柜功率也在不断攀升,原本几千瓦,最多10kW的标准通用算力机柜不在能满足当下的需求。GPU的应用将单机柜功率提升至了几十千瓦,甚至可以突破100kW。这也让液冷成为企业不得不的选择。

与此同时,随着需求的增加,供应链不断完善,也让液冷的部署成本有了明显的下降。据了解,目前比较常见的风冷解决方案单千瓦成本大概在1.8万~2万之间,有些极端的用户会要求压缩到1.2万,应用液冷的解决方案的成本目前基本可以控制在2万以内。对此,胡世轩对钛媒体APP表示,现阶段,大规模应用液冷与传统风冷相比,建设成本差别并不大,但是后期液冷能够显著所节省的电费,让大规模应用液冷的数据中心在运营过程中比传统风冷数据中心降低不少,整体降低了使得运营成本降低不少。

风液混合会持续下去

即便当前应用液冷解决方案的成本已经与风冷相当,但在胡世轩看来,企业也没必要所有机柜都应用液冷的解决方案。

胡世轩告诉笔者,虽然液冷正在渐渐成为数据中心供冷主流方式之一,但用户还是需要按需制宜,也不是所有的场合都是适合应用液冷,“比如,相较于计算的场景,存储的场景下,机柜功耗并不是很大,选择传统风冷/水冷的方式更为合适,”胡世轩进一步指出,“还有一些传统的,使用CPU的计算场景下,机柜功率基本维持在10kW以下,这些场景下,选择传统的供冷方式也就可以满足服务器的散热需求了。”

从目前业内的一贯做法也可以看出,液冷虽然发展速度快,且市场占有率越来越高,但其并不会成为数据中心供冷的“唯一”。“任何一个数据中心内部,不可能全部都是高功率、高算力的机柜/服务器,一定会有一部分相对功率不太高的机柜,以及一部分功率较高的机柜,一定是一种高、低(相对)功率并存的状态,”胡世轩表示,“从算力服务器出货量上看,虽然目前高功率服务器出货在不断增加,但标准的(相对较低)功率的服务器仍然占据市场主导,而这些服务器应用传统的供冷模式,或者间接蒸发冷等技术就能满足散热需求,并不是所有都需要应用液冷。”

注:文/张申宇,文章来源:钛媒体(公众号ID:taimeiti),本文为作者独立观点,不代表亿邦动力立场。

文章来源:钛媒体

广告
微信
朋友圈

这么好看,分享一下?

朋友圈 分享

APP内打开

+1
+1
微信好友 朋友圈 新浪微博 QQ空间
关闭
收藏成功
发送
/140 0