🎓作者简介:科技自媒体优质创作者
🌐个人主页:莱歌数字-CSDN博客
💌公众号:莱歌数字
📱个人微信:yanshanYH
211、985硕士,职场15年+
从事结构设计、热设计、售前、产品设计、项目管理等工作,涉足消费电子、新能源、医疗设备、制药信息化、核工业等领域
涵盖新能源车载与非车载系统、医疗设备软硬件、智能工厂等业务,带领团队进行多个0-1的产品开发,并推广到多个企业客户现场落地实施。
专题课程
Flotherm电阻膜自冷散热设计(90分钟实操)
Flotherm通信电源风冷仿真教程(实操)
基于FloTHERM电池热仿真(瞬态分析)
基于Flotherm的逆变器风冷热设计(零基础到精通)实操
每日篇行业发展资讯,让大家更及时了解外面的世界。
更多资讯,请关注B站/公众号【莱歌数字】,有视频教程~~
一、政策驱动绿色数据中心建设
- 国家政策要求
- 双碳目标与东数西算工程:推动数据中心能效升级,东部新建数据中心PUE需<1.25,西部需<1.2。
- 地方政策落地:北京、上海、深圳等地对新建/原有数据中心PUE提出严格限制(如北京新建PUE<1.3),并配套奖惩机制(PUE>1.4加收电费,PUE<1.25享受能源补贴)。
- 环保与经济效益绑定
- 高PUE数据中心面临运营成本上升(如PUE>1.8时每度电加价0.5元),低PUE项目可获得政府补贴(如深圳PUE<1.25可享40%以上能源消费支持)。
二、技术痛点催生液冷需求
- 芯片功耗激增
- GPU单卡功耗达1000W(如NVIDIA),AI服务器单机功率突破10kW,机柜功率密度高达120kW,风冷散热已无法满足需求。
- 散热瓶颈制约发展
- 高TDP芯片导致摩尔定律失效,需液冷技术解决散热问题(冷板式单柜>40kW,浸没式>100kW)。
三、液冷技术的核心优势
- 高效节能
- 显著降低PUE(冷板液冷PUE≈1.2,浸没式PUE≈1.05),100%热量通过液冷带走。
- 性能提升
- 低温环境支持芯片超频,提升算力密度(单机柜功率密度可达200kW)。
- 环境友好
- 噪音低至55dB,减少机房噪声污染;兼容政府低碳要求,易获政策支持。
- 空间与经济优化
- 模块化设计节省机房空间,长期TCO(总拥有成本)更低,预计3-5年内方案成本下降30%。
四、超云全栈液冷解决方案
- 技术路线全覆盖
- 冷板式:兼容通用/GPU机型,单柜功率30-120kW。
- 浸没式:单柜功率突破100kW,支持边缘计算及中大型数据中心。
- 产品创新
- 整机柜方案:如SuperRack-100/200,支持高密度部署(如R842X L13支持16张700W GPU)。
- 冷却液研发:自研ThermoSafe长效冷却液,具备防腐、高换热效率、环境友好等特性。
- 架构优化
- 多路并联分液设计、模块化管路规划、漏液监测系统,提升安全性与维护便捷性。
五、应用场景与案例验证
- 场景适配
- AI智算中心:支持高并发、长文本推理(如NVL16 H20性能优于NVL8 H20)。
- 政企/科研:适用于HPC、医疗、能源等领域,满足异构算力需求。
- 性能验证
- 液冷GPU机型显存利用率提升(如FP16精度下7B模型显存需求从28GB降至14GB),并发处理能力翻倍。
六、挑战与应对
- 成本与标准
- 初期投入较高,需头部企业示范;行业标准尚不完善,超云通过联合实验室推动标准化。
- 技术迭代
- 芯片快速升级要求方案高兼容性,超云通过多代产品适配(如支持Intel/AMD/NVIDIA全系芯片)。
总结:超云通过全栈液冷方案(冷板+浸没式),以高密度、低PUE、低TCO为核心,解决AI数据中心散热瓶颈,响应国家绿色政策,助力智算中心建设。技术覆盖从部件级冷却到整机柜交付,结合自研冷却液与模块化设计,为高功率算力场景提供可持续解决方案。