大家好,今天给各位分享数据中心液冷散热技术解析:高效应对算力提升挑战的一些知识,其中也会对进行解释,文章篇幅可能偏长,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在就马上开始吧!
在今年的NVIDIA GTC2024上,NVIDIA正式发布了GB200旗舰GPU。该产品包含两个GPU核心,每个核心功耗约1200W,同时还拥有两个Arm CPU,功耗约300W。那么光是这款产品的总功耗就达到了恐怖的2700W。不难发现,面对高功耗、高密度场景,传统风冷显然无法满足能耗和散热需求。液冷技术凭借超高的能效和超高的热密度,成为智能计算中心温控解决方案的首选。必需的。
据IDC预测,2022年至2027年中国液冷服务器市场年复合增长率将达到54.7%,2027年市场规模将达到89亿美元。
北京市最新发布的《北京市算力基础设施建设实施方案(2024—2027年)》对智能计算中心绿色运营提出了明确指导,指出本市新建和扩建智能计算中心PUE值一般不超过1.25,年能耗超过3万吨大型智能计算中心的PUE值一般不超过1.15。推动全市现有数据中心升级改造,使到规划期末,所有现有数据中心的PUE值不高于1.35。
今年年初,上海市通信管理局等11部门联合下发《上海市智能算力基础设施高质量发展 “算力浦江”智算行动实施方案(2024-2025年)》(以下简称《方案》),提出到2025年,全市智能算力突破30EFlops,占比超过50%。占总计算能力的%。其中,在绿色智能计算性能方面,《方案》要求到2025年,城市新建智能计算中心PUE值达到小于1.25,现有改造智能计算中心PUE值达到小于1.25。 1.4.智能计算中心绿色能源使用占比超过20%,液冷机柜数量占比超过50%。
事实上,浪潮、曙光、联想等服务器厂商已相继投入液冷技术的研发,并推出了自己的专利产品。
二、液冷散热系统的主要优势与不足
液冷系统的主要优点是散热效率更高、能耗更低。
我们知道,在传统的风冷数据中心中,用于设备冷却散热的能耗高达40%,且散热效率不高。由于这一限制,数据中心传统风冷一般设计单机柜密度为8-10kW。由于液冷技术的导热系数是空气的25倍,带走的热量是同体积空气的近3000倍,因此可以轻松拥有超过30kW的单柜密度。
同时,除了部署液冷系统外,由于数据中心不再需要部署大量空调制冷系统,可以节省大量空间,进一步提高单机柜部署密度机房,提高数据中心单位面积的利用率。
尽管数据中心液体冷却系统具有许多优点,但它们也带来了许多挑战。目前,主要存在以下几个方面的问题:
一是缺乏统一标准。无论是冷板液冷技术还是浸入式液冷技术,行业目前都没有统一的技术和施工标准。虽然百花齐放的状态更有利于技术的发展,但同时,不同的标准也给企业带来了困难。这就带来了选型问题以及后期的管理维护问题。
二是建设成本过高。与传统风冷散热相比,液冷数据中心的建设成本仍然过高。此外,一些旧数据中心改造的投资成本过高。
三是后期管理维护难度大。液冷技术发展迅速,缺乏统一的技术和施工标准,给后期管理和维护带来很大问题。
四是安全问题。由于材料、制造工艺、连接方式、维护使用等多种因素的影响,冷板与电芯之间的密封可能会导致冷却液泄漏的风险。泄漏不仅损害系统的性能和可靠性,还可能对周围环境造成污染和安全隐患。
三、液冷散热主要技术
目前主要的液冷技术包括以冷板液冷系统为代表的间接液冷技术和以浸没式液冷系统为代表的直接液冷技术。由于两者的散热设计不同,因此其散热效率也有很大差异。
一)间接液冷散热技术间接冷却技术利用冷板等介质接触CPU、内存、GPU、硬盘等表面,利用冷却剂的流动带走热量。除了冷板等介质外,间接液冷技术还包括热交换器、管道、泵、冷却剂、控制系统等部件。
目前,冷板液冷系统已成为间接液冷技术的主要解决方案。间接液冷技术的主要优点是无需改变现有服务器的形态,设计技术难度低,部署难度相对较小,后期运维管理难度相对较低。另外,由于冷却介质多采用乙二醇水溶液,因此成本较低。
缺点是散热效率比较低,而且由于元件数量较多,故障率比较高。目前,冷板液冷系统已成为大多数数据中心的首选解决方案。
二)直接液冷散热技术直接液冷技术使CPU、GPU、主板、内存等与冷却液直接接触,冷却液直接流经硬件表面吸收带走热量。目前,直接液冷技术包括浸没式液冷系统和喷雾式液冷系统。根据冷却介质是否发生相变,可分为单相浸没式和相变浸没式。
与间接冷却技术相比,直接液冷技术在液体和热源之间没有中间传导介质,热量可以更直接地传递到液体,因此散热效率更高。但直接液冷技术需要对整个数据中心进行改造和设计,因此部署难度更大、成本更高。
目前,直接液冷技术主要应用于散热效率要求较高的场景。
写在最后:
毫无疑问,液冷系统一定是未来数据中心的主流冷却技术。
目前,冷板液冷系统由于较为成熟,将成为第一个进入数据中心的主流液冷技术。影响冷板液冷技术普及的成本、运维、安全等问题也将随之而来。技术的发展和标准的统一都可以解决。
当然,随着技术的不断发展,浸入式液冷系统也将广泛应用于新建的高密度数据中心,进一步提高数据中心的散热效率,显着提升计算能力水平。
今天给各位分享数据中心液冷散热技术解析:高效应对算力提升挑战的知识,其中也会对进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.iotsj.com//kuaixun/6061.html
用户评论
这篇文章终于来了!一直想了解一下液冷散热的技术应用情况。
有16位网友表示赞同!
数据中心的能源消耗确实是一个问题,希望能通过这种新式散热技术提高效率。
有11位网友表示赞同!
我之前只听说过风冷散热,液冷听起来更专业!
有17位网友表示赞同!
数据中心建设越来越注重节能环保了,看这篇文章了解一下最新趋势。
有5位网友表示赞同!
AI算力发展太快了,散热技术也必须跟上节奏!
有19位网友表示赞同!
希望能看到一些具体的液冷方案应用案例,更加直观。
有5位网友表示赞同!
文章提到变革,看来风冷时代真的要过去了吗?
有14位网友表示赞同!
学习一下这篇文章,希望以后工作中能用到这些知识!
有18位网友表示赞同!
数据中心的未来发展趋势我越来越好奇了!
有9位网友表示赞同!
感觉液冷散热技术对提高服务器性能有很大帮助。
有7位网友表示赞同!
这种新型的散热技术成本如何呢?会不会太高昂?
有8位网友表示赞同!
希望这篇文章能详细介绍一下液冷散热的原理和优势。
有8位网友表示赞同!
数据的处理量越来越大,散热问题确实越来越突出了。
有14位网友表示赞同!
最近有很多科技公司都在开发这种新型算法和硬件技术的组合解决方案。
有13位网友表示赞同!
未来数据中心一定是智能化、高效化的方向发展!
有19位网友表示赞同!
技术迭代太快!这几天还在纠结风冷,现在又来了液冷!
有5位网友表示赞同!
AI算力驱动确实推动了科技的发展,希望这种新技术能得到更广泛的应用。
有10位网友表示赞同!
数据中心的液冷散热方案有哪些具体实施步骤?
有5位网友表示赞同!
文章分析如何评估不同液冷技术的优劣势呢?
有12位网友表示赞同!