1. 首页 > 快讯

数据中心高效冷却方案:芯片及沉浸式冷却解析

很多朋友对于数据中心高效冷却方案:芯片及沉浸式冷却解析和不太懂,今天就由小编来为大家分享,希望可以帮助到大家,下面一起来看看吧!

随着高级分析、人工智能和各种流程的数字化,数据中心工作负载不断增加,平均机架功耗显着增加。而且,正如我们所知,随着功耗的增加,需要从机架以及最终从空闲空间中去除的废热量也在增加。

不久前,当机架功耗高达20kW时,可以依靠空气冷却方法来保持IT硬件安全高效地运行。但随着一些机架开始超过30kW 或更高,需要新的冷却方法。

这在一定程度上是由于IT 硬件的整体致密化,每一代新一代的CPU 将更多的处理能力封装到越来越小的尺寸中。人工智能(AI) 和机器学习(ML) 等工作负载需要通常通过图形处理单元提供的浮点运算。当专门用于特定工作负载时,这些GPU 的正常工作温度设计为高于80C (176F)。

虽然20kW 以上的机柜有空气冷却选项,但它们通常难以有效安装和维护,基本上已经过了冷却能力收益递减点。因此,数据中心所有者和运营商现在正在谨慎地为其新设施项目寻求液体冷却。

液体冷却的简史

IT 设备的液体冷却似乎是一项新技术,但事实并非如此。

液体通常是良好的传热介质,只需一点化学工程,就可以精确调节沸点和冷凝点,以改善使用介电流体的传热。

自19 世纪末以来,各种形式的液体冷却已经出现,当时它们被用来绝缘和冷却超高压变压器。汽车行业是另一个依赖并且仍然依赖液体冷却的生态系统,例如典型汽车散热器中的水。

液冷技术进入计算机领域较早,当时IBM在20世纪60年代初发布了一系列名为System/360的企业级计算机。

360 系统是市场上最经久不衰的计算机系列之一。尽管最初的硬件现已退役,但20 世纪60 年代初编写的S/360 代码仍然可以在今天的新大型机中找到。它也是第一台拥有统一指令集的计算机,使控制台的升级或更改比以往任何时候都更加容易。

System/360还采用了风冷和液冷混合的方式进行冷却。这台计算机相当大且安装起来很麻烦,但IBM 开发了混合模型来适应增加的热负荷。在这些系统中,高达50% 的热量通过水冷热交换器从冷却空气中消除。

如今,几乎每台台式电脑都配备了液体冷却,并且其概念本质上保持不变。冷却过程由三个不同的部分: 组成- 热板、送风管和回风管、散热器和风扇。

热板本质上是一块金属板,覆盖整个CPU 芯片,顶部有一个小水库。该板设计为尽可能导热。芯片产生的任何热量都会传递到顶部的储液器。

该闭环中的液体将通过供应管道和回流管道到达散热器,热量将通过散热器翅片排出PC 机箱- 这些翅片由风扇主动冷却。

消费级液体冷却最初仅处理CPU 热量,但现在现代PC 的几乎每个组件都可以进行液体冷却。

这是液体冷却的消费级选项,但大规模部署和企业级解决方案又如何呢?接下来我们将在数据中心行业的背景下讨论这些问题。

企业级液体冷却解决方案

在分析企业级IT 硬件的液体冷却选项时,液体冷却主要有两大类—— 直接芯片液体冷却(也称为传导或冷板液体冷却)和浸入式液体冷却。

浸入式液体冷却涉及将IT 硬件直接浸入充满介电氟化物液体的密封且易于接近的外壳中。电子元件产生的热量直接传递到氟化物流体。相比之下,直接芯片冷却技术完全避免了氟化流体与电子器件之间的直接接触。使用管道将液体冷却剂泵送到电子元件上的冷板以传递热量

当考虑冷却剂经过的阶段(流体处于—— 液体或气体状态)时,我们有五种不同类型的液体冷却。

直抵芯片 - 单相

这种冷却方法需要将液体冷却剂直接输送到服务器较热的组件(例如CPU或GPU),并将冷板直接放置在芯片上。电气元件绝不会与冷却剂直接接触。

采用这种方法,仍然需要风扇提供穿过服务器的气流以消除废热。虽然空气冷却基础设施显着减少,但这种液体冷却方法仍然需要正确运行。

冷却剂可以是水或介电流体,但水会带来停电泄漏的风险,但可以使用防漏系统(LPS)。单相意味着冷却剂不会将状态—— 从液态变为气态。

这也与前面的台式计算机示例中使用的方法相同。

直抵芯片 - 两相

两相直接芯片液体冷却方法与之前的单相方法类似,唯一的区别是液体冷却剂在完成冷却回路时将状态——从气体变为液体,反之亦然。这些系统将始终使用工程介电流体。

在散热方面,两相系统优于单相系统,并且由于冷却剂的状态变化特性,泄漏风险较低。然而,它们确实需要额外的控制,这将增加系统生命周期内的维护成本。

浸入式液体冷却 IT机柜单相

这种冷却方法使用单相介电流体并与IT 组件直接接触。服务器完全或部分浸没在机箱内的这种不导电液体中,从而有效地消除了所有热源。

冷却可以通过传导或主动泵送被动发生。热交换器和泵都可以在底盘内部或侧面布置,其中热量从液体传递到水回路。

这种方法也不涉及风扇,因此其运行几乎是安静的(0 dB)。相比之下,一些风冷设施在数据大厅中的噪音可达到80 分贝以上,工作人员需要听力保护才能长时间暴露在这种环境中。

浸入式冷却 开放式浴缸 单相

这种浸入式液体冷却方法(有时称为“开放式浴缸”)将IT 设备完全浸没在液体中。

本质上,它是一个翻转过来的架子,里面充满了介电流体。 —— 服务器现在不是水平安装,而是垂直安装。

这些系统通常配备集中电源,自然介电流体通过使用泵的热交换器进行冷却,泵可以安装在浴槽内部或外部,或通过对流进行冷却。

浸入式冷却 - 开放式浴缸 - 两相

与单相一样,在此方法中,IT 设备完全浸没在罐内的垂直流体流中。然而,对于该方法来说重要的是介电流体在加热时必须能够从液态变为气态。

在这样的系统中,浸没和暴露的部分会产生热量,将液体转化为气体。气体上升到表面并在盘管上凝结,然后在足够冷却后回落至液态。

什么是介电流体?

介电液体在高压应用中用作电绝缘体,例如变压器、电容器、高压电缆和开关设备(即高压开关设备)。

它们的功能是提供电绝缘、抑制电晕和电弧,并用作冷却剂。一般来说,它们分为两类:氟化物和碳氢化合物。

氟化流体通常具有较低的沸点,主要用于两相浸没冷却。

碳氢化合物一般不用于两相浸没式冷却系统,因为大多数碳氢化合物是可燃或可燃的。因此,碳氢化合物通常仅用于单相应用。

含氟化合物(或碳氟化合物)和碳氢化合物(例如矿物油、合成油、天然油)均可用于单相浸没冷却。需要具有较高沸点(高于系统最高温度)的流体来确保流体保持液相。

在各种含氟化合物和碳氢化合物之间进行选择时的考虑因素包括传热性能(随着时间的推移稳定性和可靠性等)、IT 硬件维护的便利性、流体卫生和更换需求、与材料兼容性、电气性能、易燃性或可燃性、环境影响相关的问题、安全性以及储罐或数据中心整个生命周期内的总流体成本。

目前采用情况

虽然液体冷却远非主流,但其将自己定位为高性能计算的冷却解决方案。然而,其主流采用将取决于技术和芯片设计的进步。

对于某些形式的液体冷却来说,改造现有数据中心的成本很高,而且水箱的重量使其对于许多当前的高架地板设施来说不切实际。

浸没式液冷与传统风冷相比的优势

1、节能性更加极致:制冷剂与加热装置直接接触,换热效率更高,可实现全面自然冷却。系统PUE1.05;

2、器件散热更加均匀:采用全浸式方式,服务器内部温度场更加均匀,设备可靠性更有保障;

3、无泄漏风险:采用绝缘环保冷却液,即使发生泄漏也不会对基础设施硬件和外部环境造成风险;

4、噪声更低:服务器的所有组件均可通过液体冷却进行散热。实行内部无风扇设计,满载运行噪音45dB;

5、功率密度大幅提升:单柜功率密度可达60kW以上。

用户评论

生命一旅程

这些年服务器越来越强大,需要更有效地降温了。

    有12位网友表示赞同!

聽風

一直觉得数据中心的噪音很大,不知道怎么降低呢?

    有14位网友表示赞同!

别悲哀

浸没式冷却听着很新奇,是怎么运作的呢?

    有7位网友表示赞同!

麝香味

我想知道不同冷却方式的优缺点是什么。

    有7位网友表示赞同!

此生一诺

感觉芯片技术的迭代速度很快,随之而来的挑战也是越来越大。

    有15位网友表示赞同!

莫失莫忘

数据中心建设确实需要考虑很多因素,电力和降温尤其重要。

    有20位网友表示赞同!

强辩

数据中心的管理难度系数越来越高了是不是?

    有18位网友表示赞同!

逃避

看了标题,我很好奇芯片冷却的现状和趋势是什么?

    有11位网友表示赞同!

你瞒我瞒

技术发展真是日新月异啊!以前没听说过浸没式冷却这回事。

    有6位网友表示赞同!

执笔画眉

现在数据中心对电力消耗很高吧?能否更加环保呢?

    有9位网友表示赞同!

孤独症

感觉未来智能化管理能解决很多数据中心的难题。

    有6位网友表示赞同!

ok绷遮不住我颓废的伤あ

数据安全也是重要的因素,在降温过程中需要注意隐私保护吗?

    有13位网友表示赞同!

灵魂摆渡人

学习一下新的冷却技术,或许会对我的工作有所帮助。

    有6位网友表示赞同!

走过海棠暮

这篇文章肯定会提供一些有用的信息和见解!

    有8位网友表示赞同!

夏日倾情

不知道浸没式冷却能否有效降低数据中心的运行成本?

    有14位网友表示赞同!

神经兮兮°

希望可以了解更多关于芯片冷却的最新技术进展。

    有10位网友表示赞同!

杰克

这种文章很有价值,应该多分享给更多人知道。

    有19位网友表示赞同!

苏樱凉

以后有机会还要去深入了解一下数据中心的工作原理。

    有12位网友表示赞同!

ゞ香草可樂ゞ草莓布丁

学习是终身宝贵的行动!要一直保持好学的心态。

    有14位网友表示赞同!

本文采摘于网络,不代表本站立场,转载联系作者并注明出处:https://www.iotsj.com//kuaixun/6332.html

联系我们

在线咨询:点击这里给我发消息

微信号:666666