当前位置:文档之家› (上海环盟咨询)数据中心散热技术发展现状

(上海环盟咨询)数据中心散热技术发展现状

目录

数据中心散热技术发展现状 (2)

第一节中国数据中心散热行业主流散热方式 (2)

第二节新兴数据中心散热方式分析 (2)

第三节中国数据中心散热方式发展趋势分析 (4)

第四节数据中心散热的代价与收益 (5)

1

数据中心散热技术发展现状

第一节中国数据中心散热行业主流散热方式

目前中国数据中心散热行业所采用的散热方式或者原理不外乎两种:

1、空气冷却直接膨胀系统亦成为风冷,空气冷却的计算机房空调广泛应用于各种规模的IT环境,并且已经使他们确立了在小型和中型计算机房中的“主流产品”的地位。这类产品也经常称为“DX”系统或分体系统,“DX”表示直接膨胀,尽管这个术语也经常指空气冷却的系统,但事实上,任何使用制冷剂和蒸发盘管的系统都可以称为“DX”系统。在一套空气冷却系统中,半数的制冷剂循环回路位于计算机房空调(也称为一个CRAC单元)中,而其余的部分位于室外的空气冷却冷凝器中。室内和室外组件之间的制冷剂在管路中的循环路线称为制冷剂管路。从IT环境来的热量通过使用这个制冷剂循环流动的管路被“泵”到室外的环境中。热空气将热量传递给蒸发器盘管,进而传递给制冷剂,高温高压的制冷剂被压缩机送至室外的冷凝器,然后将热量散发到室外的大气中。

2、为了解决高热密度机柜中的热点问题,一些数据中心已经开始转向到液体冷却了。最常用的液体冷却技术称为紧耦合制冷,需要用管道将冷冻液(通常为水或乙二醇)输送到高架地板之上或者直接把冷冻液输送到机柜内部,然后通过风和冷冻液之间的热交换达到给机柜内部降温的目的。

第二节新兴数据中心散热方式分析

1、矿物油散热技术

油冷散热其实是从水冷进化而来。相较于传统的水冷方式,油冷能够进一步降低能耗。比如,加州大学的Flometrics Chilldyne酷弗洛负压液体冷却系统,吸取了NASA对火箭发动机和固定热插拔连接器进行冷却的灵感,也就是通过负液压系统隔离单个服务器。这套系统比传统的液冷方式能够降低25%-35%的能耗。而更早之前,Intel曾联合一家名为Green Revolution Cooling的公司,设计出一套采用矿物油进行降温的方案。

如果采用矿物油冷却技术,那么传统风冷所面对的灰尘问题不复存在,且能

2

耗低得多。而与水不同的是,矿物油是非极性物质,不会对电子集成回路产生影响,对服务器内部硬件不会有损坏。做一个形象的类比,你的手机掉入水中,十有八九会出问题,而掉入油中的话,则不会出现问题。

为了考察矿物油冷却系统的能耗,Intel还做了为期一年的测试。最终的结果令人瞠目结舌,该系统的PUE低至1.02-1.03,已经非常非常接近极限值1。而传统的风冷数据中心,通常PUE都在1.8左右,比较来看,矿物油冷却系统拥有极为显著的节能效果。

2、蒸发或绝热冷却

虽然使用蒸发方式制冷的科学原理简单,并正在逐渐流行,但它对于大多数数据中心操作人员而言仍然显得新奇。绝热冷却通过降低封闭环境中的某种物质运行的压力来实现冷却,让这些物质沸腾如同岩浆涌上火山表面,同时用风带走山峰上的高温。绝热冷却在温暖、干燥的气候中仍然有效,这大大拓宽了一年中能够“免费冷却”的有效期。其主要的缺点是用水量有些多,但在同等冷却量的情况下,它所需的冷却水仍然比标准冷却塔要少很多。

3、密封冷却

密封措施也无法解决由于错误的冷却规划、空气流动不充分或冷却能力引起的过热问题。最新的国家防火协会商业标准(NFPA-75)可能会使密封冷却的方案更难实现。对喷淋和(或)气体灭火系统的改造将大大增加成本。除了要尽力避免错误的实施外,日常优化也很重要:在未使用的机架空间一定要安装盲板,架空地板上的孔洞要及时封堵,地板下面影响通风的线缆也要做好清理。

4、烟囱式机柜和天花板风道

使用天花板上方的空间形成的风道将空气传输给机房空调系统,确保回风以最高的温度返回空调冷却盘管,可以显著增加精密空调系统的冷却能力。结合了吊顶风道和热通道措施的最终设备形式就是烟囱式机柜,可以获得最大的冷却效率。来自服务器群的高温废气从机柜后部的烟囱排出,然后直接通过吊顶天花板上方的风道回到空调设备中。整个过程中热空气和冷空气保持分离,所以可以保持很高的能效比。

3

第三节中国数据中心散热方式发展趋势分析

数据中心快速增长的高密度带来了数据中心能耗的急剧增加,这需要对数据中心制冷技术不断创新,提升制冷能效。

针对数据中心的冷却问题,有多种方案来应对计算性能和密度不断增长带来的挑战。数据中心消耗的电能几乎为整个电能的2%,IT带来的碳排放占了全球整个碳排放量的2%,无论是电能的消耗还是碳排放量都在过去几年来不断增长。越来越强的计算性能在满足业务需求的同时,却也给数据中心的能耗带来重大挑战。

现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。

日益小巧、能效日益提高的芯片架构也带来了更高的计算性能。目前服务器机柜能耗一般为2KW至5KW之间。而对于高端比如Nvidia的Grid则需要耗费45KW。在这些超高密度环境下的数据中心,传统的风冷制冷技术将不再是唯一选择,甚至都不是首要选择。

在目前步入的云计算时代来说,数据中心在其中扮演的功能与角色也愈发重要了。日益严重的数据中心能耗问题,也将会基于这五大方面展开不断创新,包括液冷、热量转换、自然冷却、散热器设计和高温环境。这五大有利于数据中心冷却的方案领域或各自或结合发挥作用。

在可预见的时期内数据中心不会遇到高功率密度问题,每个机架的平均功率密度仍然在机房空调系统可以承受的范围内。只是随着能耗的增加会给运营商带来成本压力,但这种压力会通过传导给市场带来技术和方案的创新。

而对于未来数据中心制冷趋势来说,除了高性能计算中心和其他基于互联网数据中心(IDC),大部分数据中心将会迁往低价更便宜、电力成本更低的地方,充分利用市场“无形之手”调节并结合制冷技术,不断优化并降低数据中心运维成本,提高能效。

4

相关主题
文本预览
相关文档 最新文档