简析数据中心气流管理技术- 数据中心能耗管理- TT数据中心- TechTarget中国
正在加载数据...

  随着每一代新的计算机设备的计算能力和功率能耗的大幅度提高,传统数据中心如何增加每机柜的功率密度也变得越来越重要了。Intel的研究表明,同样的计算能力在2002年时需要25个机柜和128KW的能耗(5.1KW/每机柜),但在2008年时只需一个机柜和21KW的能耗(21KW/每机柜)。对比之下,我们节省了107KW的能耗,并且也大大节省了数据中心的物理大小和结构。
  
  这种大幅度的计算能力的提升主要是得益于虚拟计算,内存系统,多核CPU系统,CPU速度和GPGPU技术的飞速发展。虚拟计算大大提高了服务器的使用效率,从而直接增加单个机柜的发热密度。随着内存容量和速度的飞速发展,{zx1}的DRAM技术是的内存的发热量也大大的提升。工程和科学研究等应用大量使用图形浮点运算,GPGPU使得显卡的发热量从25W提高到300W以上。虽然服务器的功耗持续不断的提高,但是性能和功耗比不断的下降。从以上的例子可以看出,如果数据中心空调系统能够高效的对机柜进行冷却,我们将会大大减少数据中心的总能耗,从而在本质上我们可以真正拥有一个绿色数据中心。
  
  提高空调的制冷效率并节约能源只是数据中心管理的重要一部分,然而每机柜的热密度不停的增加则带给我们更多的挑战。目前全球数据中心的每机柜的平均热密度大概为6.5KW,但是ASHRAE2预测在2014年数据中心平均每机柜所需的制冷量为37KW。这种5倍的热密度的飞跃需要我们对数据中心不断的革新来解决。本文将对目前一系列的技术革新进行讨论,并评估各种方案的优点和缺点
  
  冷热空气物理隔离(基线)
  
  研究表明在一个设计不合理的数据中心内,60%的空调机冷送风由于气流组织的不合理而被浪费了。目前,传统的开放式热通道结构数据中心面临着两大气流管理难题:冷热空气相混合现象和空调冷送风的浪费现象。这两种现象大大降低了空调制冷的效率。其中,冷热空气相混合现象指的是由设备产生的热空气和空调机的冷送风相混合从而提高了设备的进风温度;空调冷送风的浪费现象则指的是从空调机的冷送风并未进入设备,并对设备冷却而直接回流到空调机的现象。冷热空气混合现象也是导致数据中心温度不一致的主要原因,并且这种现象也大大降低了数据中心空调的制冷效率和制冷能力。如何解决这两种现象,其实最简单,有效的方法就是将冷热空气物理隔离开。
  
  Intel3多年的研究和实验表明,良好的气流组织管理能够大大减少冷热空气相混合现象和空调冷送风的浪费现象。Intel现在的数据中心的热密度也从单个机柜310WPSF增加到781WPSF(每机柜15kW增加到40kW以上).另外,Dell4和HP5的数据中心也正在使用冷池或热池技术。使用冷池或热池技术,数据中心空调的制冷量只需满足设备的制冷量即可。但是该技术也有一定的局限性,下文将详细讨论。
  
  冷池和热池
  
  热通道封闭或热池(HAC)是将热通道密闭起来并通过回风管将热回风传回数据中心空调系统(如图一所示)。对比热池,冷池(CAC)是将冷通道密闭起来。这两种技术都将空调的冷送风和热回风隔离开来,并使空调机回风温度提高以此来提高空调的制冷效率。这两种方式的区别主要是可扩展性,散热管理和工作环境的适宜性。
  
  冷池的可扩展性主要是受地板下送风和如何将地板下冷风送入多个冷池的制约。目前世界对该技术有着很多的误解,很多人认为只要当空调机的出风量能满足设备的散热风量即可。但是他们忽略了高架地板下冷送风对于多个冷池的压力降和空间的限制。相反的热池则是使用整个数据中心作为冷通道来解决这个问题,正因为这样扩大冷通道的空间。这样热池相比于冷池有着更多空调冗余性能,多出的热通道空间将会在空调系统出现故障时能多出几分钟的宝贵维修时间。{zh1},随着服务器设备的散热能力的提高,服务器所需的散热风量将会大大的减少。现在很多服务器的热风的出风温度可到达到55oC。冷池的未被隔离部分空间的温度将会比传统数据中心大大的提高,这将大大增加了数据中心工作人员的舒适度和减少数据中心其他设备的使用寿命。综上所述,虽然这两种方法都可以大大提高每机柜的热密度,但是当合理使用热池时,热池的效率应比冷池大大的有效可靠。  

简析数据中心气流管理技术 

热池工作原理(全密封和部分密闭)
  

  通过以上的对比,我们可以发现热池比冷池有着更多的优点。在这基础上,我们讲阐述两种不同的热池方案:全密闭热池和部分密闭热池。全密闭热池是将所有热回风送回至空调系统。烟囱机柜和刚性墙壁隔离热通道是其中的两个不同的方案。在部分密闭的热池中,密闭材料中的缝隙和空间将会大大浪费对设备散热冷送风的风量。通常我们见到的部分密闭热池包括刚性或软性材料来密闭热通道。使用全密闭热池可大大增加每机柜的热密度,但是又有建设预算和场地限制等等原因常常不能实现。当我们不能实现一个全密闭的热池时,我们可用刚性或软性挡板等物讲热通道进行{zd0}化的密闭,这样虽然不能像全密闭系统那样xxxx热回风回流和冷送风浪费的现象,但是我们将大量的热回风密闭起来了。使用部分密闭热池的数据中心,数据中心的热点现象可能还会存在,消防设施的位置的也需要额外注意,但是我们可以比传统数据中心大大提高每机柜的热密度。但是,要到达2014年每机柜37KW的热密度,这些是远远不够的。

  xx匹配型制冷(In-Row)解决方案
  
  数据中心使用全密闭系统时,另一种方案是xx匹配型制冷(In-rowCooling)。xx匹配型制冷也需要一个密闭的侧板来隔离冷热空气。xx匹配型制冷的优点在于数据中心无需高价地板或吊顶,制冷机组离服务器设备的距离也近了许多,这样减少的送风路径。但是该方案的{zd0}缺点在于小型的制冷系统不如大型制冷系统那么有着高效的制冷效率。表一为台达电子6四种变频制冷系统送风量及能耗的对比表。该对比表可清晰的看出在相同的工作风压下,大型制冷系统的送风量和能耗比更小,也就意味着比小型制冷系统更有有效和节能。除此之外,我们还必须面临种种挑战如:xx匹配型制冷的冗余性,不能使用空气节能器,需要大量的装机空间和冷却水的泄露等等问题。xx匹配型制冷是一种全密闭的系统,但是数据中心的管理人员在使用该系统时必须有着良好的准备和分析。

简析数据中心气流管理技术   

表一:不同制冷系统的性能 (台达电子)

  垂直排风管全密闭系统和机柜级解决方案
  
  除此之外,另一种方案是机柜级的冷热风隔离系统。这种系统通常是机柜的一个延伸部分。最常见的系统为机柜垂直排风管系统,或称作烟囱机柜系统。垂直排风管系统将密闭的机柜内的热回风导入到天花板上方。对比xx匹配型制冷,烟囱柜系统有着巨大的优点。首先,对于一排机柜而言,烟囱机柜的隔离冷热空气系统比xx匹配型制冷系统隔离整排机柜的热冷空气来的更为简单有效,并且烟囱柜在所有解决方案中最简单的全密闭系统。另外,烟囱柜系统不和空调系统相连,这样我们可以随着需求的增加来任意增加机柜,这样我们有着更高的可扩展性。{zh1},如表一所示,该系统和空调系统的独立性确保了数据中心可使用大型的空调系统来提高制冷效率和节能。使用垂直排风管系统,冷空气可使用高架地板(常用送风方法)送风或直接将冷风吹入数据中心内部来送风,并且可以结合使用空气节能器来起到更佳的节能效果。
  
  垂直排风管系统机柜的{dy}个挑战是我们必须使用天花吊顶或者使用回风管,相比之下,xx匹配型制冷则无需任何天花吊顶或回风管。这样,数据中心则需要额外的高度。第二个挑战则是风压差,我们必须确保机柜前后的风压以使得冷风可以进入机柜来对机柜散热。这种挑战主要体现是机柜前部的送风风压压力,机柜后部热回风的风压,机柜后部的理线等功能区对风压的影响以及机柜顶部垂直排风管的大小和长度。因此,我们必须在设计时特别的仔细来确保该垂直排风管系统不会造成错误的压差。但是从绝大多数的案例来讲,这种被动型散热方案是目前{zh0}的解决方案。

简析数据中心气流管理技术   

图2:垂直排风管系统或称为烟囱机柜

  主动式烟囱机柜只有当机柜使用长度很长的服务器设备和机柜后部的功能区特别的紧张时才会使用。主动式烟囱机柜指的是在垂直排风管中加装风扇。主动型设备添加了新的一层系统结构,直接影响了系统的效率和复杂性。在无必要性的时候,应避免安装主动性设备。
  
  另外还有种机架机冷却方案叫做背板式水冷方案,通常是用在机柜的后门来冷却设备热回风,并报冷却后的冷风送入房间。还有一种背板式水冷方案是机柜后部带有管道,并通过管道将冷却后的冷风送入机柜前部从而形成一个独立的送风循环。这种方案的优点和xx匹配型制冷型制冷方案的优点一样:冷却系统离被冷却的服务器设备距离很近,并且房间的温度适合操作人员的工作温度。但是正因为机柜后部的冷却系统的存在带来了一个狠棘手的问题:如何解决机柜前后部的风压差和回风通常。另外我们还必选面对使用冷却剂如冷水的费用,投资成本,设备故障及维修,冗余等一系列的问题。这些问题我们已在xx匹配型制冷型制冷方案中详细描述过。这三种机架级冷却方案都可通过与数据中心设计和空调系统配合来增加每机柜热密度。
  
  结论
  
  冷通道密闭和热通道密闭(冷池和热池)这两种方案都可以改善数据中心气流组织,提高每机柜的热密度,并且提高热回风的温度从而提高空调系统的制冷效率。正如每种方案不同的特性,热池(HAC)对比冷池有着更多的可扩展性,制冷效率和房间内工作的舒适度,xx匹配型制冷不受高度受限制等等。如数据中心房内有天花吊顶或回风管时,垂直排风管系统在所有的解决方案中有着更高的效率和冗余性能。

当前,随着企业和社会数据量的不断增加,数据中心的规模不断扩大。伴随着数据集中在电子政务、企业信息化等领域的逐渐展开,以及基于Web的应用不断普及深入,新一代的企业级数据中心建设已成为行业信息化的新热点。虚拟化、云计算等新技术和概念的提出更是为数据中心的发展开辟了新的道路。但是,数据中心愈加壮大,对数据中心安全性的要求就愈加严格。而作为确保数据中心安全的一个重要方面,数据中心灾难恢复就显得尤为重要。作为数据中心管理人员,数据中心灾难恢复有何重要性?如何制定数据中心灾难恢复规划?虚拟化、重复数据删除等技术在灾难恢复中将起到什么作用?本专题将为你解答这些问题,对数据中心灾难恢复趋势与技巧进行分析。

近年来,随着企业和社会数据量的增加,原有的数据中心已无法满足数据处理的要求。许多企业在扩大原有数据中心规模的同时,开始引入新的数据中心规划与设计项目。而如今,在全行业打造绿色高效数据中心的大环境下,企业的数据中心管理人员如何选择数据中心设计团队及建设承包商?数据中心如何选址?城区数据中心有何规划和设计原则?数据中心与企业总部应该布局在一起还是分处两地?如何规划数据中心的容量?如何设计具有高成本效益的数据中心?本指南将为你解答这些问题,助你打造绿色高效数据中心。

数据中心TIA-942新标准已经出台将近一年了,10Gb的一些新标准也已公布或正在制定中。然而,无论采用什么标准,网络架构师和布线施工人员都必须想办法设计一个既节约能耗又符合成本效益的数据中心网络——并且还不能以牺牲性能为代价。那么,如何创建数据中心网络基础架构?数据中心网络设计过程中应该考虑哪些因素?如何确定数据中心的布线要求?如何补救数据中心电缆?数据中心布线成本如何计算?本手册将为您解答这些问题。

如今,随着数据中心容量的增加、规模的扩大以及新型设备与技术的引入,数据中心运行与维护的难度也在加大。但是,无论如何,提高数据中心性能、降低数据中心能耗、降低数据中心运维成本始终是数据中心管理人员的{zj2}目标。具体来讲,如何做好数据中心冷却?如何保证数据中心电源系统稳定高效的运行?如何对数据中心实现“绿色”运营?如何对数据中心网络进行监管,并保证数据中心的网络性能?这一切都是摆在数据中心管理人员的难题,本技术手册将对这些问题进行解答。

在数据中心普及化的高潮中,服务器整合与虚拟化是两个主要趋势。目前,许多机构都在实施数据中心整合策略,试图以此来降低IT成本并增加容量。许多人认为,更新的技术以及更少的数据中心必然会节省大量的运营成本。然而,数据中心整合项目究竟是否物有所值?数据中心整合项目实施过程中有哪些注意事项?在整合过程中有哪些常见问题,这些问题如何解决?本技术手册将为您解答这些问题。</P

郑重声明:资讯 【简析数据中心气流管理技术- 数据中心能耗管理- TT数据中心- TechTarget中国】由 发布,版权归原作者及其所在单位,其原创性以及文中陈述文字和内容未经(企业库qiyeku.com)证实,请读者仅作参考,并请自行核实相关内容。若本文有侵犯到您的版权, 请你提供相关证明及申请并与我们联系(qiyeku # qq.com)或【在线投诉】,我们审核后将会尽快处理。
—— 相关资讯 ——