黑科技:浸没式液冷数据中心,一体化智能机柜,机房空调是否要被淘汰了!

雷迪司快讯:根据数据中心发展趋势预测,到2024年数据中心耗电量将占到全社会耗电量的5%以上,其中散热占到了数据中心非常大比例的电能消耗。

   2017426日的云栖大会上,阿里云展示了全浸没的“凉得快”服务器——麒麟,把服务器泡在液体里冷却。

侵没式液冷服务器

  这个方案的关键之一,就是绝缘冷却液。把整台服务器浸在液体里循环冷却,利用绝缘冷却液代替风冷。如此一来,不需要用到任何的风扇或者空调等冷却设备,也节省了不少空间。

  据预计,2020年将产生40ZB的数据。与此同时,到2024年数据中心耗电量将占到全社会耗电量的5%以上。节能就成为了数据中心的追求之一。据百度百科,能源使用率(PUE)数据中心总设备能耗/IT设备能耗,是评价数据电能效率的指标,基准是2,越接近1表明能效水平越好,越节能。一般来说,降低PUE的手段就是压缩非IT设备的能耗。因此,对数据中心节能改造,降低其PUE值,成了某些系统集成商的广告噱头。

  据公开资料,国外先进的数据中心机房PUE值通常小于2,而中国的大多数数据中心的PUE值在2-3之间。近年来全球业界平均PUE约为1.7。谷歌也曾经自己公布的数据中心文档中,炫耀过自己超低的PUE:

  自从2008年开始公开PUE后,每年我们都不断的降低PUE。截至到2012年第二季度,过去12个月的加权平均值(TTM)PUE达到了1.13,这是全球效率最高的数据中心。

  据阿里云方面表示,麒麟的能源使用率(PUE)逼近了理论极限值1.0

  利用热交换的原理,阿里巴巴工程师将服务器完全浸没在一种特殊的冷却液里,冷却液吸热气化之后,将直接吸收进入外循环冷却,被液化之后再次用于散热。目前,方案可支持超过200kW功耗的服务器集群。阿里云表示,全程用于散热的能耗几乎为零,在传统数据中心里,几乎有一半的电能消耗在了散热上。

  

  阿里云方面表示,这是液体降温首次商用服务器集群上,可支持超过200kW功耗的服务器集群。

  阿里云介绍,“麒麟”无需风扇、空调等大型制冷设备,可在任何地方部署,节省空间75%以上,单位体积内的计算能力比过去提升了10倍;高密封性也使得元器件远离湿度、灰尘、振动的影响,受干扰情况几乎为0;同时,这种特殊液体完全绝缘且无腐蚀性,即使浸没元器件20年以上,成分不会发生任何变化,也不会对电子元器件产生任何影响。

  目前,“麒麟”已经通过了初步测试和验证,将通过阿里云对外提供计算服务。

根据阿里云的黑科技,雷迪司设想是否可以把一体化机柜设计成使用绝缘冷却系统。雷迪司智能一体化机柜整合了UPS电源、配电、制冷、门禁、机柜、照明、消防、动环监控、应急通风等多个系统,通过监控系统对全部子系统实现统筹管理,打造成为一体化产品,简化设计、采购、建设流程。

雷迪司智能一体化机柜

目前雷迪司一体化智能机柜采用的是风冷无室外机空调,3KW制冷量的空调对整个机柜内部所有设备制冷。

设想:去掉机柜内部空调制冷系统,在机柜底部设计一个液态循环箱体,把服务器浸泡于箱体内,服务器后端网络接入端口、电源接入端口以及前端的开关等通过中继器接到机柜后部的支架上安装管理,服务器后部朝下,面板朝上。服务器的运行状态通过网络接入到一体机柜的显示大屏运维软件窗口监控管理。机柜内部的其他设备如:发热量不大的交换机、配电、UPS电源等设备安装在机柜上层部分。

   如果该设想可以实现,那么该一体机柜的节能效果明显提高,另外整体安装简便,无需考虑空调的散热系统安装,比如空调室外机组,无室外机组的考虑室内热风的导风系统等,另外降低了散热造成的噪音,整个机柜可以做到静音状态。

智能一体化机柜

一体化机柜

 期待雷迪司的一体化智能机柜液态冷却液系统早日投入商用。