主页-[万事达娱乐]「主页」,今年7月,工信部印发的《新型数据中心发展三年行动计划(2021-2023年)》提出:“鼓励应用高密度集成等高效IT设备、液冷等高效制冷系统、高压直流等高效供配电系统、能效环境集成检测等高效辅助系统技术产品”。
12月,发改委等四部门发布的《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等新型基础设施绿色高质量发展实施方案》表示“鼓励使用高效环保制冷技术降低能耗。支持数据中心采用新型机房精密空调、液冷、机柜式模块化、余热综合利用等方式建设数据中心。”
液冷是指使用液体作为冷媒,为发热部件进行换热,带走热量的技术。可用冷媒包括水、矿物油、电子氟化液等。相较于空气作为冷媒,液冷具有散热效率更高,耗电量更低等优势,最早在航天、大型计算机等领域有应用。
20世纪后期至今,风冷凭借成本低、部署简单等优势,逐渐成为数据中心普遍的冷却方式。
然而随着信息技术发展,受5G、工业互联网、云计算、人工智能等应用的拉动,数据存储、计算需求大幅提升,数据中心的服务器单机柜密度越来越高,风冷的散热、能耗问题成为数据中心发展瓶颈。液冷再度受到青睐,众多企业展开液冷在数据中心应用的研发,形成多种部署方式和产品。
在冷板式液冷系统中,液体不直接接触发热的器件如服务器,而是通过装有液体的冷板导热,然后通过液体循环带走热量。冷板通常采用导热性良好的金属如铜、铝等制成,内盛液体。
整个冷板式液冷系统可以分为两部分:室外侧循环和室内侧循环,其中室内侧循环热量转移主要是通过冷却液温度的升降实现,室外侧循环的热量转移主要通过水温的升降实现。
在国内,中科曙光于2012年开始服务器液冷探索,是国内最早开始液冷技术研究的企业。
2015年,国内首款标准化量产的冷板式液冷服务器TC4600E-LP由曙光推出。该服务器是风冷和液冷混合散热模式,液冷散热比可提高至90%以上,采用集成管理模块设计,在整箱刀片式液冷服务器中的CPU芯片和内存上安装固定水冷板,冷媒通过进出口循环流动。
同年,中科院大气物理研究所的“地球数值模拟装置原型系统”率先使用冷板式液冷服务器,大大提高散热效率,也成为国内液冷服务器大规模使用的第一个公开案例。2017年,该系统上榜当年全球高性能计算机(HPC)TOP500榜单。
冷板式液冷技术,服务器等发热期间不用直接接触液体,所以不需要对数据中心机房设备进行重新改造,可操作性更强,因此是我国最早采用的液冷方式,成熟度较高,应用较广泛。
目前,联想、浪潮、新华三等IT基础设施企业都推出了冷板式液冷的相关技术和产品,百度、腾讯、美团等互联网企业也对冷板式液冷进行技术研究和试验验证,在冷板式液冷产业内形成了强劲的带动作用。
浸没式液冷为直接冷却,将发热器件完全浸没在冷却液中,发热器件与液体直接接触,并进行热交换。由于直接接触,所以浸没式的散热效率较冷板式高,可支持更高功率密度的IT部署,提升能源使用效率。
按照热交换过程中冷却液是否存在相态变化,液冷可分为单相液冷和相变液冷两类。前者的冷却液在循环散热过程中始终维持液态,后者冷却液吸收热量后沸腾形成气体,冷凝降温后重新变为液态。
浸没式液冷系统一般分为浸没腔体子系统、冷却子系统、室外冷源系统、监控系统四部分。
自2015年起,阿里巴巴对液冷技术和方案展开研究、探索,自主研发了浸没式液冷服务器服务器整体浸泡在绝缘、无腐蚀性的冷却液中,可以把服务器中CPU、内存条、芯片组、扩展卡等电子器件在运行时所产生的热量均通过冷热交换带走。由于箱体密封,可保护IT设备免于外界环境的影响,极大提高设备可靠性。
2020年,全球规模最大的全浸没式液冷数据中心阿里仁和数据中心投入运营。浸没式液冷的使用大大降低了冷却能耗,该数据中心PUE只有1.09,一年可以节省上千万度电。
为了与浸没式液冷系统兼容,数据中心的服务器、网络设备、监控乃至整体设计均需作出改变,成本较高,因此大规模应用尚属少数。
目前,浪潮、网宿科技、英伟达、3M等企业也已在自身领域开展了浸没式液冷研发,并推出相关产品。
阿里云除在自身数据中心对浸没式液冷进行规模化部署外,也已开启对外商业化输出的脚步。在刚刚结束的第十六届中国IDC产业年度大典上,阿里云发布了阿里云磐久液冷系列产品,其中磐久液冷一体机Immersion DC,是可以在“全球任何气象区域部署,并且实现PUE1.09左右的一体化解决方案”。
喷淋式液冷顾名思义,是将冷却液直接喷淋到发热器件表面或与发热器件接触的扩展表面上,液体吸热后排走,再与外部冷源进行热交换。
喷淋式液冷系统包括喷淋式液冷机柜系统(含管路、布液系统、回液系统和PDU等部件)、液冷服务器、冷却液三部分。
广东合一自主研发了“芯片级精准喷淋液冷技术”,为“国家大数据试验场”提供喷淋式液冷集装箱式数据中心以及服务器喷淋液冷化整体解决方案,整个数据中心的能效指标PUE值在1.03-1.1之间。
当数据中心单机柜密度接近20KW时,风冷散热逐渐接近极限。液冷技术既能支撑更高计算负载,还能提供更高效的散热、更低能耗,同时受地域气候的限制更小,无疑更适用于当前高功率、高密度数据中心发展趋势。
一项技术从研发、商用,到形成完整的上下游产业生态需要时间和过程,也需要极强的驱动力,后者往往来源于成本或政策。曾经的风冷是如此,液冷亦是如此。
如今,随着更多企业参与液冷技术和产品研发,双碳战略及数据中心行业多项政策要求,无疑为数据中心应用液冷等绿色技术的脚步按下了快进键。