厄尔尼诺带来高温“烤”验 数据中心迎峰度夏有新方

发布日期:2023-07-22 18:43:36     文章作者: 新闻中心

  近来,中央气象台继续发布高温橙色预警,多省份局地温度达40℃以上。继续高温下,数据中心的散热问题遭到各方重视。上一年夏天,在高温的冲击下,谷歌、甲骨文等科技巨子的数据中心一度出现冷却体系瘫痪,导致工作毛病。前车之鉴记忆犹新,国内数据中心将怎么迎候“烤”验?

  证券时报记者近来调研发现,液冷技能凭仗其在制冷方面的许多杰出优势,成为数据中心建造的重要挑选。除了强化技能储备和运用试点外,三大运营商已确认2025年将液冷的浸透率推至五成以上。

  “从现实情况来看,全球规划内因气候过热、散热体系出现问题所导致的数据中心宕机事情已屡次发生。”网宿科技(300017)数据中心施行交给总监谢洪明对证券时报记者表明,散热是数据中心的生命线。数据中心的服务器和算力设备工作时,会发生巨大的热量。若不及时散热,数据中心机房内温度过高或许会导致设备宕机和损坏,然后发生事务中止。

  国际气象组织7月4日宣告,热带太平洋(601099)再次构成厄尔尼诺条件,这或许导致全球气温飙升、破坏性气候和气候办法的出现。

  近年来,跟着全球温度继续升高,数据中心在极点高温下突发毛病的现象已不罕见。例如,上一年7月,伦敦阅历数日的极点高温,科技巨子谷歌、甲骨文的数据中心冷却体系瘫痪,导致体系宕机。上一年9月,美国加州气温一度超越40度,导致当地的推特数据中心停摆。

  在5G等新技能的快速遍及下,数据中心已成为数字经济展开的要害基础设备和重要支撑。巨大的设备体量以及日益增长的算力需求,使数据中心散热需求也出现井喷气势。厄尔尼诺随同盛夏降临,数据中心散热迎来新的检测,这关乎整个数字社会的正常工作。

  走近网宿科技上海嘉定云核算数据工业园区的风冷散热体系冷冻站,冰凉扑面而来,布满的银白色管道里传出消沉的“嗡嗡”声。

  谢洪明向记者介绍,这套散热体系,是以冷冻水为冷媒,将低温冷冻水送至数据机房,经过精细空调,把数据机房服务器吹出的热空气冷却后再送风。冷冻水温度因而而升高,当冷冻水回来冷冻机房后,经过压缩机体系,将冷冻水温度再下降,构成往复循环——这正是传统数据中心的风冷冷却技能。

  不过,风冷对土地资源和环境要素存在必定要求,前期的建造本钱往往较高。在未来算力继续添加、数据中心功率和密度进步的大布景下,业界正活跃寻求散热技能的改造,液冷计划已锋芒毕露。

  依据中国移动中国电信中国联通(600050)本年6月一起发布的《电信运营商液冷技能白皮书》,当时,单相浸没式液冷、冷板式液冷为液冷技能的首要办法。浸没式液冷是服务器彻底浸入冷却液中,悉数发热元件热量直接传递给冷却液,经过冷却液循环活动或蒸腾冷凝相变进行散热的一种办法。冷板式液冷是服务器芯片等高发热元件的热量经过冷板直接传递给液体进行散热,低发热元件仍经过风冷散热的一种办法。

  跟风冷比较,液冷能从根本上改动主设备的散热办法,并满意高密度机柜、芯片级准确制冷要求,具有更节能、噪声更低一级长处。

  在网宿科技浸没式液冷技能机房,谢洪明向记者展现了浸没式液冷技能。只见机柜里,一排排服务器严密摆放,静寂地浸没在明澈的液体中。据介绍,这是上海首座全浸没式液冷机房,该机房的电能运用功率(PUE)低至1.1。

  “浸没式液冷技能是一种高效、环保、牢靠的散热办法,也是业界公认的数据中心下一代散热解决计划。液冷技能运用液体替代空气作为冷媒,为发热部件进行换热,可将服务器散热能耗下降80%至90%、IT设备能耗下降5%至10%,完成高效散热。”谢洪明表明。

  据了解,经过传统风冷与浸没式液冷的结合运用,网宿科技嘉定园区的全体PUE低至1.25,不只执行“双碳”方针,也完成了节省效应。

  在2023国际人工智能大会的燧原科技展区上,记者在现场调查了冷板式液冷的运作原理。

  只见巨大的云燧智算集群展现机柜搭载了8台云燧S201-L液冷敞开加快核算服务器,而在单个服务器上,红蓝两条管道正模仿散热的进程。蓝色管道的冷却液向服务器内部活动,绕了一圈的一起带走内部的热量,并经过红管向外流出。一起,服务器外部的冷液分配设备(CDU)会将已吸收热量的冷却液进行再冷却处理,从蓝管再度流入,然后构成了服务器的液冷循环。

  燧原科技技能相关负责人对证券时报记者表明,传统风冷办法在散热功率方面弱于液冷,特别当整台服务器机柜的功耗超越25千瓦时,风冷散热存在的危险较大。从能耗上看,一般来说,风冷的PUE在1.2至1.3之间,而液冷的PUE能够到达1.1乃至1.1以下。

  此外,风冷机柜在叠放单个服务器时,往往需求中距离一层以便于散热,即存在“占地方”的缺陷。比较之下,液冷则能够把服务器的实践运用空间扩展一倍。

  “风冷首要经过空气活动将服务器发生的热量带走,这本质上仍依赖于整个空谐和散热体系,外界气温也构成搅扰要素。比较之下,液冷对外界的依赖性较小,只需CDU正常运作,散热就能够继续。”燧原科技技能相关负责人表明。

  《白皮书》对液冷技能提出三年展开愿景:三大运营商将于2023年展开液冷技能验证;2024年展开规划测验,新建数据中心项目10%规划试点运用液冷技能,推动工业生态老练,下降全生命周期本钱;2025年展开规划运用,50%以上数据中心项目运用液冷技能。

  不过,与传统风冷产品比较,液冷仍存在初期出资高、全生命周期本钱高、工业生态不完善、标准化程度低一级问题。

  浪潮信息数据中心产品部副总经理李金波表明,液冷数据中心的建造既要发挥液冷本身的特色优势,又需求归纳考虑客户的实践需求和职业技能现状。面临复杂多变的需求,标准化是液冷数据中心展开的重要抓手。经过标准化能够有效地下降液冷运用的技能门槛和本钱门槛,然后完成工业化、批量化。

  技能道路挑选方面,冷板式液冷与单相浸没式液冷各有千秋。《白皮书》以为,两者生态均需完善,未来必定时间内将并存展开,三大运营商将一起推动两种技能道路。

  “AI大模型、超算、智算、边际核算等场景将带来高算力需求,散热要求随之进步。一起,‘双碳’方针对数据中心的能耗要求也趋于苛刻。因而,咱们以为浸没液冷将成为数据中心的必选项,并迎来运用推行。”谢洪明表明。

  奥飞数据相关负责人对证券时报记者表明,关于新建数据中心,公司装备了更为高效节能的精细空调等温控设备,部分数据中心还布置了分布式光伏发电,运用新能源作为弥补以到达绿色减碳的方针。液冷作为一种新式的冷却办法,较干流的风冷办法而言,其作用是比较显著的。但现在装备了液冷的数据中心数量较少。

  “因为触及客户服务器工作稳定性和本钱,公司首要以客户需求为导向,假如客户有相关需求咱们也有才能合作客户完成。”奥飞数据(300738)相关负责人表明,公司将重视液冷技能的展开,并坚持敞开情绪与相关方探究液冷在数据中心的落地和运用。