咨询QQ:
      杂志订阅

      编辑

      网管

      培训班

      市场部

      发行部

电话服务:
 010-82024981
欢迎, 客人   会员中心   帮助   合订本   发布信息
设为首页 | 收藏本页
推出一体化液冷解决方案:中兴通讯为数据中心高能耗“切脉”
  • 2021年,我国数字经济规模达45.5万亿元,占全年GDP比例高达39.8%。而数字经济高速发展则离不开计算、存储和网络等基础设施的支持,2017-2021年,我国数据中心规模激增,机架数量从166万架增至520万架,年均复合增速超30%。

    2021年,我国数字经济规模达45.5万亿元,占全年GDP比例高达39.8%。而数字经济高速发展则离不开计算、存储和网络等基础设施的支持,2017-2021年,我国数据中心规模激增,机架数量从166万架增至520万架,年均复合增速超30%。
      
      在数字经济撬动更大经济价值的同时,托起数字经济发展的数据中心却像一只只“能耗巨兽”,昼夜不停地运行着——2021年,我国数据中心总耗电量达2166亿度,约占全社会用电量的2.6%;碳排放量达1.35亿吨,占全国二氧化碳排放量的1.14%左右。
      
      改善数据中心高能耗的现状,不仅是我国“双碳”政策的要求,更是行业降低运营成本、提升能效比的迫切需求。
      
      中兴通讯与英特尔作为数字基础设施领域的领导者,则早早行动起来,从芯片等元件层面,到机架、整个数据中心解决方案层面,为构建绿色数据中心提供了全面的技术支持。
      
      浏览器不支持该音视频
      
      你可以刷新试试
      
      拆解数据中心能耗结构:节能从何处入手
      
      那么究竟应该如何降低数据中心的能耗呢?从PUE分解下手似乎是最直接的思路。
      
      PUE即数据中心总耗电量与数据中心IT设备耗电量的比值,是衡量数据中心总体能耗水平的指标。PUE值越接近1,则意味着非IT功耗越低,能源利用率越高。
      
      2022年8月,国家发改委等7部门联合发布的《信息通信行业绿色低碳发展行动计划(2022-2025年)》中就提出,到2025年,全国新建大型、超大型数据中心平均PUE值降至1.3以下,改建核心机房PUE降到1.5以下。而截至2021年,我国全国数据中心平均PUE仍高达1.49。
      
      从PUE的定义看,降低能耗,可以从“提高分母”和“减少分子”两方面下手。但由于分子和分母的相关性,本质上还是要降低除IT设备外供电设备、制冷设备等其他设备的整体能耗。
      
      同时,提升服务器、网络设备和存储设备等核心IT设备的能效同样重要。“不能单纯看数据中心线消耗了多少,而是要看用电的合理性。在同样的负载下,如果能够提供更多的服务,也是提升数据中心能效的一个重要方面。”英特尔中国区数据中心和人工智能产品方案架构师团队总监高丰在一次采访中表示。
      
      作为服务器中的性能核心——CPU,英特尔将提升能效的目标融入了第三代英特尔®至强®可扩展处理器的设计中,在性能相比前一代提升了40%以上的基础上,创新性的采用了全新的频率选择技术(SST技术)。基于此,第三代英特尔®至强®可扩展处理器可以根据不同的工作负载,随时调整参与运算的核心数量和频率,如在直播、游戏等场景下调用高频高压的高性能模式,而在云业务、静态运算时,则使用相匹配的低能耗模式。在高核心数+低主频,以及低核心数+高主频两种状态下的自如切换避免了CPU的性能浪费,可以说是把每一瓦电都用到了极致。
      
      而另一方面,要减少IT设备的整体能耗,最核心的就是要解决散热问题。同手机、电脑等电子设备一样,服务器最大的敌人也是“发烫”。需要想尽办法散热、让服务器保持最舒适的工作温度,才能确保设备的稳定运行,同时降低这部分能量消耗。
      
      目前数据中心中最主流的是散热方式是风冷,即通过空调、风扇、散热器等组件帮助主板、硬盘散热。中兴通讯则基于多年的技术积累和行业实践,不断推出更高效的风冷方案,包括增加服务器外壳和硬盘外壳的通风孔以提升进风量,使用高性能风扇、高效导风罩和高效塔式铜管散热器来降低CPU温度等。
      
      但随着服务器密度越来越高,核心电子元件的能耗和发热越来越严重,风冷方案也逐渐变得心有余而力不足,更加高效的液冷方案也由此应运而生。
      
      高效液冷迈入实践阶段,散热效率的“奇点”时刻
      
      液冷方案即利用冷却液帮助数据中心的芯片、服务器、机柜进行散热。
      
      相比传统的风冷解决方案,一方面,由于液体热传导效果是空气的25倍,且吸热后温度变化不明显,冷却能力是空气的1000到3000倍,从而能够更高效的稳定CPU、服务器的温度;另一方面,液冷方案可以减少建设空调系统的投入和空调、风扇运行的高额电费投入,不仅能比风冷系统节能30%,还能提升单位空间服务器密度,兼顾效率与能耗。
      
      尽管具备众多优势,长期以来,受到漏液、进出水管路需要配备快接插头、机柜改造难度大等问题的影响,液冷方案始终没有成为市场的主流选择。
      
      而随着以中兴通讯为代表的头部基础设施供应商不断的应用实践和技术创新,降温方式向液冷转变已成为了大势所趋。数据中心的“液冷时代”已经到来。
      
      作为始终在市场一线“倾听炮火声”的中兴通讯,早已开始了在液冷技术上的布局。截至目前,中兴通讯已经获取了10多项液冷技术专利,涉及液冷系统可靠性、强化散热、流量均衡等多个技术方向,覆盖了冷板式液冷、浸没式液冷等主流的液冷技术,推动了液冷应用的成熟。
      
      为了提升液冷可靠性,中兴通讯在零部件用料上采用了柔性耐腐蚀液冷管路,并经过高强度的加固和焊接设计,最大程度满足了液冷系统整体的可靠性和耐久度,在出厂前的测试中可以达到10年以上的使用寿命。
      
      同时,面对漏液问题,中兴通讯的液冷服务器配备了一个能够智能检测漏液的“安全卫士”,以实时监控液冷系统状态,在发现危险时能以秒为单位立刻发出警告,并主动采取断电等应急措施,保证设备安全。
      
      在解决方案层面,中兴通讯则可以根据不同的应用场景,提供基于不同液冷技术的解决方案和包括CPU液冷、CPU+内存条液冷、CPU+内存条+VR液冷等多种局部定制化方案,以便客户能够根据需求及成本针对性的进行选择。
      
      同时,中兴通讯与英特尔合作,独创性的使用了三维立体真空腔均热板散热技术,跳出了传统的热管散热,可以将芯片置于腔室之中,用气液转换的方式向四周散热,导热方式从一维上升到多维,导热面积更大更均匀,还能降低20%左右的成本。
      
      然而,对数据中心而言,任何单点的技术突破都难以完全改善其高能耗的现状。构造绿色的数据中心是一项复杂的系统工程,需要的是全方位、多角度的技术支持。
      
      一体化解决方案
      
      助力数据中心一站式步入“绿色”时代
      
      “具体到数据中心的节能,肯定不单单是降低PUE这么简单,需要从器件、服务器、机架、数据中心模块等多个层次考虑。中兴通讯则可以为数据中心提供不同层面的节能技术支持,包括一体化的解决方案,力图以最低成本、最大程度的帮助客户降低整体能耗。”中兴通讯服务器产品总工周赞鑫说。
      
      针对液冷散热,中兴通讯联合英特尔等合作伙伴,能够提供十分成熟的一体化液解决方案:可以基于算力和环境需求,由AI控制各设备的能耗;数据中心级的全面监控和预警;以及更低成本的设计方案和更快速的安装部署,全面助力数据中心走向“绿色”时代。目前,在中兴通讯建设的全液冷数据中心项目中,液冷散热的比例已经达到了70%,也让数据中心的PUE突破了极致,并一举获得了2022年CDCC数据中心科技成果奖。
      
      除了为服务器提供散热设计外,中兴通讯还优化了服务器的供电方案,并在硬件上采取CPU智能调频、硬盘自动休眠的方法,配合智能化的软件功效和电池管理,全方面降低了服务器能耗。
      
      事实上,“节能减排”对于当下的数据中心来说早已不单是口号,而是数据中心建设和改造中必须达到的重要战略目标。
      
      作为数据中心“碳中和”目标的践行者和领导者,中兴通讯和英特尔正在共同打造一个“绿色生态”,联合更多产业链合作伙伴,不断进行技术创新,带来更多节能减排“黑科技”:以明年即将发布的中兴通讯液冷G5服务器为例,其液冷散热占比高达80%,同时还采用了高强度的加固设计和漏液检测隔离功能,安全性与可靠性进一步提升;而英特尔也即将发布最新的第四代英特尔®至强®可扩展处理器(SapphireRapids)——采用Intel7制程工艺制造,内置高带宽内存(HBM),能够大幅提升广泛工作负载的性能,尤其在AI方面与前代相比,甚至可以实现高达30倍的性能提升。
      
      “独行侠”的时代已经过去,现代化的数据中心真正需要的是中兴通讯、英特尔等头部厂商牵头,共同打造综合性的节能解决方案,助力更多数据中心走向绿色、智能和高效。
      
      编辑:Harris
      
      

    2021年,我国数字经济规模达45.5万亿元,占全年GDP比例高达39.8%。而数字经济高速发展则离不开计算、存储和网络等基础设施的支持,2017-2021年,我国数据中心规模激增,机架数量从166万架增至520万架,年均复合增速超30%。