咨询QQ:
      杂志订阅

      编辑

      网管

      培训班

      市场部

      发行部

电话服务:
 010-82024981
欢迎, 客人   会员中心   帮助   合订本   发布信息
设为首页 | 收藏本页
Supermicro推出可立即部署式液冷AI数据中心
  • 6月5日,AI、云端、储存和5G/边缘领域的IT解决方案制造商Supermicro推出可立即部署式液冷型AI数据中心。此数据中心专为云原生解决方案而设计,并针对NVIDIA AI Enterprise软件平台优化,通过SuperCluster简化企业对生成式AI的运用,并降低运行成本。

     6月5日,AI、云端、储存和5G/边缘领域的IT解决方案制造商Supermicro推出可立即部署式液冷型AI数据中心。此数据中心专为云原生解决方案而设计,并针对NVIDIA AI Enterprise软件平台优化,通过SuperCluster简化企业对生成式AI的运用,并降低运行成本。
      
      近期,英伟达宣布其最新产品BlackwellGPU量产,Supermicro也已推出基于NVIDIABlackwell架构的完善产品系列,支持新型NVIDIAHGXB100、B200和GB200GraceBlackwellSuperchip。通过Supermicro的4U液冷技术,用户能在单一GPU上充分发挥20PetaFLOPS的AI性能,与较早的GPU相比,能提供4倍的AI训练性能与30倍的推理性能,并节省额外成本。
      
      “Supermicro在打造与部署机柜级液冷技术的AI解决方案方面持续领先业界。数据中心的液冷配置设计几乎免费,并能持续降低用电量,这是我们提供的额外价值。”Supermicro总裁兼首席执行官梁见后表示,其解决方案针对NVIDIAAIEnterprise软件优化,满足各行各业的客户需求,全球制造产能得以缩短交付时间,更快提供搭配NVIDIAHGXH100和H200,以及即将推出的B100、B200和GB200解决方案的可立即使用型液冷或气冷计算丛集。从液冷板到CDU乃至冷却塔,机柜级液冷解决方案最大可以降低数据中心40%的持续用电量。
      
      在台北国际计算机展(COMPUTEX2024)上,Supermicro展示了针对NVIDIABlackwellGPU优化的系统,包括基于NVIDIAHGXB200的10U气冷系统和4U液冷系统。此外,Supermicro也将提供8U气冷型NVIDIAHGXB100系统、NVIDIAGB200NVL72机柜(具有72个通过NVIDIANVLink交换器互连的GPU)与新型NVIDIAMGX系统(支持NVIDIAH200NVLPCIeGPU与最新发布的NVIDIAGB200NVL2架构)。
      
      “生成式AI正在推动整个计算堆栈的重置,新的数据中心将会通过GPU进行计算加速,并针对AI优化。Supermicro设计了顶尖的NVIDIA加速计算和网络解决方案,使价值数兆美元的全球数据中心能够针对AI时代优化。”NVIDIA创始人兼首席执行官黄仁勋表示。
      
      随着大模型的快速发展,全球AI大厂不断推出开源模型,使得企业更容易使用当今最先进的AI模型。但大模型对能源的消耗巨大,成为生成式AI发展中的障碍。降低AI基础设施的投资成本和能源消耗,对于支持目前的急速AI变革至关重要。
      
      Supermicro与英伟达的合作,确保无缝且灵活地从AI应用的实验和评估试行推动至作业部署和大规模数据中心AI。此顺畅流程是借由NVIDIAAIEnterprise软件平台的机柜、丛集级优化而实现,能使从初步探索至可扩展AI落地的过程更流畅。
      
      Supermicro云原生AISuper Cluster提供了能在任何地方运行并安全管理数据的灵活性,包括自架系统或本地大型数据中心,其解决方案针对LLM训练、深度学习以及大规模大批量推理优化。客户收到即插即用的可扩充单元后,即可在数据中心轻松部署,进而更快取得效益。
      
      Supermicro的SuperCluster支持NVIDIAAIEnterprise,其中包括NVIDIANIM微服务和NVIDIANeMo平台,能实现端对端生成式AI定制,并针对NVIDIAQuantum-2InfiniBand以及具有每GPU400Gb/s网速的新型NVIDIASpectrum-X以太网络平台优化,可扩展到具有数万个GPU的大型计算丛集。
      
      托管服务涉及基础架构的选择、数据共享和生成式AI策略控管。NVIDIANIM微服务作为NVIDIAAIEnterprise的一部分,可在无缺陷情况下提供托管生成式AI和开源部署优势。其多功能推理运行环境通过微服务,可加速从开源模型到英伟达基础模型等各类型生成式AI的部署。此外,NVIDIANeMo可实现通过数据管理、进阶自定义和检索增强生成定制模型开发,以实现企业级解决方案。与搭配NVIDIAAIEnterprise的SupermicroSuperCluster整合后,NVIDIANIM能为可扩展、加速型生成式AI作业的部署提供更快途径。
      
      编辑:Harris
      
      

    6月5日,AI、云端、储存和5G/边缘领域的IT解决方案制造商Supermicro推出可立即部署式液冷型AI数据中心。此数据中心专为云原生解决方案而设计,并针对NVIDIA AI Enterprise软件平台优化,通过SuperCluster简化企业对生成式AI的运用,并降低运行成本。