咨询QQ:
      杂志订阅

      编辑

      网管

      培训班

      市场部

      发行部

电话服务:
 010-82024981
欢迎, 客人   会员中心   帮助   合订本   发布信息
设为首页 | 收藏本页
英伟达新一代数据中心GPU投产 中国市场受美国禁令无法使用
  • 据NVIDIA介绍,H100使企业能够削减AI的部署成本,相较于上一代,在提供相同AI性能的情况下,可将能效提高3.5倍,总体拥有成本减少至1/3,所使用的服务器节点数也减少至1/5。

    美国当地时间9月20日,在GTC大会上,英伟达宣布高性能数据中心GPUH100全面投产。
      
      H100于2022年4月发布,Hopper架构,由800亿个晶体管组成,并采用了众多开创性的技术,包括强大的全新Transformer引擎和NVIDIANVLink®互连技术,以加速最大规模的AI模型,如高级推荐系统和大型语言模型,并推动对话式AI和药物发现等领域的创新。除了Hopper的架构和Transformer引擎之外,第二代多实例GPU、机密计算、第四代NVIDIANVLink和DPX指令等若干关键性创新也让H100GPU如虎添翼,实现了NVIDIA加速计算数据中心平台的又一次飞跃。
      
      据NVIDIA介绍,H100使企业能够削减AI的部署成本,相较于上一代,在提供相同AI性能的情况下,可将能效提高3.5倍,总体拥有成本减少至1/3,所使用的服务器节点数也减少至1/5。
      
      AWS、谷歌云、MicrosoftAzure、OracleCloudInfrastructure将从明年开始率先在云端部署基于H100的实例。
      
      在数据中心,AI是GPU最重要的应用。IDC圈发现,近年来,伴随人工智能快速发展,为人工智能提供专门服务的数据中心正在加速落地。
      
      AI对数据及计算高度依赖。针对AI训练、推理等应用场景的数据中心,呈现出高电力、高性能的特点,更出现专门用于AI训练的数据中心/超算中心。中国AI企业商汤科技就在上海建设了以GPU作为基础算力单元,服务于视觉AI算法训练的人工智能计算中心——AIDC。
      
      当然,目前大多数数据中心仍以CPU作为底层算力单元。
      
      H100将于下月开始供货,不过美国政府于今年8月推出的一项针对中俄两国的出口禁令,涉及本次的Hopper架构H100芯片。对此,英伟达CEO黄仁勋回应,英伟达会向中国客户提供基于Hopper架构,且不在限制范围内的替代版本,足够满足中国市场绝大多数需求。而对受限产品有明确需求的客户,英伟达将尝试为其申请许可。
      
      编辑:Harris
      
      

    据NVIDIA介绍,H100使企业能够削减AI的部署成本,相较于上一代,在提供相同AI性能的情况下,可将能效提高3.5倍,总体拥有成本减少至1/3,所使用的服务器节点数也减少至1/5。