NVIDIA推出Blackwell架构DGX SuperPOD,适用万亿参数级的生成式AI超级计算

NVIDIA推出Blackwell架构DGX SuperPOD,适用万亿参数级的生成式AI超级计算北京时间 3 月 19 日消息 NVIDIA 发布了新一代 AI 超级计算机 搭载 NVIDIA GB200 Grace Blackwell 超级芯片的 NVIDIA DGX SuperPOD 这台 AI 超级计算机可以用于处理万亿参数模型 能够保证超大规模

大家好,欢迎来到IT知识分享网。

北京时间3月19日消息,NVIDIA发布了新一代AI超级计算机 —— 搭载NVIDIA GB200 Grace Blackwell超级芯片的NVIDIA DGX SuperPOD。这台AI超级计算机可以用于处理万亿参数模型,能够保证超大规模生成式AI训练和推理工作负载的持续运行。

NVIDIA推出Blackwell架构DGX SuperPOD,适用万亿参数级的生成式AI超级计算

基于NVIDIA网络、NVIDIA全栈AI软件和存储技术,可将Grace Blackwell超级芯片扩展至数万个,通过NVLink将576块Blackwell GPU连成整体,加速即时AI基础设施部署

全新DGX SuperPOD采用新型高效液冷机架级扩展架构,基于NVIDIA DGX GB200系统构建而成,在FP4精度下可提供11.5 exaflops的AI超级计算性能和240 TB的快速显存,且可通过增加机架来扩展性能。

每个DGX GB200系统搭载36个NVIDIA GB200超级芯片,共包含36个NVIDIA Grace CPU和72个NVIDIA Blackwell GPU。这些超级芯片通过第五代NVIDIA NVLink连接成一台超级计算机。与NVIDIA H100 Tensor Core GPU相比,GB200超级芯片在大语言模型推理工作负载方面的性能提升了高达30倍。

NVIDIA创始人兼首席执行官黄仁勋表示: “NVIDIA DGX AI超级计算机是推进AI产业变革的工厂。新一代DGX SuperPOD集NVIDIA加速计算、网络和软件方面的最新进展于一体,能够帮助每一个企业、行业和国家完善并生成自己的AI。”

Grace Blackwell架构的DGX SuperPOD由8个或以上的DGX GB200系统构建而成,这些系统通过NVIDIA Quantum InfiniBand网络连接,可扩展到数万个GB200超级芯片。用户可通过NVLink连接8个DGX GB200系统中的576块 Blackwell GPU,从而获得海量共享显存空间,来赋能下一代AI模型。

面向生成式AI时代的全新机架级扩展的DGX SuperPOD架构

采用DGX GB200系统构建而成的全新DGX SuperPOD采用了统一的计算网络。除了第五代NVIDIA NVLink网络外,还包括 NVIDIA BlueField-3 DPU,并将支持同为今日发布的NVIDIA Quantum-X800 InfiniBand网络。这个架构可为计算平台中的每块GPU提供高达每秒1800 GB的带宽。

另外,第四代NVIDIA可扩展分层聚合和规约协议(SHARP)技术可提供14.4 teraflops的网络计算能力,与上一代产品相比,新一代DGX SuperPOD架构的网络计算能力提高了4倍。

统包式架构搭配先进的软件,实现前所未有的正常运行时间

全新DGX SuperPOD是一台完整的数据中心级AI超级计算机,在与NVIDIA认证合作伙伴提供的高性能存储集成后,能够满足生成式AI工作负载的需求。每台超级计算机都在出厂前完成了搭建、布线和测试,从而大大加快了在用户数据中心的部署速度。

Grace Blackwell架构的 DGX SuperPOD具有智能预测管理功能,能够持续监控软硬件中的数千个数据点,通过预测并拦截导致停机和低效的根源以节省时间、能耗和计算成本。

即使没有系统管理员在场,该软件也能识别需要重点关注的领域并制定维护计划,灵活调整计算资源,通过自动保存和恢复作业来防止停机。

如果软件检测到需要更换组件,该集群将激活备用容量以确保工作能够及时完成。为任何必要的硬件更换做好安排,以免出现计划之外的停机。

NVIDIA DGX B200系统推动各行各业AI超级计算发展

NVIDIA还发布了一款统一用于AI模型训练、微调和推理的通用AI超级计算平台NVIDIA DGX B200系统。

采用风冷传统机架式设计的DGX已被全球各行各业数千家企业广泛采用,DGX B200是DGX系列的第六代产品。采用Blackwell架构的全新DGX B200系统包含8个NVIDIA B200 Tensor Core GPU和2个第五代英特尔至强处理器。用户还可以使用DGX B200系统构建DGX SuperPOD,打造能够帮助大型开发团队运行多种不同作业的AI卓越中心。

DGX B200系统凭借全新Blackwell架构中的FP4精度特性,可提供高达144 petaflops的AI性能、1.4TB海量的GPU显存和64TB/s的显存带宽,从而使得该系统的万亿参数模型实时推理速度比上一代产品提升了15倍。

DGX B200系统包含带有8个NVIDIA ConnectX-7网卡和2个BlueField-3 DPU的高性能网络,每个连接的带宽高达400 Gb/s,可通过NVIDIA Quantum-2 InfiniBand和NVIDIA Spectrum-X以太网网络平台支持更高的AI性能。

软件和专家为扩大生产级AI的规模提供支持

所有NVIDIA DGX平台均包含用于企业级开发和部署的NVIDIA AI Enterprise软件。DGX用户可以通过使用该软件平台中的预训练的 NVIDIA 基础模型、框架、工具套件和全新NVIDIA NIM微服务来加速他们的工作。

NVIDIA DGX专家与部分获得NVIDIA DGX平台支持认证的合作伙伴将在每个部署环节为用户提供帮助,以便其迅速实现AI投产。在系统投入运行后,DGX专家还将继续协助用户优化其AI管线和基础设施。

供应情况

NVIDIA全球合作伙伴预计将在今年晚些时候提供基于DGX GB200和DGX B200系统构建而成的NVIDIA DGX SuperPOD。

()

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/163830.html

(0)
上一篇 2024-12-22 17:15
下一篇 2024-12-22 17:26

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信