首页 » 科学 » 英伟达宣告用于AI的\"世界上最强大芯片\"Blackwell B200 GPU_机架_最多

英伟达宣告用于AI的\"世界上最强大芯片\"Blackwell B200 GPU_机架_最多

神尊大人 2024-12-18 08:58:22 0

扫一扫用手机浏览

文章目录 [+]

NVIDIA 首席实行官黄仁勋在 GTC 现场直播中举起他的新 GPU(左边),右边是 H100。

NVIDIA 表示,新的 B200 GPU 拥有 2080 亿个晶体管,可供应高达 20petaflops 的 FP4 算力,而 GB200 将两个 GPU 和一个 Grace CPU 结合在一起,可为 LLM 推理事情负载供应 30 倍的性能,同时还可能大大提高效率。
NVIDIA 表示,与 H100 比较,它的本钱和能耗\"大众最多可降落 25 倍\公众。

英伟达宣告用于AI的\"世界上最强大芯片\"Blackwell B200 GPU_机架_最多 科学

NVIDIA 声称,演习一个 1.8 万亿个参数的模型以前须要 8000 个 Hopper GPU 和 15 兆瓦的电力。
如今,NVIDIA 首席实行官表示,2000 个 Blackwell GPU 就能完成这项事情,耗电量仅为 4 兆瓦。

NVIDIA 表示,在具有 1750 亿个参数的 GPT-3 LLM 基准测试中,GB200 的性能是 H100 的 7 倍,而 NVIDIA 称其演习速率是 H100 的 4 倍。

这便是 GB200 的样子。
两个 GPU、一个 CPU、一块电路板

NVIDIA 先容说,个中一项关键改进是采取了第二代变压器引擎,通过为每个神经元利用四个比特而不是八个比特,将打算能力、带宽和模型大小提高了一倍(前面提到的 FP4 的 20 petaflops)。
第二个关键差异只有在连接大量 GPU 时才会涌现:新一代 NVLink 交流机可让 576 个 GPU 相互连接,双向带宽达到每秒 1.8 TB。

这就哀求 NVIDIA 打造一个全新的网络交流芯片,个中包含 500 亿个晶体管和一些自己的板载打算:NVIDIA 表示,该芯片拥有 3.6 teraflops 的 FP8 处理能力。

NVIDIA 表示将通过 Blackwell 增加 FP4 和 FP6

NVIDIA 表示,在此之前,由 16 个 GPU 组成的集群有 60% 的韶光用于相互通信,只有 40% 的韶光用于实际打算。

当然,NVIDIA 还指望企业大量购买这些 GPU,并将它们包装成更大的设计,比如 GB200 NVL72,它将 36 个 CPU 和 72 个 GPU 集成到一个液冷机架中,可实现总计 720 petaflops 的 AI 演习性能或 1440 petaflops(又称 1.4exaflops)的推理性能。
它内部有近两英里长的电缆,共有 5000 条独立电缆。

GB200 NVL72

机架上的每个托盘包含两个 GB200 芯片或两个 NVLink 交流机,每个机架有 18 个前者和 9 个后者。
NVIDIA 称,个中一个机架统共可支持 27 万亿个参数模型。
据传,GPT-4 的参数模型约为 1.7 万亿。

该公司表示,亚马逊、Google、微软和甲骨文都已操持在其云做事产品中供应 NVL72 机架,但不清楚它们将购买多少。

当然,NVIDIA 也乐于为公司供应其他办理方案。
下面是用于 DGX GB200 的 DGX Superpod,它将八个别系合而为一,统共拥有 288 个 CPU、576 个 GPU、240TB 内存和 11.5 exaflops 的 FP4 打算能力。

NVIDIA 称,其系统可扩展至数万 GB200 超级芯片,并通过其新型 Quantum-X800 InfiniBand(最多 144 个连接)或 Spectrum-X800 以太网(最多 64 个连接)与 800Gbps 网络连接在一起。

我们估量本日不会听到任何关于新游戏 GPU 的,由于这一是在 NVIDIA 的 GPU 技能大会上发布的,而该大会常日险些完备专注于 GPU 打算和人工智能,而不是游戏。
不过,Blackwell GPU 架构很可能也会为未来的 RTX 50 系列桌面显卡供应算力。

标签:

相关文章