首页 » 通讯 » 全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能

全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能

南宫静远 2024-12-13 11:15:21 0

扫一扫用手机浏览

文章目录 [+]

钛媒体App获悉,北京韶光11月13日晚上,美国芯片巨子英伟达(NVIDIA)发布天下上最强大的 AI 芯片——NVIDIA H200 Tensor Core GPU(图形处理器)。

新的英伟达 H200 是当前 H100 的升级产品,基于 NVIDIA Hopper 超级芯片架构,具有最高的性能和前辈内存技能功能,针对付超大规模的大模型演习和推理,可增强天生式 AI 和高性能打算 (HPC) 事情负载。

全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能 全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能 通讯

H200 是首款供应每秒 4.8 TB速率、141GB HBM3e内存的 GPU 产品。
与 H100 比较,H200 容量险些翻倍、带宽增加 2.4 倍。
在用于 Llama2、GPT-3等大模型推理或天生问题答案时,H200 性能较 H100 提高 60% 至90%(1.6-1.9倍)。
因此,H200可支配在本地、云、稠浊云和边缘侧等各种类型的数据中央内部。

全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能 全球最强AI芯片来袭!英伟达新一代H200机能飙升90%确认将无法在中国发卖|硅基世界_英伟_机能 通讯
(图片来自网络侵删)

同时,与CPU(中心处理器)比较,H200在HPC下得到的结果速率达到一个“胆怯”的数据:提高110倍。

对付中国市场,11月14日上午,英伟达公司在邮件中向钛媒体App确认:如果没有得到出口容许证,H200将无法在中国市场发卖。

据理解,英伟达NVIDIA H200将于2024年第二季度开始向环球客户和云做事厂商供货,估量将与AMD的MI300X AI芯片展开竞争。

英伟达NVIDIA HGX H200处理器(来源:英伟达官网)

详细来看,由于NVIDIA Hopper架构、TensorRT-LLM专用软件等软硬件技能加持,新的H200在超大模型演习和推理性能表现精良。
与H100比较,H200在Llama 2(700亿参数)开源大模型的推理速率险些翻倍,而未来的软件更新估量会带来H200的额外性能领先上风和改进。

据英伟达数据,在TF32 Tensor Core(张量核心)中,H200可达到989万亿次浮点运算;INT8张量核心下供应3,958 TFLOPS(每秒3958万亿次的浮点运算)。

不仅如此,基于H200芯片构建的HGX H200加速做事器平台,拥有 NVLink 和 NVSwitch 的高速互连支持。
8个HGX H200则供应超过32 petaflops(每秒1000万亿次的浮点运算)的FP8深度学习打算和 1.1TB 聚合高带宽内存,从而为科学研究和 AI 等运用的事情负载供应更高的性能支持,包括超1750亿参数的大模型演习和推理。

英伟达H200、H100和A100的性能规格比拟(来源:anandtech)

据Anandtech剖析,根据目前规格来看,H200的加速打算性能可以理解为半年前发布GH200 Hopper超级芯片的一半,而差异在于HBM​​3 更换为HBM3e、内存带宽从80GB提升至141GB、速率提升到4.8TB/秒,这使得英伟达能够提高内容的处理速率和带宽容量。
而根据总带宽和内存总线宽度推算,与H100比较,H200的内存频率增加大约25%。

钛媒体App从英伟达处确认,如果没有出口容许,新的H200将不会销往中国,缘故原由是H200参数高于美国商务部10月17日公布的性能红线:多个数字处理单元的集成电路(用于数据中央)总处理性能为2400-4800,“性能密度”大于1.6且小于5.92。

11月初,英伟达已向经销商公布“中国特供版”HGX H20、L20 PCle、L2 PCle产品信息,分别针对的是演习、推理和边缘场景,最快将于11月16日公布,量产韶光为2023年12月至2024年1月。
个中,HGX H20在带宽、打算速率等方面均有所限定,理论综合算力要比英伟达H100降80%旁边,当然也会比H200更为“缩水”。

值得一提的是,除了H200之外,基于英伟达现在发售的基于Grace、Hopper以及Grace Hopper架构的 AI 芯片,该公司本日推出一种搭载4个Grace Hopper GH200 AI 芯片的新平台,称为NVIDIA Quad GH200。

Quad GH200供应288个ArmCPU内核和总计2.3TB的高速内存,将四个GH200叠加,以8 chips、4路NVLink拓扑相互连接,形成CPU+GPU共同加持的强大算力平台,从而安装在根本举动步伐系统中,供应更易用、性能更强的算力支持。

据美国金融机构Raymond James透露,H100芯片本钱仅3320美元,但英伟达对其客户的批量价格仍旧高达2.5万至4万美元。
这导致H100利润率或高达1000%,成为了有史以来最赢利的一种芯片。

英伟达官网显示,NVIDIA H200将为40多台AI超级打算机供应支持。
包括CoreWeave、亚马逊AWS、谷歌云、微软Azure、甲骨文云等公司将成为首批支配基于H200实例的云做事商。
同时,华硕、戴尔科技、惠普、遐想、Supermicro、纬创资通等系统集成商也会利用H200更新其现有系统。

同时,英伟达还宣告与Jupiter公司互助,将供应基于2.4万(23762)个GH200的新型超级打算机,功耗低到18.2兆瓦,将安装在德国于利希研究中央举动步伐中,用于材料科学、药物创造、工业工程和量子打算领域的根本研究。
该超算系统将于明年交付安装。

此外,英伟达还在官网暗示,明年公布的英伟达 B100 AI 芯片将有更大的性能升级。
“NVIDIA Hopper 架构比之前实现了前所未有的性能飞跃。

(本文首发钛媒体App,作者|林志佳)

标签:

相关文章

搜狐IT,解码互联网时代的创新与发展

随着互联网技术的飞速发展,我国互联网产业取得了举世瞩目的成就。作为我国领先的互联网资讯平台,搜狐IT一直致力于为广大用户提供最新的...

通讯 2024-12-29 阅读0 评论0