在市场合作上,AMD更是开始了新一轮的攻城略地,前不久刚和腾讯联合发布了星星海做事器产品后,如今Azure等一众公有云厂商也开始支配基于Milan-X的做事器,乃至将刚改名为Meta的Facebook也被拉拢至AMD阵营,宣告将在其数据中央支配AMD的做事器产品。
Milan-X:6nm的大缓存怪兽
继上一代Milan处理器推出后不到一年,AMD就发布了该芯片的6nm改进版Milan-X。今年上半年通过领悟Chiplet和Die堆叠两大技能,在Ryzen桌面处理器上做了3D Chiplet架构的演示。如今第三代Epyc处理器Milan-X,将成为首个利用该技能的做事器产品。通过在Chiplet上堆叠缓存,Milan-X的L3缓存是Milan的三倍,达到了恐怖的768MB。

MilanX / AMD
与英特尔一样,AMD在正式发售前并没有公布Milan-X的详细性能细节,而是通过互助伙伴的测试来展示了Milan-X在EDA和公有云运用中表现。在新思的VCS功能验证中,Milan-X在1小时内完成了40.6项任务,而同样核心数的Milan仅完成了24.4项。微软在基于Milan-X的Azure做事器中进行了早期测试,无论是在航天仿照,还是在汽车碰撞测试建模中,Milan-X都做到了50%以上的性能提升。
Milan与MilanX在新思VCS上的比拟 / AMD
除此之外,AMD CEO苏资丰博士还透露了下一代5nm Epyc处理器Genoa的情报。基于Zen 4架构的Genoa将具备2倍的晶体管密度和2倍的能效,性能可以达到上一代的1.25倍以上。Genoa最高支持96个Zen 4核心,同时也将加入一系列新标准的支持,比如DDR5、PCIe 5.0和CXL。AMD还将推出基于5nm的Zen 4C核心的处理器Bergamo,专门针对哀求多核多线程的云原生打算,最高核心数将达到128核,晚于Genoa发布。
Genoa操持在2022年量产和发布,届时很可能便是英特尔的Sapphire Rapids和AMD的Genoa在通用打算领域争雄了。
Instinct MI200:GPU终于迎来MCM时期了?
除了Milan-X之外,发布会的最大亮点实在是环球首个MCM GPU,Instinct MI200。同样基于台积电的6nm工艺,Instinct MI200系列单芯片的晶体管数目达到580亿,最高集成了220个打算单元。作为首个采取AMD CDNA2架构的做事器GPU,Instinct MI200的目标很明确,那便是将打算能力推向ExaScale级。
Instinct MI200 GPU / AMD
在CDN2架构和第二代HPC&AI专用矩阵核心的支持下,Instinct MI200实现了远超竞品的性能表现。数据比拟环节,AMD选择拿Nvidia目前最强的A100加速卡开刀。MI250X的FP64向量打算能力达到47.9TF,FP64矩阵打算能力达到95.7TF,均为A100的4.9倍。而在AI领域常用的FP16和BF16矩阵打算中,MI250X的算力也达到了383TF,是A100的1.2倍。即便两者都用上了HBM2E,MI200的内存带宽也达到了3.2TB/s,远超A100的2TB/s。不过MI250X的功耗确实要赶过不少,峰值状态下的功耗可以达到560W,而A100的峰值功耗为300W。
EFB示意图 / AMD
与英特尔这种IDM厂商不同,AMD在封装上基本吃透了与台积电互助带来的技能红利,尤其是台积电的3D Fabric封装技能凑集,而Instinct MI200则是这些技能的集大成之作。作为首个采取多Die设计的GPU,Instinct MI200选用了两个SoC+8个HBM2E的方案,AMD在发布会上流传宣传这一设计的实现要归功于2.5D的Elevated Fanout Bridge(EFB)架构。
InFO-L/LSI技能 / 台积电
从图解上来看,AMD的EFB与台积电的InFO-L 2.5D封装技能可以说是从一个模子里刻出来的。在专门用于HBM集成的方案,目前可以做到这种规模的异构彷佛也只有台积电的InFO-L和CoWoS-L,利用LSI(本地硅互联)芯片,为SoC到SoC与SoC到HBM供应高布线密度的互联。
实在英特尔也有类似的2.5D封装方案EMIB,只不过该方案是在基板内放入一个硅桥die。而反不雅观AMD的EFB和台积电的LSI方案则是将其置于基板的模具中,模具内分布着一系列铜柱。相较之下,EMIB虽然可以做到更低的寄生电感,却也对付基板的加工提出了很高的哀求,这也是为何只有英特尔这个基板大厂才利用EMIB的缘故原由之一。不过随着IDM 2..0模式的展开,英特尔也将公开供应自己的制程、IP和封装技能,未来大概会有其他厂商的芯片开始用上EMIB。但目前来看,虽然增加了高度掌握的寻衅,但为了利用标准的基板降落本钱,EFB和LSI明显是最优解。
在外不雅观尺寸上,AMD选择了OAM和PCIe两种形式。OAM为开放打算项目(OCP)定下的通用加速器模组标准,对付想要规模化支配GPU或其他加速器来说,OAM可以供应更大的带宽。作为Facebook和微软共同实行的公开标准,OAM已经在做事器领域有了不小的规模,不仅是英特尔、AMD和英伟达这些半导体厂商,浪潮、遐想、百度和阿里巴巴等其他做事器与公有云厂商也开始支持这一标准。
目前OAM的MI250和MI250X已经进入可交付阶段,从今年第三季度起,AMD就已经在为美国能源部的橡树岭国家实验室持续交付MI250X GPU了,用于组成美国首个ExaScale级别的超级打算机Frontier。除了OAM模组外,AMD也将在不久供应PCIe版本的MI210,用于非密集运算的场景。
结语
随着英特尔、三星和台积电在2.5D/3D封装技能上的逐渐成熟,做事器芯片将成为受益最大的产品,未来2+8乃至3+8的MCM GPU可能更加常见。英伟达、AMD与英特尔三家在做事器/数据中央市场上的动向,也侧面表示了IDM与Fabless厂商之间在技能选择上的差异。英特尔如果不能尽快在制程和封装上超越台积电这样的晶圆代工厂,在做事器市场的上风可能会越来越小。