新集群的核心是 TPU V4 Pod。这些张量处理单元是去年在 Google I / O 上宣告的,来自 Meta、LG 和 Salesforce 等公司的 AI 团队已经可以利用这些 pod。V4 TPU 许可研究职员利用他们选择的框架,无论是 Tensorflow、JAX 还是 PyTorch,并且已经使 Google Research 在措辞理解、打算机视觉和语音识别等领域取得了打破。
基于谷歌俄克拉荷马州的数据中央,集群的潜在事情负载估量将相似,通过自然措辞处理、打算机视觉算法和推举系统领域的数据进行咀嚼。
对集群的访问以切片的形式供应,从四个芯片(一个 TPU VM)一贯到数千个。具有至少 64 个芯片的切片利用三维环形链路,为集体通信操作供应更高的带宽。V4 芯片还能够访问两倍于上一代的内存 —— 从 16 增加到 32GiB—— 并且在演习大型模型时将加速速率提高一倍。

谷歌研究和人工智能。高等副总裁 Jeff Dean 表示:“为了让前辈的 AI 硬件更易于利用,几年前我们启动了 TPU 研究云 (TRC) 操持,该操持为环球数千名 ML 爱好者免费供应了 TPU 访问权限,他们揭橥了数百篇论文和开源 github 库,主题从《用人工智能写波斯诗歌》到《利用打算机视觉和行为遗传学区分就寝和运动引起的疲倦》。Cloud TPU v4 的发布对付 Google Research 和我们的 TRC 操持来说都是一个主要的里程碑,我们很高兴能与天下各地的机器学习开拓职员长期互助,共同利用 AI。”
谷歌的可持续发展承诺意味着该公司自 2017 年以来一贯在将其数据中央的能源利用与古老的能源采购相匹配,并操持到 2030 年将其全体业务都用于可再生能源。V4 TPU 也比前几代更节能,每瓦产生的 FLOPS 是 V3 芯片的三倍。
对 Cloud TPU v4 Pod 的访问包括评估(按需)、抢占式和承诺利用折扣 (CUD) 选项,并供应给所有 Google AI Cloud 用户。