时间:2024-04-12 03:30:23
导读:当地时间4月9日,在谷歌举行的“Cloud Next 2024”大会上,谷歌首度公开了其专为数据中心设计的首款自研Arm构架CPU——Axion。 早在2023年2月就有传言称,谷歌正在开......
当地时间4月9日,在谷歌举行的“Cloud Next 2024”大会上,谷歌首度公开了其专为数据中心设计的首款自研Arm构架CPU——Axion。
早在2023年2月就有传言称,谷歌正在开发两种不同的 Arm 服务器 CPU。
其中一款代号为“Maple”,基于 Marvell 的技术,并且可能基于命运多舛的“Triton”ThunderX3及其后继产品 ThunderX4。
第二个项目代号为“Cypress”,由以色列的谷歌团队设计。
据The next platform报道称,Maple 和 Cypress 都是由 Uri Frank 领导研发的,Uri Frank 于 2021 年 3 月从英特尔加入谷歌,成为服务器芯片设计副总裁。
Frank 在英特尔工作了超过两年半的时间,担任工程和管理职务,最终负责许多个人电脑核心芯片的设计。
谷歌 Axion CPU使用的是Arm “Demeter” V2 内核,而不是Arm 在今年 2 月发布的“Poseidon”V3 或“Hermes”N3 内核。
谷歌机器学习、系统和云 AI 总经理 Amin Vahdat表示:“Axion 处理器将谷歌的芯片专业知识与 Arm 最高性能的 CPU 内核相结合,提供与当今云中最快的基于 Arm 的通用实例相比,这些实例的性能提高了 30%,与当前基于 X86 的同类实例相比,性能提高了 50%,能源效率提高了 60%。”
Google Cloud副总裁暨运算和机器学习基础设施总经理Mark Lohmeyer表示:“Google Axion建立在开放基础上,任何地方使用Arm构架的客户都能轻松采用Axion CPU,无需重新构架或编写应用程序。”
据谷歌云首席执行官托马斯·库里安(Thomas Kurian)介绍,Axion 芯片已经在谷歌内部投入生产(可能是有限的),支持 BigTable、Spanner、BigQuery、Blobstore、Pub/Sub、Google Earth Engine 和 YouTube 广告平台,今年晚些时候这些实例将在可供客户在 Google Cloud 上直接租用。
另外,Google Cloud还在去年12月推出了下一代AI加速器TPU v5p,可以用于训练一些规模最大、要求最高的生成式AI模型。
单一TPU v5p Pod包含了8,960个芯片,是TPU v4 Pod芯片数量2倍以上。
据介绍,Google Cloud不会对外销售Axion CPU、TPU v5p等芯片,而是提供给企业客户租用或运用在应用服务中。
需要指出的是,目前亚马逊、微软、阿里云、百度等众多的云服务提供商都有依赖于英伟达、英特尔、AMD等芯片制造伙伴提供的芯片,但是他们也有自研的定制化Arm服务器芯片和AI加速芯片,以便更好的服务客户,降低对于外部供应商的依赖,降低成本。