Google Cloud近日详细介绍了Axion,一款基于Arm核心设计的、内部开发的CPU。
Google Cloud首席执行官Thomas Kurian在美国拉斯维加斯举行的Cloud Next大会发表主题演讲时推出了这款CPU。在这次活动上,Google Cloud还宣布最新的AI加速器TPU v5p全面上市,这款芯片在处理浮点数(AI模型常用的数据单元)时性能是前身的2倍。
Google Cloud机器学习、系统和云AI副总裁Amin Vahdat在一篇博客文章中表示:“阿姆达尔定律表明,随着加速器的不断改进,通用计算将主导成本并限制我们的基础设施能力,除非我们做出相应的投资来跟上步伐。”
基于Arm的架构
Google Cloud尚未分享Axion架构的详细信息,例如它包含多少个核心以及板载缓存的数量。Google Cloud表示,有关该芯片设计的更多信息将于今年晚些时候公布,不过确实透露称,Axion是基于Arm Neoverse V2 CPU核心设计的。
Neoverse V2是在2022年推出的,针对云数据中心和其他高性能计算环境进行了优化,速度是Arm上一代核心设计的2倍。据该芯片制造商称,这种加速的一部分原因是进行了优化,使得Neoverse V2能够更快地处理整数——许多类型计算中使用的常见数据单位。
基于Neoverse V2的处理器可以配备多达256个核心和512MB缓存,还可以使用Arm最新的指令集架构ARMv9。芯片的指令集架构包括用于表达计算的机器语言和某些相关技术。
Neoverse V2支持的ARMv9功能之一,是一种称为Memory Tagging Extension的网络安全机制。据Arm称,它把连接到芯片的内存分成16位段,并向每个段添加四个附加位,充当一种锁。只有有权访问内存段的应用才能通过锁定,从而降低了黑客攻击的风险。
Neoverse还支持ARMv9的PDP(性能定义功率)功能,此功能可以通过降低CPU的最大性能来提高CPU的能效。
定制云芯片
Google Cloud在自己的数据中心内出了部署Axion处理器之外,还会部署一套名为Titanium的基础设施优化系统,它将卸载Axion处理器的一些任务,为客户工作负载留下更多计算能力。据Google Cloud称,Titanium是由三套内部开发的芯片组成的。
Titanium系统使用了名为Titan的微控制器或简单处理器作为Axion的信任根。信任根是一个硬件模块,可以防止黑客在服务器启动时将恶意代码引入服务器。据 Google Cloud称,Titan还有助于保护数据中心的网络流量。
Axion将把处理用户网络流量所涉及的一些计算转给名为TOP的定制芯片,该芯片也是Titanium系统的一部分。与此同时,第三个名为Titanium适配器的定制处理器也可以帮助运行为Google Cloud实例提供支持的虚拟化软件。Hyperdisk是Google Cloud的块存储服务,承担了一些原本由Axion执行的计算任务,以进一步提高性能。
“Axion处理器为Web和应用服务器、容器化微服务、开源数据库、内存缓存、数据分析引擎、媒体处理、基于CPU的AI训练和推理等通用工作负载带来了巨大的性能飞跃,”Vahdat详细说道。
Google Cloud表示,与竞争对手最快的Arm通用实例相比,基于Axion的实例的性能提高了30%。此外Google Cloud还承诺,与基于英特尔芯片的实例相比,处理速度提高了50%,能效提高60%。Google Cloud计划在今年晚些时候向客户提供Axion。
Google Cloud还将使用该芯片为多个内部工作负载提供支持。Google已经开始重组其数据中心,在基于Arm的硬件上运行某些Google Cloud服务、YouTube广告系统和Google Earth Engine卫星图像分析平台,并计划在不久的将来在Axion支持的服务器上部署其中一些工作负载。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。