谈到Arm芯片在云端环境的部署,大部分讨论都集中在效率、核心密度和性能可预测性等方面。
然而,亚马逊云科技认为,其Arm芯片完全可以在性能和性价比方面也表现出强大的竞争力,特别是Graviton 3E处理器甚至有望在向来以要求严苛著称的HPC市场上一展身手。
AWS于2022年初展示了其第三代Graviton处理器。这款包含550亿晶体管的芯片封装有64个运行频率为2.6 GHz的Arm兼容核心,并由速度更快的DDR5内存提供300 GB/秒的内存带宽。随后于2022年11月,这家云巨头又推出了Graviton 3E,新产品针对HPC和网络作业进行了调整,面向浮点与向量数学做出优化。亚马逊表示,该芯片的浮点和向量计算性能提升了约35%,而在Linpack基准测试中的性能约为标准版Graviton 3的两倍。
除CPU之外,亚马逊还展示了更新之后的Elastic Fabric Adapter (EFA) 低延迟网络接口,用于将多个Graviton实例对接起来。
这两款产品都将登陆AWS Hpc7g实例,具体提供三种SKU,分别向客户开放16、32和64个Graviton 3E核心。除核心数量之外,这些实例的其他配置基本相同,均支持Amazon Elastic Block Storage服务、配备128 GB DDR5内存,以及由EFA提供的200 Gb/秒网络。
根据亚马逊的介绍,这种同质化设计是有意为之。他们的想法是在核心数较少的实例中,客户可以调整各核心所对应的特定内存或网络带宽比率。另外,这样的实例规模设计,可能也更适合那些需要遵循特定许可条款的软件用户。
与亚马逊云科技此前提供的AMD和英特尔芯片版Hpc6实例一样,AWS希望客户能像使用集群节点一样使用这些实例,而非将其作为独立的虚拟机。在发布公告中,亚马逊方面提到了Hpc7g实例可支撑起需要“数万个核心”的工作负载,看来他们已经做好了交付大规模集群设施的准备。
当然,亚马逊并不是第一家尝试将Arm核心同HPC工作负载相融合的公司。日本RIKEN实验室的Fugaku超级计算机采用的也是基于Arm的48核富士通A64FX处理器,其拥有出色的向量计算性能,已连续两年稳居超算Top500榜首。
亚马逊表示,他们正与RIKEN合作开发可在Hpc7g实例上运行的“虚拟Fugaku”,用以支持该研究所对计算资源的更多需求。
亚马逊的Hpc7g实例在初上线时仍将受到一定限制。该公司表示,实例集群仅限于同一可用区内,且首批发布将只登陆位于北弗吉尼亚州的美国东部区域。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。