AMD 的第四代 Eypc 处理器日前登陆 AWS,并提供通用和高性能计算(HPC)任务的选择。
第四代 Eypc虚拟机率先在亚马逊的 Hpc7a 实例上推出,据称针对计算和内存带宽受限的工作负载(如计算流体动力学和数值天气预报)进行了优化。亚马逊声称新实例的速度与使用 AMD 第三代 Epycs 的旧版套件 Hpc6a 实例相比快了 2.5 倍。
新的虚拟机提供 24、48、96 和 192 个内核的选择。通常情况下,列出的 vCPU 数量是指线程个数,但亚马逊称新虚拟机的同时多线程(SMT)已被禁用,目的是最大限度地提高性能。这意味着亚马逊使用的是一对 96 核 CPU,很可能是Epyc 9654,时钟频率可提升至 3.7GHz。
我们所知道的是,亚马逊并没有使用 AMD 的高速缓存堆叠 Genoa-X CPU。这些芯片是AMD芯片制造商在今年 6 月的数据中心和人工智能活动中推出的,可提供高达1.1GB的L3缓存。即使没有海量的额外 L3,AMD 的第四代 Epycs 也增加了许多功能,可能有益于HPC和基于人工智能的工作负载。这些功能包括支持 AVX-512、矢量神经网络指令 (VNNI)、BFloat 16 和更高的内存带宽(每个插槽最多 12 个 DDR5 通道)。

亚马逊的 Hpc7a 实例可配备四个 SKU,每个 SKU可 配备 24 到 192 个 vCPU
这些实例的内核个数是可以调整的(这将有利于那些按内核许可运行的工作负载),其余规格保持不变。所有四个 SKU 均配备了 768GB 内存以及由亚马逊弹性织物适配器提供的300Gbps节点间网络和25Gbps的外部带宽。
这种标配并非偶然。客户可以通过保持内存配置的一致性进而调整每个内核的内存或带宽的特定比例。这对于HPC工作负载非常有益,因为HPC工作负载更常受到内存带宽的限制,而不是内核数量的限制。其实并不是只有 AMD 的实例这样做,亚马逊在之前发布的基于 Graviton3E 的 Hpc7g 实例中也采用了同样的方法。
高速节点之间的网络也很重要,原因是亚马逊希望客户将工作负载分布到多个实例上运行,就像集群中的节点一样,而不是在单个虚拟机中运行。因此,这些节点支持亚马逊的 批量和平行集群(Batch and ParallelCluster)编排平台以及 Lustre FSx存储服务。
对于一些可能不需要最快时钟速度或内存带宽的用户,亚马逊还推出了早在 6 月份就预告过的 M7a 通用实例。
亚马逊声称这些实例的性能比基于 Epyc Milan 的 M6a VM 高出多达 50%,并且可以使用多达 192 个 vCPU,每个 vCPU的时钟频率可达3.7GHz。假设亚马逊在这些实例中使用了 SMT(我们已联系亚马逊以求澄清),这表明亚马逊很可能在这些实例中用了单个 Epyc 9654,最高频率恰好是 3.7GHz。

亚马逊的 M7a 实例包最多可配备 192 个 vCPU 和 768GB 内存
这些虚拟机的配置有十多种,从 1GB 内存和 12.5Gbps 网络带宽的单 vCPU到768GB 内存和 50Gbps 网络吞吐量的 192 vCPU 大型实例。
所有这些实例都由亚马逊的定制Nitro数据处理单元(DPU)支持,DPU可以卸载主机CPU的许多功能,如网络、存储和安全等等。
亚马逊的M7a实例现在已经在该云服务提供商美国的北弗吉尼亚、俄亥俄、俄勒冈和爱尔兰数据中心中提供给普通用户使用。
好文章,需要你的鼓励
在技术快速发展的时代,保护关键系统越来越依赖AI、自动化和行为分析。数据显示,2024年95%的数据泄露源于人为错误,64%的网络事件由员工失误造成。虽然先进的网络防御技术不断发展,但人类判断仍是最薄弱环节。网络韧性不仅是技术挑战,更是人员和战略需求。建立真正的韧性需要机器精确性与人类判断力的结合,将信任视为战略基础设施的关键要素,并将网络韧性提升为国家安全的核心组成部分。
上海AI实验室提出InternVLA-M1框架,通过空间引导的视觉-语言-动作训练,让机器人先学会"在哪里行动"再学"如何行动"。系统采用双阶段训练策略,构建了300万个多模态样本数据集。在多项测试中表现优异,相比基线方法提升10-20%成功率,在真实世界未见物体任务中提升20.6%,为通用智能机器人发展提供了新思路。
自计算机诞生以来,人们就担心机器会背叛创造者。近期AI事件包括数据泄露、自主破坏行为和系统追求错误目标,暴露了当前安全控制的弱点。然而这种结果并非不可避免。AI由人类构建,用我们的数据训练,在我们设计的硬件上运行。人类主导权仍是决定因素,责任仍在我们。
UC圣塔芭芭拉分校研究团队开发出直接多词解码技术(DMTD),通过重用大语言模型的后期层实现一次性生成多个词汇。该技术无需添加额外参数,仅通过重新组织内部处理流程就实现了2倍速度提升,同时保持96%以上的准确性。实验证明技术在大型模型上效果更佳,为AI交互效率提升开辟了新路径。