亚马逊网络服务公司(Amazon Web Services)已经开始提供一种云服务器,该服务器采用定制的第四代英特尔至强可扩展处理器,拥有96个内核或192个vCPU。
目前还不清楚这是一款比英特尔公开发售的至强处理器(60 核 Platinum 8490H)多36核的巨型芯片,还是一款采用较低处理器的双插槽服务器。
近日发布的一篇文章详细介绍了亚马逊弹性计算云(Amazon EC2)中心推出的M7i-Flex和M7i实例类型。这篇文章介绍了一种名为“m7i.48xlarge”的实例类型,可提供192个vCPU,而AWS的CPU选项页面上列出该实例默认提供96个CPU内核。
我们已经联系了AWS和英特尔询问这种定制芯片的规格细节,因为单个CPU已经远远超出了Chipzilla公开透露的数量范围。
无论M7i-Flex和M7i实例类型的服务器采用的是什么芯片,AWS都声称它们“提供的性能在所有云端同类英特尔处理器中是最好的——比其他云提供商使用的英特尔处理器快15%。”
M7I实例推荐适用于大型应用服务器和数据库、游戏服务器、基于CPU的机器学习和视频流。M7I-Flex被认为适用于网络和应用服务器、虚拟桌面、批处理、微服务、数据库和企业应用。据说Flex实例的性价比比普通M7I高5%,价格低5%。AWS还表示,运行在前几代通用实例上的应用程序可以迁移到 M7I,"无需对应用程序或工作负载进行调整"。
裸机M7I实例正在开发中,有96或192个vCPU。
如果英特尔真的推出了96核至强处理器,意义将非常重大。一个原因是,这将使第四代至强与AMD的竞品Genoa数据中心产品相比更具竞争力,后者的内核数量击败了英特尔的产品,因此计算密度也更优。
另一个原因是第四代至强白金版8490H的售价为每台17,000美元。由于AWS采购量大,无论核心数量多少,Chipzilla 都有可能在这里赚上一笔。
最后但并非是最不重要的一点是,无论是否是怪兽级的芯片,这款定制芯片都表明,即使是AWS正在推广自己基于Arm的Graviton CPU,该公司显然是认为更快的x86 CPU仍有用武之地。
在英特尔处理资产负债表的平衡问题之际,同全球顶级的CPU买家之一合作开发出功能强大的定制芯片的消息无疑会成为一剂强心针。
好文章,需要你的鼓励
亚马逊云服务部门与OpenAI签署了一项价值380亿美元的七年协议,为ChatGPT制造商提供数十万块英伟达图形处理单元。这标志着OpenAI从研究实验室向AI行业巨头的转型,该公司已承诺投入1.4万亿美元用于基础设施建设。对于在AI时代竞争中处于劣势的亚马逊而言,这项协议证明了其构建和运营大规模数据中心网络的能力。
Meta FAIR团队发布的CWM是首个将"世界模型"概念引入代码生成的32亿参数开源模型。与传统只学习静态代码的AI不同,CWM通过学习Python执行轨迹和Docker环境交互,真正理解代码运行过程。在SWE-bench等重要测试中表现卓越,为AI编程助手的发展开辟了新方向。
当今最大的AI数据中心耗电量相当于一座小城市。美国数据中心已占全国总电力消费的4%,预计到2028年将升至12%。电力供应已成为数据中心发展的主要制约因素。核能以其清洁、全天候供电特性成为数据中心运营商的新选择。核能项目供应链复杂,需要创新的采购模式、标准化设计、早期参与和数字化工具来确保按时交付。
卡内基梅隆大学研究团队发现AI训练中的"繁荣-崩溃"现象,揭示陈旧数据蕴含丰富信息但被传统方法错误屏蔽。他们提出M2PO方法,通过改进数据筛选策略,使模型即使用256步前的陈旧数据也能达到最新数据的训练效果,准确率最高提升11.2%,为大规模异步AI训练开辟新途径。