至顶网软件频道消息: 刚刚与大众汽车公司(Volkswagen AG)达成重大的基础设施协议,AWS马不停蹄地又在今天推出了让企业在使用其云平台时更具灵活性的新功能。
主要亮点是一款名为AWS Deep Learning Containers的软件包,它由来自开源生态系统的主流人工智能工具组成,AWS将这些工具打包到Docker容器中,使其可以轻松部署在不同类型的AWS计算实例上。这么做的目的是为了让工程师在短短几分钟时间内,就能设置好基于云的人工智能开发环境。
Deep Learning Containers还打包了很多提高AI性能的优化。例如,AWS预打包版本的TensorFlow深度学习框架,可以训练神经网络使其速度提高到最初版本的两倍,而这主要是通过允许软件更有效地在AWS云平台将工作分布到不同图形卡上实现的。
TensorFlow是这次AWS发布Deep Learning Container仅支持的两款AI工具之一,另外一个工具是Apache MXNet。Amazon表示,未来还将支持更多框架。
AWS人工智能总经理Matt Wood表示,Deep Learning Container旨在帮助企业利用优化的、预打包的容器图像快速设置深度学习环境,“我们希望让机器学习不再那么深奥难懂”。
此外,AWS还针对Redshift数据仓库的一款新自动化工具,旨在减少客户的管理开销。这个名为Concurrency Scaling的机制可以在出现使用高峰时分配额外的处理能力,并在需要时取消额外资源配置。AWS还借这次机会正式宣布App Mesh网络监控工具全面上市。
除了以上这些新功能之外,AWS还推出了三个基础设施选项,主要针对那些希望削减云支出的企业。第一个是Glacier Deep Archive,是AWS S3对象存储服务中的一个新层,旨在保护不常访问的数据如财务审计日志等。它比AWS为此类用例提供的现有S3 Glacier Archive层便宜75%。
此外AWS还发布了M5a和R5a计算实例系列的新版本,这些实例于去年11月份推出,采用了AWS的芯片,比基于英特尔至强处理器的AWS设备成本低10%。
据AWS介绍,M5a和R5a节点可以配置75GB到3.6TB的直连NVMe闪存驱动器,由于非常靠近底层物理服务器,因此访问速度要高于常规存储。
好文章,需要你的鼓励
国际能源署发布的2025年世界能源展望报告显示,全球AI竞赛推动创纪录的石油、天然气、煤炭和核能消耗,加剧地缘政治紧张局势和气候危机。数据中心用电量预计到2035年将增长三倍,全球数据中心投资预计2025年达5800亿美元,超过全球石油供应投资的5400亿美元。报告呼吁采取新方法实现2050年净零排放目标。
维吉尼亚理工学院研究团队对58个大语言模型在单细胞生物学领域的应用进行了全面调查,将模型分为基础、文本桥接、空间多模态、表观遗传和智能代理五大类,涵盖细胞注释、轨迹预测、药物反应等八项核心任务。研究基于40多个公开数据集,建立了包含生物学理解、可解释性等十个维度的评估体系,为这个快速发展的交叉领域提供了首个系统性分析框架。
AMD首席执行官苏姿丰在纽约金融分析师日活动中表示,公司已准备好迎接AI浪潮并获得传统企业计算市场更多份额。AMD预计未来3-5年数据中心AI收入复合年增长率将超过80%,服务器CPU收入份额超过50%。公司2025年预期收入约340亿美元,其中数据中心业务160亿美元。MI400系列GPU采用2纳米工艺,Helios机架系统将提供强劲算力支持。
西湖大学王欢教授团队联合国际研究机构,针对AI推理模型内存消耗过大的问题,开发了RLKV技术框架。该技术通过强化学习识别推理模型中的关键"推理头",实现20-50%的内存缩减同时保持推理性能。研究发现推理头与检索头功能不同,前者负责维持逻辑连贯性。实验验证了技术在多个数学推理和编程任务中的有效性,为推理模型的大规模应用提供了现实可行的解决方案。