AWS首席执行官Matt Garman表示:“人们可能喜欢这样说:‘你有其他合作伙伴,他们有自己的芯片,你怎么可能做自己的芯片呢?’事实证明,客户喜欢选择。”
亚马逊网络服务公司(AWS)首席执行官Matt Garman看好公司在自制硅芯片领域的前景,因为 AWS计划凭借其庞大的基础设施布局,以其“控制”整个流程的独特能力,在半导体行业“疯狂优化”。
Garman在周一举行的高盛社区与技术会议上表示:“人们喜欢这样一种说法:‘你有其他合作伙伴,他们有自己的芯片,你怎么可能做自己的芯片呢?’事实证明,客户喜欢选择。”
拥有自己的芯片组可以从多方面帮助AWS客户——从提高性能到降低碳足迹,例如新的 Graviton4 处理器。
早在2006年就进入AWS的Garman表示:“Graviton4绝对优于其他最好的x86处理器,而价格却低20%。因此,我们的许多客户在使用Graviton的过程中,性能价格提高了40%至50%,同时还降低了能耗,改善了碳足迹。”“这是因为我们控制了整个过程。”
Garman表示:“我们制造这些处理器不是为了在通用环境中运行。它们将完全运行在我们的服务器中,完全运行在我们的数据中心中,完全使用我们的网络堆栈,因此我们可以为我们的客户进行优化。”“我们可以围绕这一点进行疯狂的优化,而且我们有一支非常优秀的团队正在制造这些芯片。”
Garman表示,AWS 最初决定在内部构建定制芯片,是为了通过Nitro 支持其虚拟化技术,并能够决定客户的成本。Garman表示:“这意味着我们不必从第三方购买这些芯片,从而降低了成本。”
AWS 是运行英伟达、英特尔和 AMD处理器的最佳场所
这家总部位于西雅图的云计算巨头十多年来一直致力于针对云计算和存储密集型工作负载设计优化的定制芯片。大约五年前,Garman表示,AWS将注意力转向了创建AI处理器,如AWS Inferentia机器学习芯片和用于训练深度学习模型的Trainium ML处理器。
Garman表示:“我们认为,在一些用例中,我们自己的定制处理器可以帮助客户节省成本。”
不过,Garman指出,AWS正在与英特尔、AMD和英伟达等全球最具创新力和规模最大的芯片制造商合作。
AWS 首席执行官表示:“我们坚信,AWS 绝对是运行英特尔、AMD 和英伟达处理器的最佳场所,而且我们认为,我们还可以通过提供自己的处理器来提供一些差异化功能。”
Garman特别强调,英伟达是AWS的全明星处理器供应商,双方建立了超级紧密的合作伙伴关系。他表示:“我们正在超级紧密地合作,为他们构建一个巨大的人工智能基础设施来构建他们自己的模型,并在AWS内部运行他们自己的测试用例。”“因为他们意识到,我们拥有最好的运行环境和最佳性能,可以运行他们自己的服务器。因此,我们之间有着很好的合作关系。”
并非所有的工作负载都更适合在AWS上运行
Garman明确表示,AWS将继续投资于自己的硅芯片创新,并与其他市场领导者建立密切的市场推广和集成合作关系。
Garman表示:“并非所有的工作负载都能在我们自己的处理器上更好地运行,但我们非常看好这方面的机会。Trainium是我们最新推出的芯片,它非常侧重于这些人工智能模型的大规模训练集群。”
AWS计划在今年年底前推出新的 Trainium2 处理器。
Garman表示:“我们对这个平台感到无比兴奋。我们认为,我们有机会在提高性能的同时,积极为客户降低成本。”“在很长一段时间内,客户将有多种处理器可供选择,我们认为更多的选择对客户来说更好。”
好文章,需要你的鼓励
Allen AI研究所联合多家顶尖机构推出SAGE智能视频分析系统,首次实现类人化的"任意时长推理"能力。该系统能根据问题复杂程度灵活调整分析策略,配备六种智能工具进行协同分析,在处理10分钟以上视频时准确率提升8.2%。研究团队创建了包含1744个真实娱乐视频问题的SAGE-Bench评估平台,并采用创新的AI生成训练数据方法,为视频AI技术的实际应用开辟了新路径。
联想推出新一代NVMe存储解决方案DE6600系列,包含全闪存DE6600F和混合存储DE6600H两款型号。该系列产品延迟低于100微秒,支持多种连接协议,2U机架可容纳24块NVMe驱动器。容量可从367TB扩展至1.798PiB全闪存或7.741PiB混合配置,适用于AI、高性能计算、实时分析等场景,并配备双活控制器和XClarity统一管理平台。
中科院团队首次系统评估了AI视觉模型在文本压缩环境下的理解能力,发现虽然AI能准确识别压缩图像中的文字,但在理解深层含义、建立关联推理方面表现不佳。研究通过VTCBench测试系统揭示了AI存在"位置偏差"等问题,为视觉文本压缩技术的改进指明方向。