这位帮助将闲置计算容量转变成世界上最大的云计算业务的高管今天在AWS re:Invent的舞台上宣布亚马逊将重塑人工智能模型世界。
Andy Jassy于2021年接替Jeff Bezos,成为零售巨头亚马逊的首席执行官。在拉斯维加斯举行的AWS云计算大会上,他三年来首次登台,宣布推出六种新的基础模型。这些产品被命名为“Amazon Nova”,Jassy将其定位为“提供智能和行业领先性价比的、最先进的新基础模型”。
这些模型将支持在一系列多模态任务中处理文本、图像和视频。企业客户对各种人工智能表现出强烈的兴趣,亚马逊对此日益重视,因而推出了这些新模型。
Jassy表示:“这有点出乎我们的意料。”“一直以来,我们的经验都是永远不会有一种工具可以统治世界。”
推理的重要性与日俱增
AWS首席执行官Matt Garman在近三个小时的主题演讲中发布了一系列新产品,进一步印证了Jassy关于多种工具的观点。虽然Garman强调了AWS在计算、存储、开发者工具和数据库方面的进步,但该公司围绕人工智能的新闻,以及它将如何支持企业对这一快速发展领域的兴趣,才是大会开幕当天的重头戏。
其中最重要的是Amazon Bedrock的一系列增强功能,Amazon Bedrock是该公司的全面托管服务,用于构建和扩展具有高性能基础模型的生成式人工智能应用。今天发布的六个新模型都将集成到Bedrock之中。
Bedrock的新功能包括防止人工智能幻觉的Automated Reasoning(自动推理)检查、构建并协调多个人工智能代理的工具,以及能以更低成本、更快地将知识从大型模型转移到小型模型的Model Distillation(模型蒸馏)。
AWS今天发布的人工智能明显聚焦推理,即人工智能模型做出预测或结论的过程。Garman表示:“我的观点是,生成式人工智能推理将成为每个应用程序的核心构件。”“每个应用程序都将以某种方式使用推理。为此,你需要一个能够大规模提供推理的平台。这就是我们构建 Bedrock的原因。”
亚马逊本身也一直在积极使用Bedrock和各种人工智能工具来运行其业务的关键环节,Jassy在周二的演讲中强调了这一点。这家在线零售商重建了一个聊天机器人,它能够预测客户来电是否与退货有关,并感知随后的对话是否会让客户产生挫败感。
Jassy认为,推动人工智能应用的主要因素有两个。他表示:“我们看到全球企业中最成功的案例是在降低成本和提高生产力两个方面。”“随着生成式人工智能应用规模的扩大,计算成本真的很重要。”
扩张与横向扩展
规模和成本已成为AWS人工智能方法背后的关键驱动因素。随着企业界斥资数十亿美元开发人工智能基础设施,AWS下注工作负载性能将最终决定对云计算的需求。
在周一晚间的re:Invent演讲中,AWS公用事业计算高级副总裁Peter DeSantis简单介绍了该公司如何看待人工智能基础设施的未来,即采用“扩张”的方式,专注于提高单个系统的容量,而不是采用“横向扩展”的方式,构建多个相同的系统,在多台机器上分配工作负载。
DeSantis表示:“人工智能工作负载不是横向扩展型的工作负载,而是扩张类型的工作负载。”“我们构建更大模型的途径是构建更强大的服务器。”
该公司本周发布的公告揭示了AWS 计划如何通过内部芯片开发工作来实现这一愿景。AWS今天宣布全面推出由Trainium2 驱动的Elastic Compute Cloud(弹性计算云)或 EC2实例和UltraServers,这将使用户能够以更高的性能和成本效率训练和部署人工智能模型。
DeSantis指出:“Trainium2 不仅是我们最强大的 AI 服务器,其扩张的速度也超过了我们曾经拥有的所有服务器。”
Jassy在10月份的财报回顾时表示,今年,亚马逊的云计算业务增长态势明显,该公司的人工智能服务已经创造了数十亿美元的年化收入。广大客户群想通过人工智能投资获得回报,AWS今天的发布显然是希望利用这一趋势。
Jassy表示:“我们优先考虑那些我们认为对客户真正重要的技术。”“我们将为你提供你能够找到的、最广泛、最好的功能。”
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。