Docker公司今日宣布推出重要新功能,旨在大幅简化智能体AI应用程序的构建、运行和部署过程。
该公司通过将应用程序打包在轻量级、可移植的软件容器中来简化应用程序的构建、测试和部署,现在宣布扩展其Docker Compose工具以支持AI智能体和AI模型,使开发者能够轻松大规模部署这些应用。公司还推出了Docker Offload,允许开发者将AI模型扩展到云端,并与Google Cloud、Microsoft Azure以及众多AI软件开发工具包提供商等集成合作伙伴展开合作。
Docker工程执行副总裁Tushar Jain表示:"智能体应用程序正在快速发展,但构建生产级智能体系统仍然过于困难。我们现在通过让基于智能体的开发像基于容器的应用开发一样简单、安全和可重复,使每个开发者都能使用智能体应用程序。"
智能体AI是新一代AI软件的一部分,涉及使用大语言模型为工具提供动力,使其能够自主行动并在最少人工监督下实现复杂目标。与通常依赖直接交互(如问答)的传统AI聊天机器人不同,AI智能体可以做出决策、制定行动计划并适应变化的环境,通过问题解决来完成逐步目标。
Docker Compose一直是Docker面向开发者的核心工具之一,用于运行存在于多个容器中的应用程序——这些标准化软件包包含运行应用程序所需的一切,包括代码、运行时、系统工具、库和配置。
该公司表示,正在扩展Compose以应对智能体时代的挑战,允许开发者定义由AI模型和将其投入生产所需工具组成的智能体架构。这包括在单个Compose文件中定义智能体、模型和工具。开发者还可以在本地运行智能体工作负载或无缝部署到云服务。
Compose允许开发者与Docker的模型上下文协议网关安全连接,促进与其他AI工具和数据服务的通信和发现。该协议使开发者能够将大语言模型和AI应用程序与数据服务集成,而无需重写代码或创建复杂的应用程序接口。
Enterprise Strategy Group首席分析师Torsten Volk表示:"扩展Docker Compose为开发者提供与传统应用相同的熟悉、简单的AI部署体验,正是我们所需要的。此外,直接在云端运行AI模型的新功能——而不会堵塞您的笔记本电脑——是另一个重大进步。这应该会对企业大规模采用AI的速度产生真正的影响。"
Docker推出Offload功能
智能体AI应用程序需要比标准AI模型使用更多的图形处理单元功率,因为它们要完成复杂任务。本地机器在必要容量方面经常落后,导致缓慢的结果。
为解决这一挑战,Docker今日发布了测试版的Docker Offload。这项新服务允许开发者在需要时将AI和GPU密集型工作负载转移到云端。
根据Docker的说法,新服务允许开发者保持本地速度并仅在需要时访问云端;大型模型和多智能体系统可以转移到高性能云环境。开发者可以根据隐私、成本和性能需求选择在何处何时转移工作负载。
新的Offload功能直接集成到Docker Desktop中,通过现成的配置选项轻松使用和访问。
此云可用性的集成合作伙伴包括通过无服务器环境的Google Cloud和即将推出的Microsoft Azure。Compose集成还支持流行的智能体AI框架,包括CrewAI、Embabel、Google的智能体开发工具包、LangGraph、Spring AI和Vercel AI SDK。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。