Docker公司今日宣布推出重要新功能,旨在大幅简化智能体AI应用程序的构建、运行和部署过程。
该公司通过将应用程序打包在轻量级、可移植的软件容器中来简化应用程序的构建、测试和部署,现在宣布扩展其Docker Compose工具以支持AI智能体和AI模型,使开发者能够轻松大规模部署这些应用。公司还推出了Docker Offload,允许开发者将AI模型扩展到云端,并与Google Cloud、Microsoft Azure以及众多AI软件开发工具包提供商等集成合作伙伴展开合作。
Docker工程执行副总裁Tushar Jain表示:"智能体应用程序正在快速发展,但构建生产级智能体系统仍然过于困难。我们现在通过让基于智能体的开发像基于容器的应用开发一样简单、安全和可重复,使每个开发者都能使用智能体应用程序。"
智能体AI是新一代AI软件的一部分,涉及使用大语言模型为工具提供动力,使其能够自主行动并在最少人工监督下实现复杂目标。与通常依赖直接交互(如问答)的传统AI聊天机器人不同,AI智能体可以做出决策、制定行动计划并适应变化的环境,通过问题解决来完成逐步目标。
Docker Compose一直是Docker面向开发者的核心工具之一,用于运行存在于多个容器中的应用程序——这些标准化软件包包含运行应用程序所需的一切,包括代码、运行时、系统工具、库和配置。
该公司表示,正在扩展Compose以应对智能体时代的挑战,允许开发者定义由AI模型和将其投入生产所需工具组成的智能体架构。这包括在单个Compose文件中定义智能体、模型和工具。开发者还可以在本地运行智能体工作负载或无缝部署到云服务。
Compose允许开发者与Docker的模型上下文协议网关安全连接,促进与其他AI工具和数据服务的通信和发现。该协议使开发者能够将大语言模型和AI应用程序与数据服务集成,而无需重写代码或创建复杂的应用程序接口。
Enterprise Strategy Group首席分析师Torsten Volk表示:"扩展Docker Compose为开发者提供与传统应用相同的熟悉、简单的AI部署体验,正是我们所需要的。此外,直接在云端运行AI模型的新功能——而不会堵塞您的笔记本电脑——是另一个重大进步。这应该会对企业大规模采用AI的速度产生真正的影响。"
Docker推出Offload功能
智能体AI应用程序需要比标准AI模型使用更多的图形处理单元功率,因为它们要完成复杂任务。本地机器在必要容量方面经常落后,导致缓慢的结果。
为解决这一挑战,Docker今日发布了测试版的Docker Offload。这项新服务允许开发者在需要时将AI和GPU密集型工作负载转移到云端。
根据Docker的说法,新服务允许开发者保持本地速度并仅在需要时访问云端;大型模型和多智能体系统可以转移到高性能云环境。开发者可以根据隐私、成本和性能需求选择在何处何时转移工作负载。
新的Offload功能直接集成到Docker Desktop中,通过现成的配置选项轻松使用和访问。
此云可用性的集成合作伙伴包括通过无服务器环境的Google Cloud和即将推出的Microsoft Azure。Compose集成还支持流行的智能体AI框架,包括CrewAI、Embabel、Google的智能体开发工具包、LangGraph、Spring AI和Vercel AI SDK。
好文章,需要你的鼓励
腾讯ARC实验室推出AudioStory系统,首次实现AI根据复杂指令创作完整长篇音频故事。该系统结合大语言模型的叙事推理能力与音频生成技术,通过交错式推理生成、解耦桥接机制和渐进式训练,能够将复杂指令分解为连续音频场景并保持整体连贯性。在AudioStory-10K基准测试中表现优异,为AI音频创作开辟新方向。
Coursera在2025年连接大会上宣布多项AI功能更新。10月将推出角色扮演功能,通过AI人物帮助学生练习面试技巧并获得实时反馈。新增AI评分系统可即时批改代码、论文和视频作业。同时引入完整性检查和监考系统,通过锁定浏览器和真实性验证打击作弊行为,据称可减少95%的不当行为。此外,AI课程构建器将扩展至所有合作伙伴,帮助教育者快速设计课程。
Meta与特拉维夫大学联合研发的VideoJAM技术,通过让AI同时学习外观和运动信息,显著解决了当前视频生成模型中动作不连贯、违反物理定律的核心问题。该技术仅需添加两个线性层就能大幅提升运动质量,在多项测试中超越包括Sora在内的商业模型,为AI视频生成的实用化应用奠定了重要基础。