Docker推出新功能支持AI智能体开发

Docker公司发布重大新功能,旨在简化智能体AI应用的构建、运行和部署。公司扩展了Docker Compose工具以支持AI智能体和模型的大规模部署,并推出Docker Offload服务,允许开发者将AI工作负载转移到云端。新功能还支持模型上下文协议网关的安全连接,并与谷歌云、微软Azure等合作伙伴集成。

Docker公司今日宣布推出重要新功能,旨在大幅简化智能体AI应用程序的构建、运行和部署过程。

该公司通过将应用程序打包在轻量级、可移植的软件容器中来简化应用程序的构建、测试和部署,现在宣布扩展其Docker Compose工具以支持AI智能体和AI模型,使开发者能够轻松大规模部署这些应用。公司还推出了Docker Offload,允许开发者将AI模型扩展到云端,并与Google Cloud、Microsoft Azure以及众多AI软件开发工具包提供商等集成合作伙伴展开合作。

Docker工程执行副总裁Tushar Jain表示:"智能体应用程序正在快速发展,但构建生产级智能体系统仍然过于困难。我们现在通过让基于智能体的开发像基于容器的应用开发一样简单、安全和可重复,使每个开发者都能使用智能体应用程序。"

智能体AI是新一代AI软件的一部分,涉及使用大语言模型为工具提供动力,使其能够自主行动并在最少人工监督下实现复杂目标。与通常依赖直接交互(如问答)的传统AI聊天机器人不同,AI智能体可以做出决策、制定行动计划并适应变化的环境,通过问题解决来完成逐步目标。

Docker Compose一直是Docker面向开发者的核心工具之一,用于运行存在于多个容器中的应用程序——这些标准化软件包包含运行应用程序所需的一切,包括代码、运行时、系统工具、库和配置。

该公司表示,正在扩展Compose以应对智能体时代的挑战,允许开发者定义由AI模型和将其投入生产所需工具组成的智能体架构。这包括在单个Compose文件中定义智能体、模型和工具。开发者还可以在本地运行智能体工作负载或无缝部署到云服务。

Compose允许开发者与Docker的模型上下文协议网关安全连接,促进与其他AI工具和数据服务的通信和发现。该协议使开发者能够将大语言模型和AI应用程序与数据服务集成,而无需重写代码或创建复杂的应用程序接口。

Enterprise Strategy Group首席分析师Torsten Volk表示:"扩展Docker Compose为开发者提供与传统应用相同的熟悉、简单的AI部署体验,正是我们所需要的。此外,直接在云端运行AI模型的新功能——而不会堵塞您的笔记本电脑——是另一个重大进步。这应该会对企业大规模采用AI的速度产生真正的影响。"

Docker推出Offload功能

智能体AI应用程序需要比标准AI模型使用更多的图形处理单元功率,因为它们要完成复杂任务。本地机器在必要容量方面经常落后,导致缓慢的结果。

为解决这一挑战,Docker今日发布了测试版的Docker Offload。这项新服务允许开发者在需要时将AI和GPU密集型工作负载转移到云端。

根据Docker的说法,新服务允许开发者保持本地速度并仅在需要时访问云端;大型模型和多智能体系统可以转移到高性能云环境。开发者可以根据隐私、成本和性能需求选择在何处何时转移工作负载。

新的Offload功能直接集成到Docker Desktop中,通过现成的配置选项轻松使用和访问。

此云可用性的集成合作伙伴包括通过无服务器环境的Google Cloud和即将推出的Microsoft Azure。Compose集成还支持流行的智能体AI框架,包括CrewAI、Embabel、Google的智能体开发工具包、LangGraph、Spring AI和Vercel AI SDK。

来源:SiliconANGLE

0赞

好文章,需要你的鼓励

2025

07/11

07:54

分享

点赞

邮件订阅