就在本周DockerCon线上大会举行之前,Docker宣布与微软展开合作,为双方客户简化开发项目。
和其他主流IaaS厂商一样,微软也已经向自己的公有云中增加了对软件容器的扩展支持,以解决行业向微服务转型中遇到的问题。微软与Docker的合作可以追溯到该项目的最早期阶段。两家厂商今天公布的这一合作,重点是在针对云环境开发基于微服务的应用的过程中所涉及到的问题。
软件团队使用Docker CLI命令行工具与Docker容器平台进行交互。开发人员在本地计算机上编写代码,一旦项目开始成形,便将文件移动到有更多硬件资源的、更大的、基于云的环境中。微软和Docker今天预览了一些新的集成项,这些集成让开发人员使用少量命令就能从Docker CLI直接在Azure中创建基于云的应用环境。
该特性依赖于微软的托管容器服务Azure Container Instances。两家厂商表示,软件团队可以使用Azure容器实例创建应用环境,无需手动管理基础设施资源。此外,这项集成让开发人员使用单个命令就能将本地桌面开发环境的配置复制到云中,以缩短初始设置需要的时间。Docker解决方案工程经理Chad Metcalf在博客中这样写道。“你可以运行单个的容器,也可以使用Docker Compose运行多个容器。”
Docker和微软的合作也扩展涵盖了其他产品。Docker增加了针对Visual Studio Code(一个被广泛使用的微软免费代码编辑器)的集成,让使用该工具的开发人员更快地将代码作为容器进行部署。软件团队还可以选择使用Docker Hub(用于托管容器项目的云服务)彼此共享文件。
Docker首席执行官Scott Johnston在一份声明中说:“扩大与微软的战略关系将进一步降低构建、共享和运行面向开发者的云原生微服务应用的复杂性。”
DockerCon是Docker自去年把企业业务卖给Mirantis以来的首次大型活动。从去年以来,Docker一直在调整逐渐将重点缩小到提供开源工具和付费开发者工具方面
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。