就在本周DockerCon线上大会举行之前,Docker宣布与微软展开合作,为双方客户简化开发项目。
和其他主流IaaS厂商一样,微软也已经向自己的公有云中增加了对软件容器的扩展支持,以解决行业向微服务转型中遇到的问题。微软与Docker的合作可以追溯到该项目的最早期阶段。两家厂商今天公布的这一合作,重点是在针对云环境开发基于微服务的应用的过程中所涉及到的问题。
软件团队使用Docker CLI命令行工具与Docker容器平台进行交互。开发人员在本地计算机上编写代码,一旦项目开始成形,便将文件移动到有更多硬件资源的、更大的、基于云的环境中。微软和Docker今天预览了一些新的集成项,这些集成让开发人员使用少量命令就能从Docker CLI直接在Azure中创建基于云的应用环境。
该特性依赖于微软的托管容器服务Azure Container Instances。两家厂商表示,软件团队可以使用Azure容器实例创建应用环境,无需手动管理基础设施资源。此外,这项集成让开发人员使用单个命令就能将本地桌面开发环境的配置复制到云中,以缩短初始设置需要的时间。Docker解决方案工程经理Chad Metcalf在博客中这样写道。“你可以运行单个的容器,也可以使用Docker Compose运行多个容器。”
Docker和微软的合作也扩展涵盖了其他产品。Docker增加了针对Visual Studio Code(一个被广泛使用的微软免费代码编辑器)的集成,让使用该工具的开发人员更快地将代码作为容器进行部署。软件团队还可以选择使用Docker Hub(用于托管容器项目的云服务)彼此共享文件。
Docker首席执行官Scott Johnston在一份声明中说:“扩大与微软的战略关系将进一步降低构建、共享和运行面向开发者的云原生微服务应用的复杂性。”
DockerCon是Docker自去年把企业业务卖给Mirantis以来的首次大型活动。从去年以来,Docker一直在调整逐渐将重点缩小到提供开源工具和付费开发者工具方面
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。