微软近日透露了微软是如何花费数十亿美元使OpenAI能够将ChatGPT变为现实的。
微软与OpenAI的合作最近备受关注。今年1月,微软宣布将向打造了ChatGPT的AI初创公司OpenAI投资100亿美元。ChatGPT是一款AI聊天机器人,由于其令人印象深刻的类人对话能力而风靡互联网。
不过,微软与OpenAI的合作其实早在几年前就开始了。根据彭博社的报道,微软在今年之前已经在开发ChatGPT所需的计算基础设施上花费了“数亿美元”。
彭博社报道称,这笔钱用于建造一台大型超级计算机用于训练ChatGPT。微软也在近日发表的两篇博文中,讨论了在构建AI基础设施方面所做的工作,以及微软计划如何让该系统变得更加强大,以便为更高级的模型提供支持。
为了打造支持OpenAI项目的Azure超级计算机,微软采购了Nvidia制造的数千个GPU并将其连接在一起。通过把所有这些GPU进行连接,微软就能够提供OpenAI所需的巨大计算能力,从而训练功能越来越强大的AI模型。
对于微软这样可以向颇有前途的初创公司投入数十亿美元的大厂商来说,“数亿美元”的投资似乎并不算多,但这个举动说明,人工智能已经成为微软最优先考虑的事项之一。
这是显而易见的,因为微软近日透露,微软正在努力增强Azure的AI功能,并使其更加强大。Azure HPC+AI首席产品经理Matt Vegas表示,Azure最近升级了新的虚拟机,这些虚拟机使用Nvidia H100和A100 Tensor Core GPU,这些GPU连接了Nvidia去年推出的Quantum-2 InfiniBand加速网络架构,微软认为,这将让OpenAI和其他使用Azure基础设施的AI公司能够对更大型、更复杂的模型进行训练。
微软Azure AI企业副总裁Eric Boyd在一份声明中表示,微软预见到了市场对某些特殊用途集群的需求,这种集群专门被用于大型训练工作负载,而OpenAI就是最早的证明点之一。他说:“我们双方展开密切合作,了解他们在构建训练环境时寻找的关键东西是什么,以及他们需要的关键东西是什么。”
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。