微软近日透露了微软是如何花费数十亿美元使OpenAI能够将ChatGPT变为现实的。
微软与OpenAI的合作最近备受关注。今年1月,微软宣布将向打造了ChatGPT的AI初创公司OpenAI投资100亿美元。ChatGPT是一款AI聊天机器人,由于其令人印象深刻的类人对话能力而风靡互联网。

不过,微软与OpenAI的合作其实早在几年前就开始了。根据彭博社的报道,微软在今年之前已经在开发ChatGPT所需的计算基础设施上花费了“数亿美元”。
彭博社报道称,这笔钱用于建造一台大型超级计算机用于训练ChatGPT。微软也在近日发表的两篇博文中,讨论了在构建AI基础设施方面所做的工作,以及微软计划如何让该系统变得更加强大,以便为更高级的模型提供支持。
为了打造支持OpenAI项目的Azure超级计算机,微软采购了Nvidia制造的数千个GPU并将其连接在一起。通过把所有这些GPU进行连接,微软就能够提供OpenAI所需的巨大计算能力,从而训练功能越来越强大的AI模型。
对于微软这样可以向颇有前途的初创公司投入数十亿美元的大厂商来说,“数亿美元”的投资似乎并不算多,但这个举动说明,人工智能已经成为微软最优先考虑的事项之一。
这是显而易见的,因为微软近日透露,微软正在努力增强Azure的AI功能,并使其更加强大。Azure HPC+AI首席产品经理Matt Vegas表示,Azure最近升级了新的虚拟机,这些虚拟机使用Nvidia H100和A100 Tensor Core GPU,这些GPU连接了Nvidia去年推出的Quantum-2 InfiniBand加速网络架构,微软认为,这将让OpenAI和其他使用Azure基础设施的AI公司能够对更大型、更复杂的模型进行训练。
微软Azure AI企业副总裁Eric Boyd在一份声明中表示,微软预见到了市场对某些特殊用途集群的需求,这种集群专门被用于大型训练工作负载,而OpenAI就是最早的证明点之一。他说:“我们双方展开密切合作,了解他们在构建训练环境时寻找的关键东西是什么,以及他们需要的关键东西是什么。”
好文章,需要你的鼓励
新加坡人工智能机构与阿里云发布全新大语言模型Qwen-Sea-Lion-v4,专门针对东南亚语言和文化特色进行优化。该模型结合阿里云Qwen3-32B基础模型和大量东南亚地区数据集,在东南亚语言模型评估榜单中位居开源模型首位。模型支持119种语言,能在32GB内存的消费级笔记本上运行,采用字节对编码技术更好处理非拉丁文字,并具备3.2万词元上下文长度,可执行文档级推理和摘要任务。
中科大联合快手等机构推出VR-Thinker技术,首次实现AI视频评判员的"边看边想"能力。该系统通过主动选择关键画面、智能记忆管理和三阶段训练,在视频质量评估准确率上达到75%-82%,特别擅长处理长视频场景,为AI视频生成的质量控制提供了突破性解决方案。
AI智能体是下一代业务自动化工具,不仅能对话交流,还能执行复杂任务。与ChatGPT聊天机器人不同,它们可在最少人工干预下规划并完成工作。文章介绍了五个高影响力应用:自动化客户服务解决方案、销售CRM管理、合规自动化、招聘筛选与排程、市场情报报告。这些应用都具有重复性工作流程、依赖结构化数据、遵循可预测规则等特点,能够释放员工宝贵时间用于更有价值的工作。
微软研究院发布BitDistill技术,通过三阶段优化将大型语言模型压缩至1.58位精度,在保持性能的同时实现10倍内存节省和2.65倍速度提升。该技术包括模型结构稳定化、持续预训练适应和知识蒸馏传承三个关键步骤,解决了模型量化中的性能衰减和规模化问题,为AI模型在资源受限设备上的高效部署提供了新方案。