微软近日透露了微软是如何花费数十亿美元使OpenAI能够将ChatGPT变为现实的。
微软与OpenAI的合作最近备受关注。今年1月,微软宣布将向打造了ChatGPT的AI初创公司OpenAI投资100亿美元。ChatGPT是一款AI聊天机器人,由于其令人印象深刻的类人对话能力而风靡互联网。

不过,微软与OpenAI的合作其实早在几年前就开始了。根据彭博社的报道,微软在今年之前已经在开发ChatGPT所需的计算基础设施上花费了“数亿美元”。
彭博社报道称,这笔钱用于建造一台大型超级计算机用于训练ChatGPT。微软也在近日发表的两篇博文中,讨论了在构建AI基础设施方面所做的工作,以及微软计划如何让该系统变得更加强大,以便为更高级的模型提供支持。
为了打造支持OpenAI项目的Azure超级计算机,微软采购了Nvidia制造的数千个GPU并将其连接在一起。通过把所有这些GPU进行连接,微软就能够提供OpenAI所需的巨大计算能力,从而训练功能越来越强大的AI模型。
对于微软这样可以向颇有前途的初创公司投入数十亿美元的大厂商来说,“数亿美元”的投资似乎并不算多,但这个举动说明,人工智能已经成为微软最优先考虑的事项之一。
这是显而易见的,因为微软近日透露,微软正在努力增强Azure的AI功能,并使其更加强大。Azure HPC+AI首席产品经理Matt Vegas表示,Azure最近升级了新的虚拟机,这些虚拟机使用Nvidia H100和A100 Tensor Core GPU,这些GPU连接了Nvidia去年推出的Quantum-2 InfiniBand加速网络架构,微软认为,这将让OpenAI和其他使用Azure基础设施的AI公司能够对更大型、更复杂的模型进行训练。
微软Azure AI企业副总裁Eric Boyd在一份声明中表示,微软预见到了市场对某些特殊用途集群的需求,这种集群专门被用于大型训练工作负载,而OpenAI就是最早的证明点之一。他说:“我们双方展开密切合作,了解他们在构建训练环境时寻找的关键东西是什么,以及他们需要的关键东西是什么。”
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。