微软近日透露了微软是如何花费数十亿美元使OpenAI能够将ChatGPT变为现实的。
微软与OpenAI的合作最近备受关注。今年1月,微软宣布将向打造了ChatGPT的AI初创公司OpenAI投资100亿美元。ChatGPT是一款AI聊天机器人,由于其令人印象深刻的类人对话能力而风靡互联网。
不过,微软与OpenAI的合作其实早在几年前就开始了。根据彭博社的报道,微软在今年之前已经在开发ChatGPT所需的计算基础设施上花费了“数亿美元”。
彭博社报道称,这笔钱用于建造一台大型超级计算机用于训练ChatGPT。微软也在近日发表的两篇博文中,讨论了在构建AI基础设施方面所做的工作,以及微软计划如何让该系统变得更加强大,以便为更高级的模型提供支持。
为了打造支持OpenAI项目的Azure超级计算机,微软采购了Nvidia制造的数千个GPU并将其连接在一起。通过把所有这些GPU进行连接,微软就能够提供OpenAI所需的巨大计算能力,从而训练功能越来越强大的AI模型。
对于微软这样可以向颇有前途的初创公司投入数十亿美元的大厂商来说,“数亿美元”的投资似乎并不算多,但这个举动说明,人工智能已经成为微软最优先考虑的事项之一。
这是显而易见的,因为微软近日透露,微软正在努力增强Azure的AI功能,并使其更加强大。Azure HPC+AI首席产品经理Matt Vegas表示,Azure最近升级了新的虚拟机,这些虚拟机使用Nvidia H100和A100 Tensor Core GPU,这些GPU连接了Nvidia去年推出的Quantum-2 InfiniBand加速网络架构,微软认为,这将让OpenAI和其他使用Azure基础设施的AI公司能够对更大型、更复杂的模型进行训练。
微软Azure AI企业副总裁Eric Boyd在一份声明中表示,微软预见到了市场对某些特殊用途集群的需求,这种集群专门被用于大型训练工作负载,而OpenAI就是最早的证明点之一。他说:“我们双方展开密切合作,了解他们在构建训练环境时寻找的关键东西是什么,以及他们需要的关键东西是什么。”
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。