微软希望通过推出用于AI和其他工作负载的新型专用芯片来推动其客户的AI和云计算雄心。
近日举行的Ignite 2023大会上,微软宣布的新芯片包括微软在Azure上推出的首款定制型AI加速器Azure Maia,旨在支持大型语言模型和GitHub Copilot等工作负载,以及微软首个定制的自主开发型CPU——Azure Cobalt,该芯片是基于Arm架构构建的,可为常见工作负载提供最佳性能和能源效率。

微软Azure基础设施营销总经理Omar Khan在一篇博文中表示,AI转型是今年Ignite大会的核心主题之一。他表示,今年人工智能发展迅速,正在推动着一波创新浪潮,迅速改变应用格局以及应用构建和交付的方式。然而,企业在努力发展这一创新的同时,还要应对成本上升和可持续发展挑战等优先事项。
Khan表示:“如今客户正在寻找能够满足他们所有需求的AI解决方案,在AI新时代,我们正在重新定义从芯片到系统的云基础设施,为每个企业、每个应用和每个人的AI做好准备。”
Azure Maia定制AI加速器
Khan解释说,Azure Maia加速器芯片是为大型语言模型、Bing和ChatGPT等AI工作负载定制的,是计划中的第一代加速器系列,它拥有1050亿个晶体管,是有史以来基于5纳米工艺制造的最强大的芯片之一。该芯片是微软与OpenAI合作设计的,OpenAI深入了解了其大型语言模型如何运行在Azure云基础设施上,以确保其提供最佳性能。
OpenAI首席执行官Sam Altman表示,OpenAI的专家和微软在Azure AI基础设施层的各个方面进行了合作。他说:“我们共同努力,用我们的模型来完善和测试,Azure端到端的AI架构现在已经通过Maia优化至芯片,为训练功能更强大的模型、为客户降低这些模型的成本铺平了道路。”

微软技术研究员Brian Harry表示,Maia 100 AI加速器也是专门为适应Azure硬件堆栈的其余部分而构建的。他承诺,该芯片的设计与Azure更大的AI基础设施的结合,将带来性能和效率上的巨大提升。
Azure Cobalt CPU
Cobalt CPU是一款64位的128核芯片,据称比当前一代Azure Arm芯片性能提高了40%,旨在为Teams和Azure SQL等微软服务提供支持。Arm芯片以其节能设计而闻名,可以帮助客户实现可持续发展的目标,同时确保云原生应用按预期运行,其重点是优化芯片的每瓦性能,以便在消耗的每单位能量中榨取最大功率。
Harry表示:“架构和实施的设计考虑了功效,我们正在以最有效的方式利用硅上的晶体管,将我们所有数据中心服务器的效率提升相乘,加起来就是一个相当大的数字。”
Azure硬件系统和基础设施公司副总裁Rani Borkar表示,微软选择自主设计自己的芯片,以确保芯片完美适合其云基础设施及其运行的AI工作负载。这些芯片将与定制的服务器主板集成,并放置在定制的服务器机架内,以便轻松安装在微软的数据中心内,然后将配合微软专门设计的数据中心软件使用。Borkar表示,其结果就是让硬件系统提供最大的灵活性,可以针对功耗、性能、可持续性或成本进行优化。

Borkar表示:“在微软,我们正在共同设计和优化硬件和软件,以便实现一加一大于二的效果。我们可以看到整个堆栈,而硅只是其中的成分之一。”
Khan表示,新的芯片代表了微软下一代云基础设施的最后一块版图,将于明年初开始向客户推出,最初将支持包括Microsoft Copilot和Azure OpenAI Service在内的服务,然后扩展到其他类型的工作负载。
Constellation Research分析师Holger Mueller表示,微软针对AI开发自己的定制硬件是有意义的,因为微软已经提供了一系列用于开发和运行这些工作负载的最全面的软件。他说:“性能和功能的结合,再加上Azure的网络功能,使这些定制芯片成为企业非常感兴趣的产品,企业将非常高兴看到Azure Maia和Azure Cobalt能够提供什么。”
除了新硬件之外,微软还做出了巨大努力来改善连接硬件的网络基础设施。微软表示,凭借其中空芯光纤技术和现已全面推出的Azure Boost服务,将能够大幅加速网络和存储,两者的结合将使客户能够实现高达每秒12.5 GB的吞吐量、每秒650000 IPOS的远程存储性能、以及高达每秒200 GB的网络带宽,以支持数据最密集的工作负载。
除了微软的定制芯片之外,客户还将拥有新的硬件选择。微软在另一份声明中表示,正在与Nvidia公司合作,提供对其最新基于H100 Tensor Core GPU的虚拟机的访问了路径,主要针对中型到大型的AI工作负载例如Azure Confidential虚拟机,还将于明年提供对Nvidia H200 Tensor Core GPU的访问,以尽可能低的延迟支持对更大型AI模型的推理。

第三个AI工作负载选择是由AMD构建的新型MI300加速器。MI300于今年早些时候发布,并将于明年初在Azure上提供。微软表示,这款高性能芯片的加入为客户提供了运行AI应用的更多选择。
Borkar表示:“以客户为中心意味着我们为客户提供最好的东西,意味着我们要利用生态系统中可用的东西以及我们开发的东西,我们将继续与所有合作伙伴合作,为客户提供他们想要的东西。”
Azure基础架构更新
微软在Azure基础设施方面还有更多内容可以分享,例如微软宣布Oracle Database@Azure服务将在微软美国东部Azure区域全面上线。该服务将于12月推出,该地区的Azure客户可以直接访问Oracle自己数据中心的Oracle云基础设施上的数据库服务。微软承诺,将与Oracle Exadata Database Service on OCI的性能、规模和工作负载可用性相匹配,同时添加Azure的所有优势包括安全性、灵活性和服务。
与此同时,VMware的客户很快将能够访问VMware vSphere on Azure Arc。该服务现已全面推出,融合了Azure和VMware的基础设施,为开发者提供支持让他们可以使用Azure 的服务构建更复杂的应用。此外,由Azure Arc支持的Azure IoT Operations现在也已经推出预览版,这样客户就可以构建复杂性较低的物联网应用和服务,使远程设备能够在AI洞察的驱动下做出实时决策。
最后,微软分享了Microsoft Copilot for Azure的一些简要细节,该产品今天推出了预览版。Microsoft Copilot for Azure基于生成式AI技术,使客户能够更轻松地在Azure中执行多种任务,将简化用户在任何环境中设计、操作应用和基础设施以及对其进行故障排除的方式。客户可以在该服务正式推出之前申请访问。
好文章,需要你的鼓励
Replit与RevenueCat达成合作,将订阅变现工具直接集成至Replit平台。用户只需通过自然语言提示(如"添加订阅"),即可完成应用内购和订阅配置,无需离开平台。RevenueCat管理超8万款应用的订阅业务,每月处理约10亿美元交易。此次合作旨在让"氛围编程"用户在构建应用的同时即可实现商业变现,月收入未达2500美元前免费使用,超出后收取1%费用。
LiVER是由北京大学、北京邮电大学等机构联合提出的视频生成框架,核心创新是将物理渲染技术与AI视频生成结合,通过Blender引擎计算漫反射、粗糙GGX和光泽GGX三种光照图像构成"场景代理",引导视频扩散模型生成光影物理准确的视频。框架包含渲染器智能体、轻量化编码器适配器和三阶段训练策略,支持对光照、场景布局和摄像机轨迹的独立精确控制。配套构建的LiVERSet数据集含约11000段标注视频,实验显示该方法在视频质量和控制精度上均优于现有方法。
所有人都说AI需要护栏,但真正在构建它的人寥寥无几。SkipLabs创始人Julien Verlaguet深耕这一问题已逾一年,他发现市面上多数"护栏"不过是提示词包装。为此,他打造了专为后端服务设计的AI编程智能体Skipper,基于健全的TypeScript类型系统与响应式运行时,实现增量式代码生成与测试,内部基准测试通过率超90%。他认为,编程语言的"人类可读性时代"正走向终结,面向智能体的精确工具链才是未来。
这项由蒙特利尔学习算法研究所(Mila)与麦吉尔大学联合发布的研究(arXiv:2604.07776,2026年4月)提出了AGENT-AS-ANNOTATORS框架,通过模仿人类数据标注的三种角色分工,系统化生成高质量网页智能体训练轨迹。以Gemini 3 Pro为教师模型,仅用2322条精选轨迹对90亿参数的Qwen3.5-9B模型进行监督微调,在WebArena基准上达到41.5%成功率,超越GPT-4o和Claude 3.5 Sonnet,并在从未见过的企业平台WorkArena L1上提升18.2个百分点,验证了"数据质量远比数量重要"这一核心结论。