微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”
每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。
H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。
Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。
高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。
微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。
该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。
微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。
Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。
ND H100 v5实例系列目前已经提供了预览版。
好文章,需要你的鼓励
瑞士初创公司AI-Tails推出智能猫咪喂食饮水站,集成AI技术、摄像头和模式识别功能,可分析猫咪行为和表情变化。该系统能精确测量猫咪的食物和水分摄入量、体温及面部表情,识别健康异常并实时预警。数据通过云平台或应用程序处理,帮助宠物主人及早发现健康问题,避免昂贵的紧急治疗费用。产品售价499美元,应用程序额外收费421美元,预计2026年第一季度全球发货。
SimWorld是由UCSD等多所顶尖院校联合开发的革命性AI仿真平台,基于虚幻引擎5构建了具备真实物理规律的虚拟城市环境。该平台支持无限扩展的程序化世界生成和自然语言交互,让AI智能体能够在复杂环境中学会生存、合作和竞争,为通用人工智能的发展提供了前所未有的训练平台。
CES 2026展会上发布了多款创新产品:三星Galaxy Z TriFold三折叠手机在韩国发布,Q1将登陆美国;GE智能冰箱配备包装扫描功能,售价4899美元;Clicks推出BlackBerry风格的安卓通讯设备;LG发布Gallery电视和CLOiD家用机器人;三星Family Hub冰箱支持语音开关门;SwitchBot推出球形RGB台灯;LG推出9mm超薄无线OLED电视。
浙江大学联合华为提出C2DLM,这是一种因果概念引导的扩散语言模型,通过自动提取因果关系并融入注意力机制来增强AI推理能力。相比传统方法,C2DLM在推理任务上平均提升1.31%-12%,训练效率提高3.2倍,为解决语言模型推理能力不足开辟了新路径。