微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”
每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。
H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。
Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。
高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。
微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。
该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。
微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。
Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。
ND H100 v5实例系列目前已经提供了预览版。
好文章,需要你的鼓励
山东大学等高校联合研究揭示智能手机AI助手隐私保护能力严重不足。研究团队构建了首个隐私意识评估基准SAPA-Bench,包含7138个真实场景。测试结果显示,即使最佳模型的隐私风险感知能力也仅达67%,多数开源模型仅30%左右。研究发现闭源模型表现优于开源模型,明确提示可显著提升隐私感知能力。
英国研究人员开发出一项名为Fastball的三分钟检测技术,通过脑电图头戴设备分析大脑对图像的识别能力,能够在认知衰退早期发现记忆问题。研究涉及107名参与者,发现该技术可有效识别轻度认知障碍患者的记忆缺陷,比现有诊断工具提前10-20年发现阿尔茨海默病征象。该技术可在家中使用,为早期干预治疗提供可能。
香港理工大学等机构研究团队发现扩散语言模型存在"早期答案收敛"现象:高达99%的问题在推理中途就已得出正确答案,却仍继续无效推理。基于此发现,团队开发了Prophet方法,通过监控AI推理信心动态决定提前停止时机,实现3.4倍推理加速且几乎不损失准确性,为AI文本生成效率优化开辟新方向。