微软发布最新AI优化的Azure实例

微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。

微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。

微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”

每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。

H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。

Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。

高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。

微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。

该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。

微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。

Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。

ND H100 v5实例系列目前已经提供了预览版。

来源:至顶网软件与服务频道

0赞

好文章,需要你的鼓励

2023

03/14

11:09

分享

点赞

邮件订阅