微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”
每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。
H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。
Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。
高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。
微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。
该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。
微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。
Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。
ND H100 v5实例系列目前已经提供了预览版。
好文章,需要你的鼓励
AMD Radeon(TM) RX 9000 系列依托AI 加速为玩家带来极致游戏体验。
Inception Labs 于周四发布了 Mercury Coder,这是一种新的 AI 语言模型,利用扩散技术比传统模型更快地生成文本。与逐字生成文本的传统模型(如 ChatGPT)不同,基于扩散的模型(如 Mercury)能够同时生成完整的响应,并将其从最初的遮蔽状态逐步精炼为连贯的文本。
微软终于将其 AI 助手 Copilot 作为独立应用程序推出 macOS 版本。这款免费应用现已在 Mac App Store 上线,支持多种功能如文本翻译、问题解答、文档生成等。Copilot 采用 OpenAI 的 GPT-4 和 DALL-E 3 等模型,标志着微软在 AI 领域的重要布局。该应用要求 M1 或更新的 Mac 设备,以及 macOS 14 或更高版本。