微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”
每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。
H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。
Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。
高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。
微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。
该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。
微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。
Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。
ND H100 v5实例系列目前已经提供了预览版。
好文章,需要你的鼓励
文章详细介绍了Character.AI这款主要面向娱乐、角色扮演和互动叙事的AI聊天工具的原理、用户群体、特色功能以及面临的法律与伦理争议,同时揭示了其新推出的视频和游戏互动体验。
上海人工智能实验室研究团队开发了MMSI-Bench,这是首个专注于多图像空间智能评估的全面基准。研究人员花费300多小时,从12万张图像中精心构建了1000道问题,涵盖了位置关系、属性和运动等多种空间推理任务。评测结果显示,即使最先进的AI模型也仅达到41%的准确率,远低于人类的97%,揭示了AI空间认知能力的重大缺陷。研究还识别了四类主要错误:物体识别错误、场景重建错误、情境转换错误和空间逻辑错误,为未来改进提供了明确方向。
思科报告指出,自主型人工智能未来三年内有望承担高达68%的客户服务任务,通过个性化与前瞻性支持提升效率与节省成本,但用户仍重视人与人之间的互动和健全的治理机制。
卡内基梅隆大学研究团队开发了ViGoRL系统,通过视觉定位强化学习显著提升AI的视觉推理能力。该方法让模型将每个推理步骤明确锚定到图像的特定坐标,模拟人类注视点转移的认知过程。与传统方法相比,ViGoRL在SAT-2、BLINK等多项视觉理解基准上取得显著提升,并能动态放大关注区域进行细节分析。这种定位推理不仅提高了准确性,还增强了模型解释性,为更透明的AI视觉系统铺平道路。