微软正在扩展自己的Azure云平台,新增了一个旨在运行AI模型的新实例系列——ND H100 v5系列的实例系列近日首次亮相。
微软公司Azure高性能计算和人工智能群组首席项目经理Matt Vegas在博客文章中写道:“为我们的客户兑现高级人工智能的承诺,这需要超级计算基础设施、服务和专业知识,以应对呈指数级增长的规模和最新模型的复杂性。在微软,我们凭借长达十年的超级计算经验以及支持最大型AI训练工作负载的经验来应对这一挑战。”
每个ND H100 v5实例都配备了8个Nvidia H100 GPU。H100是Nvidia在去年三月推出的最先进的数据中心GPU,它训练AI模型的速度要比Nvidia此前的旗舰芯片快9倍,执行推理、模型运行的速度最多快30倍。
H100采用了4纳米工艺生产800亿个晶体管,其中包括一个称为Transformer Engine 的专用模块,旨在加速基于Transformer神经网络架构的AI模型。该架构为许多高级AI模型提供支持,包括OpenAI的ChatGPT聊天机器人。
Nvidia还为H100配备了其他增强功能。其中,该芯片提供了内置的机密计算功能,可以通过阻止未经授权的访问请求来隔离AI模型,包括来自运行它的操作系统和管理程序的请求。
高级AI模型通常不是部署在一个而是多个GPU上的。以这种方式使用的GPU必须定期与另一个GPU交换数据以协调工作,为了加快GPU之间的数据流动,企业通常会使用高速网络连接将将这些GPU连接在一起。
微软此次新推出的ND H100 v5实例,有8个H100芯片使用了NVLink Nvidia技术进行连接。据Nvidia称,该技术要比主流的网络标准PCIe 5.0快7倍。微软表示,NVLink在其新实例中的8个GPU之间提供每秒3.6Tb的带宽。
该实例系列还支持另一项名为NVSwitch的Nvidia网络技术。NVLink旨在将单个服务器内的GPU连接在一起,而NVSwitch则是把多个GPU服务器彼此连接起来。这使得运行复杂AI模型变得更加容易,因为这些模型必须分布在数据中心的多台机器上。
微软的ND H100 v5实例结合采用了Nvidia H100 GPU和英特尔的CPU。这些CPU来自于英特尔新的第四代至强Scalable处理器系列,该芯片系列也被称为Sapphire Rapids,于今年1月首次亮相。
Sapphire Rapids基于英特尔10纳米工艺的增强版。该系列中的每个CPU都包含了多个板载加速器、针对特定任务优化的计算模块。英特尔表示,由于内置加速器,Sapphire Rapids为某些AI应用提供的性能要比其上一代芯片高出10倍。
ND H100 v5实例系列目前已经提供了预览版。
好文章,需要你的鼓励
诺基亚最新全球网络流量报告预测,到2034年WAN流量将增长300%至700%,主要驱动力包括人工智能、工业运营扩展和消费者沉浸式应用。报告称AI流量年复合增长率将达23%,到2034年占全球WAN流量30%。然而专家对此预测提出质疑,认为报告缺乏具体应用场景支撑。分析师指出,企业目前并未因WAN带宽限制而无法实现目标,工业设备更新周期长达15年以上,大规模流量增长不太可能快速实现。
GigaAI团队开发的GigaBrain-0.5M*系统首次让机器人获得了"预见未来"的能力,通过世界模型预测未来场景并指导行动决策。该系统采用RAMP强化学习方法,在多项复杂操作任务中表现优异,成功率比传统方法提升约30%,并在国际RoboChallenge基准测试中排名第一,代表了从反应式控制向前瞻式智能的重大突破。
今天的出海故事,从一笔690.78万加元的少数股权投资开始:金牌家居的全资子公司与关联方通过新加坡主体共同参投 RIFO Holding Group Inc.,简称RIFO,先把钱放到加拿大“住房交易、金融服务与安居服务”这条链条更靠前的位置。
这项由人大和腾讯联合开展的研究提出了ExOPD方法,通过调节奖励信号让AI学生模型突破老师性能限制。研究在数学推理和代码生成任务上验证了该方法的有效性,发现合适的奖励外推能让小模型超越大模型表现。该技术为AI训练领域带来新思路,但仍需考虑计算成本等实际限制。