近日微软表示,ND H100 v5虚拟机系列将在Azure云平台上全面上市,为客户提供训练和运行大模型所需的强大计算基础设施。
此外,微软还扩展了Azure OpenAI服务,客户可以通过该服务探索来自ChatGPT创建者OpenAI LP的、最先进的人工智能模型。该公司表示,Azure OpenAI现已在全球多个地区推出。
微软的ND H100 v5 虚拟机似乎是该公司迄今为止最强大的计算产品之一。这些虚拟机现已在Azure的美国东区和西部地区上市,配备了八个英伟达最新、最强大的 H100 GPU。
英伟达去年推出了H100 GPU,并表示它们采用了全新的Hopper架构。与用于训练原始ChatGPT 的Nvidia A100 GPU相比,H100 GPU的处理能力要高出几个数量级。
英伟达在推出H100 GPU时曾表示,H100 GPU的优势在于它们能提供比上一代GPU“更快的AI 模型性能”。ND H100 v5实例还采用了英特尔最新的第四代英特尔至强可扩展中央处理器,并通过英伟达的Quantum-2 CX7 InfiniBand技术实现了低延迟联网。它们还采用了PCIe Gen5,为每个GPU提供每秒64千兆字节的带宽,并采用了DDR5内存,实现了更快的数据传输速度,用以处理最大的人工智能训练数据集。
微软在大力宣传ND H100 v5实例的性能,比如矩阵乘法运算速度将提高六倍,大语言模型(如 OpenAI 的 GPT-BLOOM 175B)的推理速度将提高1.8倍,并承诺明年将向客户提供数十万个H100 GPU。
ND H100 v5虚拟机针对的是生成式人工智能工作负载,因此微软同时扩展Azure OpenAI服务是完全合理的,该服务可直接访问OpenAI的尖端人工智能模型GPT-4和GPT-35-Turbo。Azure OpenAI服务于今年1月推出,最初只在Azure的美国东部、法国中部、美国中南部和欧洲西部地区提供,但现在已经扩展到加拿大东部、美国东部2区、日本东部和英国南部。
Constellation Research的Holger Mueller表示,微软对扩大其人工智能产品的规模并使其更强大充满热情,并希望其得到更广泛的应用。他表示:“微软希望向更多客户提供OpenAI,并提供基于英伟达产品的虚拟机,供客户运行自定义的AI模型并以此盈利。”“推出的速度、可及性和稳定性是客户采用的关键,因为很多企业由于数据驻留和安全要求而被束缚在特定区域。”
微软表示,Azure OpenAI 服务已经得到了11000多家企业客户采用,而新用户在以每天约100家的速度增长。
微软Azure HPC、人工智能、SAP和机密计算总经理Nidhi Chappell表示:“作为此次扩展的一部分,我们将在新的地区扩大我们最先进的生成式人工智能模型GPT-4的可及性。”“这一改进能够让更多的客户能够利用GPT-4的功能来实现内容生成、文档智能、客户服务等功能。”
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
微软研究院发布突破性多语言AI技术UPDESH,通过"自下而上"数据生成策略,让AI真正理解不同文化背景下的语言表达。该技术基于各语言维基百科内容生成950万个训练数据点,覆盖13种印度语言,显著提升低资源语言AI性能,为构建文化敏感型AI系统提供新路径。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
NVIDIA团队提出RLBFF方法,将AI训练中的复杂评价转化为明确的二元判断标准,解决了传统人类反馈模糊和可验证奖励局限的问题。该方法在多个权威测试中取得突破性成果,其中JudgeBench获得第一名,训练的模型性能媲美知名商业模型但成本仅为其5%,为AI训练领域带来重要方法论创新。