Omdia发布统计,认为在一定时期之内,服务器市场将继续以GPU为最主要的核心组件。这家市场研究机构估计,单英伟达H100 GPU这一款产品在今年第二季度的出货量就超过了900吨。
最近一段时间,Hot Interconnects、Hot Chips、Google Cloud Next和Meta Networking@Scale等重量级会议先后亮相。借此机会,我们打算通过本文以更有条理的方式对资讯亮点做一番整理,聊聊并深入分析我们听到和看到的这些丰富内容。
Mipsology的团队将帮助AMD提高该公司CPU、GPU和自适应芯片的人工智能软件开发方面的推理能力。
VMware 与NVIDIA 为企业开启生成式AI时代打开了一条快速通道,赋予私有化部署生成式AI的能力,帮助企业获取AI应用的差异化优势。
如果情况真如英伟达及其他众多科技企业预料的那样,即大语言模型会成为新的编程模型基础,那么混合CPU-GPU计算引擎就将是新的通用计算平台。
英伟达创始人兼首席执行官黄仁勋在SIGGRAPH年会上发布了专为生成式 AI 打造的下一代 GH200 Grace Hopper 平台
英伟达今天首次推出了GH200 Grace Hopper芯片的升级版,它将使企业能够运行更复杂的语言模型。
近日微软表示,ND H100 v5虚拟机系列将上线Azure云平台,为客户训练和运行大模型提供支持。
Amazon EC2 P5实例则采用8个英伟达H100 Tensor Core GPU,具有640 GB高带宽GPU内存,同时提供第三代AMD EPYC处理器、2TB系统内存和30TB本地NVMe存储。
英伟达正在和英特尔合作,利用Intel Trust Domain Extensions和英特尔的可信服务“Amber项目”为英伟达H100 GPU提供扩展认证服务。“Amber项目”旨在帮助客户部署保密人工智能解决方案。
美国南方卫理公会大学使用 NVIDIA DGX SuperPOD 推动德克萨斯州北部地区进入 AI 时代;密西西比州立大学和德克萨斯农工大学准备使用 NVIDIA Quantum-2 网络;英国的一所大学则升级了其 InfiniBand 网络
我们将通过《NVIDIA 加速计算,百万倍加速行业应用》系列文章,为您详解 NVIDIA 如何通过数据中心规模的全栈加速计算,助力多个行业实现百万倍计算性能飞跃,高效解决人类挑战。
NVIDIA DGX 系统能够为像大陆集团这样的创新企业提供了高成本效益且易于部署的企业级人工智能超级计算解决方案。
在NVIDIA的帮助下京东探索研究院在 WMT 大赛上这一重大成就进一步验证了自然语言处理大模型在理解、生成、跨语种建模上的优越性。
英伟达正积极拥抱一种新的计算范式,利用大规模并行计算机系统为新一代应用程序提供服务。而这场变化的开端,主要始于以色列。