英伟达多伦多AI实验室的研究人员正努力解决生成图像与视频的时间问题。在本周英伟达GTC 2024大会上,他们概述了这项工作的部分成果,展示的相关进展有助于更快(因此更经济)生成“噪声”更少的图像与细节更丰富的3D图形,甚至能够将以往耗时几周或几个月的任务缩短至几天乃至几分钟。
可以看到,单纯将Hopper替换为Blackwell并不是最好的答案。根据英伟达方面的解释,只有在配合一系列正确举措之后,推理性能提升至30倍、推理功耗降低至1/25的结果才有可能实现。
2016 年,老黄扛着第一个DGX 系统给了 OpenAI,于是有了如今的 ChatGPT。如今,为了帮助世界构建更大的 AI,英伟达拿出了新的GPU。老黄说:这是一块非常非常大的GPU!
“地球2号”在GTC大会上正式亮相,旨在以前所未有的规模模拟天气与气候,并将其可视化,为更准确的预测和及时的预警铺平道路。
日前在圣何塞举行的2024年GPU技术大会上公布的英伟达“Blackwell”GPU,是这家计算引擎制造商推出的第七代、也是最令人印象深刻的数据中心级GPU。GPU计算浪潮始于2000年代中期,并随着2012年5月“Kepler”K10与K20加速器的推出而变得愈发清晰具体。
尽管AI芯片种类繁多,GPU因其适应性和强大的并行计算能力,仍是AI模型训练的主流硬件。英伟达在GPU领域的技术积累和生态建设使其处于领先地位,而国内GPU厂商虽在追赶,但仍存在差距。AI应用向云、边、端全维度发展,模型小型化技术成熟,数据传输需求增加,Chiplet技术降低设计复杂度和成本。
英伟达推出了生成式AI(AIGC)专业认证,旨在通过考试提供行业认可的权威证书,并提供相应的培训课程。认证内容涵盖生成式AI和大语言模型知识,考试为远程方式,适合多种AI相关职业人士。
要说当下最困难的挑战,就是如何为计算系统采购充足的英伟达“Hopper”H100 GPU。哪怕是作为供应商的英伟达自己,也只能在有限的配额之下谨慎规划、调拨给内部使用。
英伟达公司今天推出了新的Nvidia RTX 2000 Ada Generation GPU,将更强大的生成式人工智能处理器打包到“紧凑型工作站”中,让用户能够在设备上运行高级AI应用程序。
从种种方面来看,英伟达打造的“Grace”CG100服务器处理器都堪称其首款真正的服务器级CPU,也成为扩展“Hopper”GH100 GPU加速器(专为HPC仿真与建模工作负载而设计)内存空间的重要方案。
一个月前,在英伟达通过财务会议放出的技术路线图中,可以看到GH200 GPU和H200 GPU加速器将作为“Blackwell”GB100 GPU和B100 GPU之前的过渡产品,而Blackwell家族计划在明年年内推出。
HPE与英伟达表示正为客户提供构建模块,可用于组装同布里斯托大学Isambard-AI超级计算机同架构的迷你版本,用以训练生成式AI和深度学习项目。
10月19日 - 10月20日,由 NVIDIA 主办的 NVIDIA 初创企业展示 · 半程展示在雅安大数据产业园成功举办。
对于过去几代产品而言,两年一更新的速度足以保持竞争优势。但根据本月早些时候投资者们看到的演示文稿,英伟达手中除了B100这张王牌,还有将Arm核心与Blackwell架构匹配打造的全新“超级芯片”,外加L40及L40S的迭代产品。
英伟达宣布与量子计算芯片厂商SEEQC建立合作,在量子计算机与GPU之间开发首个芯片到芯片的数字链接,并确保与一切量子计算范式相兼容。