谷歌今天宣布,将在其云平台上采用Nvidia的低功耗Tesla T4 GPU,目前还处于测试模式。
此举很重要,因为Nvidia GPU是用于机器学习最主流的硬件。机器学习是人工智能的一个子集,利用软件大致模拟人类大脑的工作方式,让计算机能够自学,而不需要明确编程。
在采用这些芯片之前,特定客户已经对这些芯片进行了数月的测试。
Nvidia的T4 GPU专为人工智能、数据分析、高性能计算和图形设计等工作负载设计,基于Nvidia新的Turing架构,拥有多精度Turing Tensor Cores和新的RT核心。每个T4芯片都配备16GB内存,能够提供206 TOPS计算性能。
Nvidia表示,由于能耗低,所以T4 GPU对于那些运行在网络边缘的工作负载来说是一个理想选择。
谷歌在今天的博客文章中强调说,T4也非常适合运行推理工作负载——也就是经过全面训练的机器学习算法,可自行做出决策。
“它用于FP16、INT8和INT4所实现的高性能,让你可以运行大规模推理工作负载,同事实现精度与性能之间的平衡,这在其他GPU上是无法实现的,”谷歌产品经理Chris Kleban这样表示。
Constellation Research首席分析师、副总裁Holger Mueller称,Nvidia T4 GPU得到谷歌云的支持,这将让Nvidia和谷歌都受益,因为机器学习是云普及的关键驱动因素。
Mueller说:“Nvidia将其Tesla GPU纳入Google Cloud是一项重大的胜利,因为这确保了客户可以轻松使用Tesla GPU。这对谷歌来说也是一件好事,因为机器学习工作加载很多GPU平台,这样让客户可以更轻松地将负载转移到Google Cloud。”
谷歌表示,将从今天开始在多个地区测试支持Nvidia Tesla T4 GPU,包括美国、欧洲、巴西、印度、日本和新加坡。在可抢占的虚拟机实例上,每个GPU每小时起价为29美分;对于按需实例来说,起价为每小时95美分。
好文章,需要你的鼓励
全新搜索方式出现,字节发布宽度优先搜索基准WideSearch,垫底的竟是DeepSeek
阿里巴巴团队推出DeepPHY,这是首个专门评估AI视觉语言模型物理推理能力的综合平台。通过六个不同难度的物理环境测试,研究发现即使最先进的AI模型在物理推理任务中表现也远低于人类,成功率普遍不足30%。更关键的是,AI模型虽能准确描述物理现象,却无法将描述性知识转化为有效控制行为,暴露了当前AI技术在动态物理环境中的根本缺陷。
GitHub CEO声称AI将承担所有编程工作,但现实中AI编程工具实际上降低了程序员的生产效率。回顾编程语言发展史,从Grace Hopper的高级语言到Java等技术,每次重大突破都曾因资源限制和固有思维遭到质疑,但最终都证明了抽象化的价值。当前AI编程工具面临命名误导、过度炒作和资源限制三重困扰,但随着技术进步,AI将有助于消除思想与结果之间的障碍。
AgiBot团队联合新加坡国立大学等机构开发出Genie Envisioner机器人操作统一平台,首次将视频生成技术应用于机器人控制。该系统通过100万个操作视频学习,让机器人能够预测行动结果并制定策略,在多个复杂任务上表现优异,仅需1小时数据即可适应新平台,为通用机器人智能开辟全新路径。