谷歌今天宣布,将在其云平台上采用Nvidia的低功耗Tesla T4 GPU,目前还处于测试模式。
此举很重要,因为Nvidia GPU是用于机器学习最主流的硬件。机器学习是人工智能的一个子集,利用软件大致模拟人类大脑的工作方式,让计算机能够自学,而不需要明确编程。
在采用这些芯片之前,特定客户已经对这些芯片进行了数月的测试。
Nvidia的T4 GPU专为人工智能、数据分析、高性能计算和图形设计等工作负载设计,基于Nvidia新的Turing架构,拥有多精度Turing Tensor Cores和新的RT核心。每个T4芯片都配备16GB内存,能够提供206 TOPS计算性能。
Nvidia表示,由于能耗低,所以T4 GPU对于那些运行在网络边缘的工作负载来说是一个理想选择。
谷歌在今天的博客文章中强调说,T4也非常适合运行推理工作负载——也就是经过全面训练的机器学习算法,可自行做出决策。
“它用于FP16、INT8和INT4所实现的高性能,让你可以运行大规模推理工作负载,同事实现精度与性能之间的平衡,这在其他GPU上是无法实现的,”谷歌产品经理Chris Kleban这样表示。
Constellation Research首席分析师、副总裁Holger Mueller称,Nvidia T4 GPU得到谷歌云的支持,这将让Nvidia和谷歌都受益,因为机器学习是云普及的关键驱动因素。
Mueller说:“Nvidia将其Tesla GPU纳入Google Cloud是一项重大的胜利,因为这确保了客户可以轻松使用Tesla GPU。这对谷歌来说也是一件好事,因为机器学习工作加载很多GPU平台,这样让客户可以更轻松地将负载转移到Google Cloud。”
谷歌表示,将从今天开始在多个地区测试支持Nvidia Tesla T4 GPU,包括美国、欧洲、巴西、印度、日本和新加坡。在可抢占的虚拟机实例上,每个GPU每小时起价为29美分;对于按需实例来说,起价为每小时95美分。
好文章,需要你的鼓励
OpenAI在最新博客中首次承认,其AI安全防护在长时间对话中可能失效。该公司指出,相比短对话,长对话中的安全训练机制可能会退化,用户更容易通过改变措辞或分散话题来绕过检测。这一问题不仅影响OpenAI,也是所有大语言模型面临的技术挑战。目前OpenAI正在研究加强长对话中的安全防护措施。
北航团队推出VoxHammer技术,实现3D模型的精确局部编辑,如同3D版Photoshop。该方法直接在3D空间操作,通过逆向追踪和特征替换确保编辑精度,在保持未修改区域完全一致的同时实现高质量局部修改。研究还创建了Edit3D-Bench评估数据集,为3D编辑领域建立新标准,展现出在游戏开发、影视制作等领域的巨大应用潜力。
谷歌宣布计划到2026年底在弗吉尼亚州投资90亿美元,重点发展云计算和AI基础设施。投资包括在里士满南部切斯特菲尔德县建设新数据中心,扩建现有设施,并为当地居民提供教育和职业发展项目。弗吉尼亚州长表示这项投资是对该州AI经济领导地位的有力认可。此次投资是谷歌北美扩张战略的一部分。
宾夕法尼亚大学研究团队开发出PIXIE系统,这是首个能够仅通过视觉就快速准确预测三维物体完整物理属性的AI系统。该技术将传统需要数小时的物理参数预测缩短至2秒,准确率提升高达4.39倍,并能零样本泛化到真实场景。研究团队还构建了包含1624个标注物体的PIXIEVERSE数据集,为相关技术发展奠定了重要基础,在游戏开发、机器人控制等领域具有广阔应用前景。