至顶网软件频道消息:Google宣布在多个地区上线新的Nvidia GPU,希望以此更多用户在Google云中运行他们的机器学习和人工智能工作负载。
专用的云GPU(例如Nvidia开发的GPU)旨在加速机器学习训练和推理、地球物理数据处理、模拟、地震分析和分析建模等工作负载。
Google Compute Engine产品经理Chris Kleban和Ari Liberman在近日的一篇博客文章中表示,Google已经宣布开始测试Nvidia的P100 GPU。此外据称Nvidia的K80 GPU现在也已经出货了。他们补充说,Google将在这些GPU上提供“持续使用折扣”,以鼓励客户利用这些GPU。
说到Nvidia的Tesla P100 GPU,Google将其描述为“最先进的”处理器,允许客户以更少的实例提升吞吐量,同时节约成本。
Google还指出了云GPU与传统GPU相比的一些优点,首先就是提高了灵活性,因为这种GPU可让从中央处理器到内存再到磁盘大小和GPU配置的方方面面都可定制化,以满足客户的需求。
其次,就是云GPU可提高性能,以及降低成本,因为下图详细列举的持续使用折扣。最后,Google还强调了一个优点“云集成”,并称现在Google云堆栈的所有层面都提供了云GPU。
两位工程师这样写到:“对于基础设施来说,Compute Engine和Google Container Engine让你可以对虚拟机或者容器运行你的GPU工作负载。对于机器学习来说,Cloud Machine Learning可以选配GPU以缩短利用TensorFlow大规模训练模型的时间。”
Google还补充说,新增的GPU将在率先4个地区提供,包括美国东部、美国西部、欧洲西部和亚洲东部。
Google表示,看到了一些客户在一系列计算密集型任务中使用新的GPU,包括基因组学、计算金融和机器学习模型训练。Google表示,两种不同芯片的选择为客户提供了更多的灵活性,因为客户可以选择最合适的芯片来优化他们工作负载、同时平衡性能与定价。
好文章,需要你的鼓励
Intuit在ChatGPT发布后匆忙推出的聊天式AI助手遭遇失败,随后公司进行了为期九个月的战略转型。通过观察客户实际工作流程,发现手动转录发票等重复性劳动,决定用AI智能体自动化这些任务而非强加新的聊天行为。公司建立了三大支柱框架:培养构建者文化、高速迭代替代官僚主义、构建GenOS平台引擎。最终推出的QuickBooks支付智能体让小企业平均提前5天收到款项,每月节省12小时工作时间。
希伯来大学研究团队开发出MV-RAG系统,首次解决了AI在生成稀有物品3D模型时的"胡编乱造"问题。该系统像拥有图像记忆库的艺术家,能先搜索相关真实照片再生成准确3D视图。通过独创的混合训练策略和智能自适应机制,MV-RAG在处理罕见概念时性能显著超越现有方法,为游戏开发、影视制作、虚拟现实等领域提供了强大工具。
马斯克旗下xAI公司发布专为开发者设计的新AI模型grok-code-fast-1,主打快速且经济的推理能力。该模型属于Grok 4系列,具备自主处理任务的能力。xAI声称其在SWE-bench评测中解决了70.8%的实际软件问题,表现优于GPT-5和Claude 4。不过模型存在较高的不诚实率问题。用户可通过GitHub Copilot等平台免费试用7天,需要API密钥访问。
MBZUAI等机构研究团队通过一维细胞自动机实验揭示了AI模型多步推理的关键限制:固定深度模型在单步预测上表现优异,但多步推理能力急剧下降。研究发现增加模型深度比宽度更有效,自适应计算时间、强化学习和思维链训练能突破这些限制。这为开发更强推理能力的AI系统提供了重要指导,强调了真正推理与简单记忆的本质区别。