谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。
根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两家公司还打算相互整合各自的若干服务。
Hugging Face在去年8月得到了45亿美元的估值,它提供了一个类似于GitHub的平台,可以托管开源人工智能模型。该平台还可以共享训练数据集等相关文件。除了托管其他开发者的机器学习项目外,该公司还通过研究合作建立了两个开源语言模型。
该公司通过一系列付费云服务实现营收。其中一项服务AutoTrain可减少人工智能模型训练过程中的人工工作量。Hugging Face还提供Inference Endpoints,企业可以用它来托管已经训练好的人工智能模型。
作为此次与谷歌云新合作的一部分,该公司将推出与搜索巨头Vertex AI产品套件的集成。该套件包括人工智能开发工具和130多个预先打包的基础模型。据这两家公司称,开发人员只需点击几下,就能从Hugging Face界面访问Vertex AI。
谷歌的Kubernetes Engine(该搜索巨头管理的Kubernetes服务)也将推出类似的集成。开发人员可以使用该服务以软件容器的形式运行人工智能工作负载,例如从Hugging Face下载的开源神经网络。在谷歌通过云平台提供的人工智能优化芯片上运行这些容器,GKE使之成为可能。
这家搜索巨头表示,Hugging Face 用户将可以使用 Cloud TPU v5e,这是其内部开发的机器学习处理器的最新版本。与谷歌上一代芯片相比,该芯片的每美元性能最多可提高 250%。它还能以更低的延迟运行人工智能模型。
接下来,Hugging Face 还将支持谷歌最近推出的A3虚拟机。每个A3虚拟机的实例都配备了八块英伟达的H100图形卡,它们相互交换数据的速度比上一代实例中的芯片快得多,这有助于提高人工智能性能。两颗英特尔公司的处理器和2TB内存为A3 虚拟机中的GPU提供支持。
谷歌云首席执行官Thomas Kurian表示:“谷歌云和Hugging Face有着共同的愿景,那就是让开发者更容易获得生成式人工智能,并使其产生更大的影响。”“此次合作确保了Hugging Face上的开发者可以访问谷歌云专门打造的人工智能平台Vertex AI,以及我们的安全基础设施,这可以加速下一代人工智能服务和应用的发展。”
除了新的基础设施选项,Hugging Face还将增加与谷歌云市场(Google Cloud Marketplace)的集成。该集成旨在简化Hugging Face付费人工智能开发和托管服务客户计费方面的工作。该集成还将与该公司的Spaces门户网站合作,开源开发者可利用该门户网站分享人工智能应用。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。