谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。
根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两家公司还打算相互整合各自的若干服务。
Hugging Face在去年8月得到了45亿美元的估值,它提供了一个类似于GitHub的平台,可以托管开源人工智能模型。该平台还可以共享训练数据集等相关文件。除了托管其他开发者的机器学习项目外,该公司还通过研究合作建立了两个开源语言模型。
该公司通过一系列付费云服务实现营收。其中一项服务AutoTrain可减少人工智能模型训练过程中的人工工作量。Hugging Face还提供Inference Endpoints,企业可以用它来托管已经训练好的人工智能模型。
作为此次与谷歌云新合作的一部分,该公司将推出与搜索巨头Vertex AI产品套件的集成。该套件包括人工智能开发工具和130多个预先打包的基础模型。据这两家公司称,开发人员只需点击几下,就能从Hugging Face界面访问Vertex AI。
谷歌的Kubernetes Engine(该搜索巨头管理的Kubernetes服务)也将推出类似的集成。开发人员可以使用该服务以软件容器的形式运行人工智能工作负载,例如从Hugging Face下载的开源神经网络。在谷歌通过云平台提供的人工智能优化芯片上运行这些容器,GKE使之成为可能。
这家搜索巨头表示,Hugging Face 用户将可以使用 Cloud TPU v5e,这是其内部开发的机器学习处理器的最新版本。与谷歌上一代芯片相比,该芯片的每美元性能最多可提高 250%。它还能以更低的延迟运行人工智能模型。
接下来,Hugging Face 还将支持谷歌最近推出的A3虚拟机。每个A3虚拟机的实例都配备了八块英伟达的H100图形卡,它们相互交换数据的速度比上一代实例中的芯片快得多,这有助于提高人工智能性能。两颗英特尔公司的处理器和2TB内存为A3 虚拟机中的GPU提供支持。
谷歌云首席执行官Thomas Kurian表示:“谷歌云和Hugging Face有着共同的愿景,那就是让开发者更容易获得生成式人工智能,并使其产生更大的影响。”“此次合作确保了Hugging Face上的开发者可以访问谷歌云专门打造的人工智能平台Vertex AI,以及我们的安全基础设施,这可以加速下一代人工智能服务和应用的发展。”
除了新的基础设施选项,Hugging Face还将增加与谷歌云市场(Google Cloud Marketplace)的集成。该集成旨在简化Hugging Face付费人工智能开发和托管服务客户计费方面的工作。该集成还将与该公司的Spaces门户网站合作,开源开发者可利用该门户网站分享人工智能应用。
好文章,需要你的鼓励
Docker公司通过增强的compose框架和新基础设施工具,将自己定位为AI智能体开发的核心编排平台。该平台在compose规范中新增"models"元素,允许开发者在同一YAML文件中定义AI智能体、大语言模型和工具。支持LangGraph、CrewAI等多个AI框架,提供Docker Offload服务访问NVIDIA L4 GPU,并与谷歌云、微软Azure建立合作。通过MCP网关提供企业级安全隔离,解决了企业AI项目从概念验证到生产部署的断层问题。
中科院联合字节跳动开发全新AI评测基准TreeBench,揭示当前最先进模型在复杂视觉推理上的重大缺陷。即使OpenAI o3也仅获得54.87%分数。研究团队同时提出TreeVGR训练方法,通过要求AI同时给出答案和精确定位,实现真正可追溯的视觉推理,为构建更透明可信的AI系统开辟新路径。
马斯克的AI女友"Ani"引爆全球,腾讯RLVER框架突破情感理解边界:AI下半场竞争核心已转向对人性的精准把握。当技术学会共情,虚拟陪伴不再停留于脚本应答,而是通过"心与心的循环"真正理解人类孤独——这背后是强化学习算法与思考模式的化学反应,让AI从解决问题转向拥抱情感。
PyVision是上海AI实验室开发的革命性视觉推理框架,让AI系统能够根据具体问题动态创造Python工具,而非依赖预设工具集。通过多轮交互机制,PyVision在多项基准测试中实现显著性能提升,其中在符号视觉任务上提升达31.1%。该框架展现了从"工具使用者"到"工具创造者"的AI能力跃迁,为通用人工智能的发展开辟了新路径。