谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。
根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两家公司还打算相互整合各自的若干服务。
Hugging Face在去年8月得到了45亿美元的估值,它提供了一个类似于GitHub的平台,可以托管开源人工智能模型。该平台还可以共享训练数据集等相关文件。除了托管其他开发者的机器学习项目外,该公司还通过研究合作建立了两个开源语言模型。
该公司通过一系列付费云服务实现营收。其中一项服务AutoTrain可减少人工智能模型训练过程中的人工工作量。Hugging Face还提供Inference Endpoints,企业可以用它来托管已经训练好的人工智能模型。
作为此次与谷歌云新合作的一部分,该公司将推出与搜索巨头Vertex AI产品套件的集成。该套件包括人工智能开发工具和130多个预先打包的基础模型。据这两家公司称,开发人员只需点击几下,就能从Hugging Face界面访问Vertex AI。
谷歌的Kubernetes Engine(该搜索巨头管理的Kubernetes服务)也将推出类似的集成。开发人员可以使用该服务以软件容器的形式运行人工智能工作负载,例如从Hugging Face下载的开源神经网络。在谷歌通过云平台提供的人工智能优化芯片上运行这些容器,GKE使之成为可能。
这家搜索巨头表示,Hugging Face 用户将可以使用 Cloud TPU v5e,这是其内部开发的机器学习处理器的最新版本。与谷歌上一代芯片相比,该芯片的每美元性能最多可提高 250%。它还能以更低的延迟运行人工智能模型。
接下来,Hugging Face 还将支持谷歌最近推出的A3虚拟机。每个A3虚拟机的实例都配备了八块英伟达的H100图形卡,它们相互交换数据的速度比上一代实例中的芯片快得多,这有助于提高人工智能性能。两颗英特尔公司的处理器和2TB内存为A3 虚拟机中的GPU提供支持。
谷歌云首席执行官Thomas Kurian表示:“谷歌云和Hugging Face有着共同的愿景,那就是让开发者更容易获得生成式人工智能,并使其产生更大的影响。”“此次合作确保了Hugging Face上的开发者可以访问谷歌云专门打造的人工智能平台Vertex AI,以及我们的安全基础设施,这可以加速下一代人工智能服务和应用的发展。”
除了新的基础设施选项,Hugging Face还将增加与谷歌云市场(Google Cloud Marketplace)的集成。该集成旨在简化Hugging Face付费人工智能开发和托管服务客户计费方面的工作。该集成还将与该公司的Spaces门户网站合作,开源开发者可利用该门户网站分享人工智能应用。
好文章,需要你的鼓励
英特尔携手戴尔以及零克云,通过打造“工作站-AI PC-云端”的协同生态,大幅缩短AI部署流程,助力企业快速实现从想法验证到规模化落地。
意大利ISTI研究院推出Patch-ioner零样本图像描述框架,突破传统局限实现任意区域精确描述。系统将图像拆分为小块,通过智能组合生成从单块到整图的统一描述,无需区域标注数据。创新引入轨迹描述任务,用户可用鼠标画线获得对应区域描述。在四大评测任务中全面超越现有方法,为人机交互开辟新模式。
阿联酋阿布扎比人工智能大学发布全新PAN世界模型,超越传统大语言模型局限。该模型具备通用性、交互性和长期一致性,能深度理解几何和物理规律,通过"物理推理"学习真实世界材料行为。PAN采用生成潜在预测架构,可模拟数千个因果一致步骤,支持分支操作模拟多种可能未来。预计12月初公开发布,有望为机器人、自动驾驶等领域提供低成本合成数据生成。
MIT研究团队发现,AI系统无需严格配对的多模态数据也能显著提升性能。他们开发的UML框架通过参数共享让AI从图像、文本、音频等不同类型数据中学习,即使这些数据间没有直接对应关系。实验显示这种方法在图像分类、音频识别等任务上都超越了单模态系统,并能自发发展出跨模态理解能力,为未来AI应用开辟了新路径。