谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。
根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两家公司还打算相互整合各自的若干服务。
Hugging Face在去年8月得到了45亿美元的估值,它提供了一个类似于GitHub的平台,可以托管开源人工智能模型。该平台还可以共享训练数据集等相关文件。除了托管其他开发者的机器学习项目外,该公司还通过研究合作建立了两个开源语言模型。
该公司通过一系列付费云服务实现营收。其中一项服务AutoTrain可减少人工智能模型训练过程中的人工工作量。Hugging Face还提供Inference Endpoints,企业可以用它来托管已经训练好的人工智能模型。
作为此次与谷歌云新合作的一部分,该公司将推出与搜索巨头Vertex AI产品套件的集成。该套件包括人工智能开发工具和130多个预先打包的基础模型。据这两家公司称,开发人员只需点击几下,就能从Hugging Face界面访问Vertex AI。
谷歌的Kubernetes Engine(该搜索巨头管理的Kubernetes服务)也将推出类似的集成。开发人员可以使用该服务以软件容器的形式运行人工智能工作负载,例如从Hugging Face下载的开源神经网络。在谷歌通过云平台提供的人工智能优化芯片上运行这些容器,GKE使之成为可能。
这家搜索巨头表示,Hugging Face 用户将可以使用 Cloud TPU v5e,这是其内部开发的机器学习处理器的最新版本。与谷歌上一代芯片相比,该芯片的每美元性能最多可提高 250%。它还能以更低的延迟运行人工智能模型。
接下来,Hugging Face 还将支持谷歌最近推出的A3虚拟机。每个A3虚拟机的实例都配备了八块英伟达的H100图形卡,它们相互交换数据的速度比上一代实例中的芯片快得多,这有助于提高人工智能性能。两颗英特尔公司的处理器和2TB内存为A3 虚拟机中的GPU提供支持。
谷歌云首席执行官Thomas Kurian表示:“谷歌云和Hugging Face有着共同的愿景,那就是让开发者更容易获得生成式人工智能,并使其产生更大的影响。”“此次合作确保了Hugging Face上的开发者可以访问谷歌云专门打造的人工智能平台Vertex AI,以及我们的安全基础设施,这可以加速下一代人工智能服务和应用的发展。”
除了新的基础设施选项,Hugging Face还将增加与谷歌云市场(Google Cloud Marketplace)的集成。该集成旨在简化Hugging Face付费人工智能开发和托管服务客户计费方面的工作。该集成还将与该公司的Spaces门户网站合作,开源开发者可利用该门户网站分享人工智能应用。
好文章,需要你的鼓励
数字孪生技术正在改变网络安全防御模式,从被动响应转向主动预测。这种实时学习演进的虚拟副本让安全团队能够在威胁发生前预见攻击。组织可以在数字孪生环境中预演明日的攻击,将防御从事后反应转变为事前排演。通过动态更新的IT生态系统副本,团队可在真实条件下压力测试防御体系,模拟零日漏洞攻击并制定应对策略,从根本上重塑网络安全实践方式。
中山大学团队针对OpenAI O1等长思考推理模型存在的"长度不和谐"问题,提出了O1-Pruner优化方法。该方法通过长度-和谐奖励机制和强化学习训练,成功将模型推理长度缩短30-40%,同时保持甚至提升准确率,显著降低了推理时间和计算成本,为高效AI推理提供了新的解决方案。
Linux内核开发面临动荡时期,Rust语言引入引发摩擦,多名核心开发者相继离职。文章介绍了三个有趣的替代方案:Managarm是基于微内核的操作系统,支持运行Linux软件;Asterinas采用Rust语言开发,使用新型framekernel架构实现内核隔离;Xous同样基于Rust和微内核设计,已有实际硬件产品Precursor发布。这些项目证明了除Linux之外,还有许多令人兴奋的操作系统研发工作正在进行。
上海AI实验室研究团队深入调查了12种先进视觉语言模型在自动驾驶场景中的真实表现,发现这些AI系统经常在缺乏真实视觉理解的情况下生成看似合理的驾驶解释。通过DriveBench测试平台的全面评估,研究揭示了现有评估方法的重大缺陷,并为开发更可靠的AI驾驶系统提供了重要指导。