谷歌公司(Google LLC)云计算部门今天宣布与Hugging Face公司建立新的合作伙伴关系,后者是一个流行的共享开源人工智能模型平台运营商。
根据协议,谷歌云将成为Hugging Face人工智能训练和推理工作负载的 “首选目的地”。此外,两家公司还打算相互整合各自的若干服务。
Hugging Face在去年8月得到了45亿美元的估值,它提供了一个类似于GitHub的平台,可以托管开源人工智能模型。该平台还可以共享训练数据集等相关文件。除了托管其他开发者的机器学习项目外,该公司还通过研究合作建立了两个开源语言模型。
该公司通过一系列付费云服务实现营收。其中一项服务AutoTrain可减少人工智能模型训练过程中的人工工作量。Hugging Face还提供Inference Endpoints,企业可以用它来托管已经训练好的人工智能模型。
作为此次与谷歌云新合作的一部分,该公司将推出与搜索巨头Vertex AI产品套件的集成。该套件包括人工智能开发工具和130多个预先打包的基础模型。据这两家公司称,开发人员只需点击几下,就能从Hugging Face界面访问Vertex AI。
谷歌的Kubernetes Engine(该搜索巨头管理的Kubernetes服务)也将推出类似的集成。开发人员可以使用该服务以软件容器的形式运行人工智能工作负载,例如从Hugging Face下载的开源神经网络。在谷歌通过云平台提供的人工智能优化芯片上运行这些容器,GKE使之成为可能。
这家搜索巨头表示,Hugging Face 用户将可以使用 Cloud TPU v5e,这是其内部开发的机器学习处理器的最新版本。与谷歌上一代芯片相比,该芯片的每美元性能最多可提高 250%。它还能以更低的延迟运行人工智能模型。
接下来,Hugging Face 还将支持谷歌最近推出的A3虚拟机。每个A3虚拟机的实例都配备了八块英伟达的H100图形卡,它们相互交换数据的速度比上一代实例中的芯片快得多,这有助于提高人工智能性能。两颗英特尔公司的处理器和2TB内存为A3 虚拟机中的GPU提供支持。
谷歌云首席执行官Thomas Kurian表示:“谷歌云和Hugging Face有着共同的愿景,那就是让开发者更容易获得生成式人工智能,并使其产生更大的影响。”“此次合作确保了Hugging Face上的开发者可以访问谷歌云专门打造的人工智能平台Vertex AI,以及我们的安全基础设施,这可以加速下一代人工智能服务和应用的发展。”
除了新的基础设施选项,Hugging Face还将增加与谷歌云市场(Google Cloud Marketplace)的集成。该集成旨在简化Hugging Face付费人工智能开发和托管服务客户计费方面的工作。该集成还将与该公司的Spaces门户网站合作,开源开发者可利用该门户网站分享人工智能应用。
好文章,需要你的鼓励
Oracle宣布推出Oracle AI Database 26ai和Oracle Autonomous AI Lakehouse两款产品。AI数据库26ai作为长期支持版本,在数据库引擎中原生集成AI功能,包括AI向量搜索、模型上下文协议服务器支持和AI代理框架。该版本还提供量子安全加密和硬件加速支持。自主AI湖仓平台结合了自主AI数据库和Apache Iceberg表格式,支持跨云和混合环境的AI分析工作负载,提供动态扩展和统一数据治理能力。
圣母大学研究团队发布了迄今最全面的大语言模型跨学科应用调研报告,系统梳理了AI在人文、商业、科学工程等13个领域的应用现状。研究发现,大语言模型在文本处理和模式识别方面表现优异,但在创造性思维和价值判断上仍有局限。报告强调人机协作是未来发展方向,并为不同需求用户提供了具体的模型选择建议。
Gartner研究显示,45%的CIO开始与C级高管合作推进数字化转型项目。成功的数字化转型需要CIO与业务领导者共同承担责任,将数字化能力交给最接近价值创造点的团队。这种合作模式要求预算共担、高管直接参与项目会议,以及明确的责任分工。当双方共同投资并积极参与时,项目成功率显著提升。
复旦大学团队开发的SIM-CoT方法突破了AI推理效率瓶颈,让机器学会在"脑海"中思考而非必须表达每个推理步骤。该方法通过巧妙的监督机制解决了隐式推理训练不稳定问题,在保持高效率的同时显著提升准确性,在GPT-2和LLaMA系列模型上均表现出色,为AI推理技术开辟新路径。