Hugging Face是一家主流的机器学习模型托管平台运营商,该公司正在与AWS合作致力于简化人工智能开发项目。
双方近日宣布这一合作伙伴关系,这也是对Hugging Face和AWS在2021年初启动的现有合作的一个延伸。
AWS公司首席执行官Adam Selipsky表示:“生成式人工智能有可能改变整个行业,但其成本和所需的专业知识使除少数公司之外的其他所有公司都无法使用该技术。Hugging Face和AWS让客户能够更轻松地使用主流的机器学习模型,以打造他们自己具有最高性能和最低成本的生成式人工智能应用。”
总部位于纽约的Hugging Face此前获得了超过1.6亿美元的资金支持,运营着一个类似于GitHub的平台,开发人员使用该平台可以托管开源的AI模型,训练数据集等相关技术资产。该平台存储了超过十万个神经网络的代码。
在此次合作中,Hugging Face将使用AWS作为其首选的公有云,此外Hugging Face正在推出和Amazon SageMaker机器学习平台的新集成。该平台包括六种以上的云服务,开发人员可以使用这些服务来构建、训练和部署AI模型。
这一新的集成将让开发人员通过几次点击就能在SageMaker上部署由Hugging Face托管的神经网络。他们把AI模型上传到SageMaker之后,就可以使用由AWS Trainium芯片提供支持的云实例并对其进行训练。这些芯片专门针对AI训练任务进行了优化。
从Hugging Face部署到AWS的神经网络,还可以与其他类型的云实例一起使用,包括那些由AWS Inferentia加速器系列提供支持的实例。Inferentia加速器是一种为执行推理进行了优化的芯片,也可以在训练阶段完成后在生产中运行AI模型。
Hugging Face公司首席执行官Clement Delangue表示:“人工智能的未来就在这里,但分布并不均匀,Amazon SageMaker和AWS设计的芯片将让我们的团队和更大的机器学习群体把最新的研究成果转化为任何人都可以构建的、公开可复制的模型。”
这一集成将是对两家公司目前提供给开发人员的Hugging Face AWS Deep Learning Containers的一项补充,后者让Hugging Face的AI模型以预打包的格式提供给用户,更容易部署在公有云环境中。
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。