Hugging Face是一家主流的机器学习模型托管平台运营商,该公司正在与AWS合作致力于简化人工智能开发项目。
双方近日宣布这一合作伙伴关系,这也是对Hugging Face和AWS在2021年初启动的现有合作的一个延伸。
AWS公司首席执行官Adam Selipsky表示:“生成式人工智能有可能改变整个行业,但其成本和所需的专业知识使除少数公司之外的其他所有公司都无法使用该技术。Hugging Face和AWS让客户能够更轻松地使用主流的机器学习模型,以打造他们自己具有最高性能和最低成本的生成式人工智能应用。”
总部位于纽约的Hugging Face此前获得了超过1.6亿美元的资金支持,运营着一个类似于GitHub的平台,开发人员使用该平台可以托管开源的AI模型,训练数据集等相关技术资产。该平台存储了超过十万个神经网络的代码。
在此次合作中,Hugging Face将使用AWS作为其首选的公有云,此外Hugging Face正在推出和Amazon SageMaker机器学习平台的新集成。该平台包括六种以上的云服务,开发人员可以使用这些服务来构建、训练和部署AI模型。
这一新的集成将让开发人员通过几次点击就能在SageMaker上部署由Hugging Face托管的神经网络。他们把AI模型上传到SageMaker之后,就可以使用由AWS Trainium芯片提供支持的云实例并对其进行训练。这些芯片专门针对AI训练任务进行了优化。
从Hugging Face部署到AWS的神经网络,还可以与其他类型的云实例一起使用,包括那些由AWS Inferentia加速器系列提供支持的实例。Inferentia加速器是一种为执行推理进行了优化的芯片,也可以在训练阶段完成后在生产中运行AI模型。
Hugging Face公司首席执行官Clement Delangue表示:“人工智能的未来就在这里,但分布并不均匀,Amazon SageMaker和AWS设计的芯片将让我们的团队和更大的机器学习群体把最新的研究成果转化为任何人都可以构建的、公开可复制的模型。”
这一集成将是对两家公司目前提供给开发人员的Hugging Face AWS Deep Learning Containers的一项补充,后者让Hugging Face的AI模型以预打包的格式提供给用户,更容易部署在公有云环境中。
好文章,需要你的鼓励
IBM Spyre加速器将于本月晚些时候正式推出,为z17大型机、LinuxONE 5和Power11系统等企业级硬件的AI能力提供显著提升。该加速器基于定制芯片的PCIe卡,配备32个独立加速器核心,专为处理AI工作负载需求而设计。系统最多可配置48张Spyre卡,支持多模型AI处理,包括生成式AI和大语言模型,主要应用于金融交易欺诈检测等关键业务场景。
加拿大女王大学研究团队首次对开源AI生态系统进行端到端许可证合规审计,发现35.5%的AI模型在集成到应用时存在许可证违规。他们开发的LicenseRec系统能自动检测冲突并修复86.4%的违规问题,揭示了AI供应链中系统性的"许可证漂移"现象及其法律风险。
意大利初创公司Ganiga开发了AI驱动的智能垃圾分拣机器人Hoooly,能自动识别并分类垃圾和可回收物。该公司产品包括机器人垃圾桶、智能盖子和废物追踪软件,旨在解决全球塑料回收率不足10%的问题。2024年公司收入50万美元,已向谷歌和多个机场销售超120台设备,计划融资300万美元并拓展美国市场。
这项由剑桥大学、清华大学和伊利诺伊大学合作的研究首次将扩散大语言模型引入语音识别领域,开发出Whisper-LLaDA系统。该系统具备双向理解能力,能够同时考虑语音的前后文信息,在LibriSpeech数据集上实现了12.3%的错误率相对改进,同时在大多数配置下提供了更快的推理速度,为语音识别技术开辟了新的发展方向。