英伟达近日发布了一款轻量级语言模型Mistral-NeMo-Minitron 8B,该模型在一系列任务中的表现均优于同等规模的神经网络。
该模型的代码以开源许可的形式发布在Hugging Face网站上。该模型发布的前一天,微软刚刚推出了几个自己的开源语言模型。与英伟达的新算法一样,这些新模型也是为了在处理能力有限的设备上运行而设计的。
Mistral-NeMo-Minitron 8B是英伟达上个月推出的Mistral NeMo 12B语言模型的缩小版。后者是与Mistral AI SAS合作开发的算法,Mistral AI SAS是一家人工智能初创公司,已经募集了大量的资金。英伟达利用了两种名为“剪枝”和“提炼”的机器学习技术创建了Mistral-NeMo-Minitron 8B。
“剪枝”是一种通过删除代码库中不必要的组件来降低模型硬件要求的方法。神经网络由无数个人工神经元组成,每个人工神经元的代码片段都能执行一组相对简单的计算。其中一些代码片段在处理用户请求时发挥的作用不如其他代码片段活跃,这意味着可以在不显著降低人工智能输出质量的情况下删除这些代码片段。
在对 Mistral NeMo 12B进行“剪枝”后,英伟达进入了该项目的所谓“提炼”阶段。“提炼”是工程师将人工智能知识转移到另一个硬件效率更高的神经网络的过程。在这种情况下,第二个模型就是今天亮相的Mistral-NeMo-Minitron 8B,它比原来的模型少了40亿个参数。
开发人员还可以通过从头开始训练一个全新的模型来降低人工智能项目的硬件要求。与这种方法相比,“提炼”有几个优势,尤其是能提高人工智能的输出质量。将大型模型“提炼”为小型模型的成本也更低,因为这项任务不需要那么多训练数据。
英伟达表示,在开发过程中结合使用“剪枝”和“提炼”技术显著提高了Mistral-NeMo-Minitron 8B 的效率。英伟达的高管Kari Briski在一篇博文中介绍说,“其体积小到足以在配备了Nvidia RTX的工作站上运行,同时在人工智能支持的聊天机器人、虚拟助手、内容生成器和教育工具的多个基准测试中依然表现出色。”
Mistral-NeMo-Minitron 8B发布的前一天,微软刚刚开源了自己的三个语言模型。与英伟达的新算法一样,它们的开发也考虑到了硬件效率。
这些模型中最紧凑的名为Phi-3.5-mini-instruct。它拥有38亿个参数,可以处理多达 128,000个标记的数据提示,这使它能够摄取冗长的商业文档。微软进行的一项基准测试表明,Phi-3.5-mini-instruct在执行某些任务时比Llama 3.1 8B和Mistral 7B更出色,而后两者的参数数量大约是前者的两倍。
本周二,微软还开源了另外两个语言模型。第一个是Phi-3.5-vision-instruct,它是Phi-3.5-mini-instruct的一个版本,可以执行图像分析任务,比如解释用户上传的图表。它与Phi-3.5-MoE-instruct同时推出,后者是一个更大的模型,拥有608亿个参数。当用户输入提示时,只有十分之一的参数会激活,这大大减少了推理所需的硬件数量。
好文章,需要你的鼓励
9to5Mac每日播客探讨苹果健身服务的未来发展方向。节目每个工作日更新,用户可通过苹果播客或其他播放器订阅收听。播客提供付费版本9to5Mac Daily Plus,解锁更多专属内容。听众可通过邮件分享观点,并在苹果播客中评分推荐。
瑞士ETH苏黎世联邦理工学院等机构联合开发的WUSH技术,首次从数学理论层面推导出AI大模型量化压缩的最优解。该技术能根据数据特征自适应调整压缩策略,相比传统方法减少60-70%的压缩损失,实现接近零损失的模型压缩,为大模型在普通设备上的高效部署开辟了新路径。
苹果Fitness+宣布推出多项新功能帮助用户建立运动习惯。1月5日起将上线三个新的多周训练项目,1月12日再增加一个。新功能包括KAROL G音乐训练课程,2月超级碗前还将推出Bad Bunny艺人聚焦系列。Time to Walk也将推出新剧集。该服务支持iPhone、iPad和Apple TV用户使用,月费9.99美元。
弗吉尼亚大学团队创建了Refer360数据集,这是首个大规模记录真实环境中人机多模态交互的数据库,涵盖室内外场景,包含1400万交互样本。同时开发的MuRes智能模块能让机器人像人类一样理解语言、手势和眼神的组合信息,显著提升了现有AI模型的理解准确度,为未来智能机器人的广泛应用奠定了重要基础。