英伟达近日发布了一款轻量级语言模型Mistral-NeMo-Minitron 8B,该模型在一系列任务中的表现均优于同等规模的神经网络。
该模型的代码以开源许可的形式发布在Hugging Face网站上。该模型发布的前一天,微软刚刚推出了几个自己的开源语言模型。与英伟达的新算法一样,这些新模型也是为了在处理能力有限的设备上运行而设计的。
Mistral-NeMo-Minitron 8B是英伟达上个月推出的Mistral NeMo 12B语言模型的缩小版。后者是与Mistral AI SAS合作开发的算法,Mistral AI SAS是一家人工智能初创公司,已经募集了大量的资金。英伟达利用了两种名为“剪枝”和“提炼”的机器学习技术创建了Mistral-NeMo-Minitron 8B。
“剪枝”是一种通过删除代码库中不必要的组件来降低模型硬件要求的方法。神经网络由无数个人工神经元组成,每个人工神经元的代码片段都能执行一组相对简单的计算。其中一些代码片段在处理用户请求时发挥的作用不如其他代码片段活跃,这意味着可以在不显著降低人工智能输出质量的情况下删除这些代码片段。
在对 Mistral NeMo 12B进行“剪枝”后,英伟达进入了该项目的所谓“提炼”阶段。“提炼”是工程师将人工智能知识转移到另一个硬件效率更高的神经网络的过程。在这种情况下,第二个模型就是今天亮相的Mistral-NeMo-Minitron 8B,它比原来的模型少了40亿个参数。
开发人员还可以通过从头开始训练一个全新的模型来降低人工智能项目的硬件要求。与这种方法相比,“提炼”有几个优势,尤其是能提高人工智能的输出质量。将大型模型“提炼”为小型模型的成本也更低,因为这项任务不需要那么多训练数据。
英伟达表示,在开发过程中结合使用“剪枝”和“提炼”技术显著提高了Mistral-NeMo-Minitron 8B 的效率。英伟达的高管Kari Briski在一篇博文中介绍说,“其体积小到足以在配备了Nvidia RTX的工作站上运行,同时在人工智能支持的聊天机器人、虚拟助手、内容生成器和教育工具的多个基准测试中依然表现出色。”
Mistral-NeMo-Minitron 8B发布的前一天,微软刚刚开源了自己的三个语言模型。与英伟达的新算法一样,它们的开发也考虑到了硬件效率。
这些模型中最紧凑的名为Phi-3.5-mini-instruct。它拥有38亿个参数,可以处理多达 128,000个标记的数据提示,这使它能够摄取冗长的商业文档。微软进行的一项基准测试表明,Phi-3.5-mini-instruct在执行某些任务时比Llama 3.1 8B和Mistral 7B更出色,而后两者的参数数量大约是前者的两倍。
本周二,微软还开源了另外两个语言模型。第一个是Phi-3.5-vision-instruct,它是Phi-3.5-mini-instruct的一个版本,可以执行图像分析任务,比如解释用户上传的图表。它与Phi-3.5-MoE-instruct同时推出,后者是一个更大的模型,拥有608亿个参数。当用户输入提示时,只有十分之一的参数会激活,这大大减少了推理所需的硬件数量。
好文章,需要你的鼓励
亚马逊云科技首席执行官Matt Garman在re:Invent年度大会上向拉斯维加斯的60000名与会者和另外400000名在线观看者发表了长达三小时的主题演讲,让他们从这位新领导人那里听到了很多消息。
亚马逊云科技(AWS)人工智能和数据副总裁 Swami Sivasubramanian在该公司于拉斯维加斯举办的re:Invent年会上进行了主题演讲,他在演讲中介绍了这些重要的趋势。
自从ChatGPT推出以来,OpenAI不仅将人工智能技术带入了主流视野,而且在短短几年内,彻底改变了人们工作、沟通和创新的方式,这种