英伟达近日发布了一款轻量级语言模型Mistral-NeMo-Minitron 8B,该模型在一系列任务中的表现均优于同等规模的神经网络。
该模型的代码以开源许可的形式发布在Hugging Face网站上。该模型发布的前一天,微软刚刚推出了几个自己的开源语言模型。与英伟达的新算法一样,这些新模型也是为了在处理能力有限的设备上运行而设计的。
Mistral-NeMo-Minitron 8B是英伟达上个月推出的Mistral NeMo 12B语言模型的缩小版。后者是与Mistral AI SAS合作开发的算法,Mistral AI SAS是一家人工智能初创公司,已经募集了大量的资金。英伟达利用了两种名为“剪枝”和“提炼”的机器学习技术创建了Mistral-NeMo-Minitron 8B。
“剪枝”是一种通过删除代码库中不必要的组件来降低模型硬件要求的方法。神经网络由无数个人工神经元组成,每个人工神经元的代码片段都能执行一组相对简单的计算。其中一些代码片段在处理用户请求时发挥的作用不如其他代码片段活跃,这意味着可以在不显著降低人工智能输出质量的情况下删除这些代码片段。
在对 Mistral NeMo 12B进行“剪枝”后,英伟达进入了该项目的所谓“提炼”阶段。“提炼”是工程师将人工智能知识转移到另一个硬件效率更高的神经网络的过程。在这种情况下,第二个模型就是今天亮相的Mistral-NeMo-Minitron 8B,它比原来的模型少了40亿个参数。
开发人员还可以通过从头开始训练一个全新的模型来降低人工智能项目的硬件要求。与这种方法相比,“提炼”有几个优势,尤其是能提高人工智能的输出质量。将大型模型“提炼”为小型模型的成本也更低,因为这项任务不需要那么多训练数据。
英伟达表示,在开发过程中结合使用“剪枝”和“提炼”技术显著提高了Mistral-NeMo-Minitron 8B 的效率。英伟达的高管Kari Briski在一篇博文中介绍说,“其体积小到足以在配备了Nvidia RTX的工作站上运行,同时在人工智能支持的聊天机器人、虚拟助手、内容生成器和教育工具的多个基准测试中依然表现出色。”
Mistral-NeMo-Minitron 8B发布的前一天,微软刚刚开源了自己的三个语言模型。与英伟达的新算法一样,它们的开发也考虑到了硬件效率。
这些模型中最紧凑的名为Phi-3.5-mini-instruct。它拥有38亿个参数,可以处理多达 128,000个标记的数据提示,这使它能够摄取冗长的商业文档。微软进行的一项基准测试表明,Phi-3.5-mini-instruct在执行某些任务时比Llama 3.1 8B和Mistral 7B更出色,而后两者的参数数量大约是前者的两倍。
本周二,微软还开源了另外两个语言模型。第一个是Phi-3.5-vision-instruct,它是Phi-3.5-mini-instruct的一个版本,可以执行图像分析任务,比如解释用户上传的图表。它与Phi-3.5-MoE-instruct同时推出,后者是一个更大的模型,拥有608亿个参数。当用户输入提示时,只有十分之一的参数会激活,这大大减少了推理所需的硬件数量。
好文章,需要你的鼓励
戴尔在约一年之前推出了其Apex Red Hat OpenShift服务,支持在戴尔PowerEdge服务器上运行Red Hat OpenShift容器编排服务及带有SSD的PowerFlwx块存储。APEX是戴尔提供的一组服务,通过类似公有云的订阅模式提供计算、存储和网络设备。
第四次农业革命即将到来。包括物联网(IoT)部署(即用于收集和传输数据的数字化设备)以及AI在内的技术进步,正将效率推向新的顶点,并有望再次从根本上改变人类宰治整个地球的具体方式。
通过收购 Cradlepoint 和 Ericom 时所继承的知识产权、人力资本、渠道合作伙伴关系和客户关系(爱立信称全球有 36,000 多家企业)仍然是其发展主张的核心,并且基本上保持不变——尽管要将三家公司一个整体运作需要大量的后勤工作,但三家公司的合并同样是为了将爱立信的技术和专业知识转化为其服务属性。
沃达丰发布的《2024年顺应未来报告》(以下简称“顺应未来”报告)中揭示了一个激动人心的趋势:中国企业在拥抱数字化转型方面表现积极,在亚太地区排名第二,仅次于新加坡。然而,报告也引发了人们的疑问:人工智能的迅速发展究竟是信任的催化剂,还是担忧的制造者?中国企业如何在科技创新与社会责任之间取得平衡,并利用技术赢得消费者信任,实现长期增长?