2024 年 6 月 2 日,NVIDIA 于宣布,全球 2,800 万开发者现可下载 NVIDIA NIM™——一种推理微服务,通过经优化的容器的形式提供模型——以部署在云、数据中心或工作站上。借助 NVIDIA NIM,开发者能够轻松地为 copilots、聊天机器人等构建生成式 AI 应用,所需时间从数周缩短至几分钟。
这些新的生成式 AI 应用正变得越来越复杂,通常需要使用具有不同功能的多个模型来生成文本、图像、视频、语音等。NVIDIA NIM 提供了一种简单、标准化的方式,将生成式 AI 添加到应用中,显著提高了开发者的工作效率。
NIM 还可使企业能够最大限度利用其基础设施投资。例如,相较于未使用 NIM 的情况下,在 NIM 中运行 Meta Llama 3-8B 时,后者在加速基础设施上可产生高达 3 倍的生成式 AI token。这使企业能够大幅提高效率,使用相同的计算基础设施来生成更多的结果。
包括 Cadence、Cloudera、Cohesity、DataStax、NetApp、Scale AI 和新思科技等近 200 家技术合作伙伴正在将 NIM 集成到他们的平台中,以加快特定领域应用的生成式 AI 部署,例如 copilot、代码助手和数字人虚拟形象。从 Meta Llama 3 开始,在 Hugging Face 上现已开始提供 NIM。
NVIDIA 创始人兼首席执行官黄仁勋表示:“每个企业都希望在其运营中融入生成式 AI,但并非每个企业都拥有专门的 AI 研究团队。NVIDIA NIM 可被集成到任意平台中,任何地方的开发者都可以访问,并且可以在任意环境中运行——它正在助力科技行业将生成式 AI 普及到每一个企业组织。”
通过 NVIDIA AI Enterprise 软件平台,企业可以使用 NIM 在生产系统中部署 AI 应用。从下个月开始,NVIDIA 开发者计划的会员可以免费使用 NIM,在其选择的基础设施上进行研究、开发和测试。
40 余个 NIM 微服务为跨模式的生成式 AI 赋能
NIM 容器是预构建的,以加速模型部署,可用于 GPU 加速推理,其中包括 NVIDIA CUDA® 软件、NVIDIA Triton 推理服务器™和 NVIDIA TensorRT™-LLM 软件。
在 ai.nvidia.com 网站上,超过 40 个 NVIDIA 及社区模型可作为 NIM 端点进行体验,其中包括 Databricks DBRX、谷歌开放模型 Gemma、Meta Llama 3、微软 Phi-3、Mistral Large、Mixtral 8x22B 和 Snowflake Arctic。
开发者现在可以从 Hugging Face AI 平台上,访问 Meta Llama 3 模型的 NVIDIA NIM 微服务。通过基于 NVIDIA GPU 的 Hugging Face 推理端点,只需点击几下,开发者就能在其选择的云平台上轻松地访问和运行 Llama 3 NIM。
企业可以使用 NIM 来运行用于生成文本、图像和视频、语音以及数字人的应用。借助面向数字生物学的 NVIDIA BioNeMo™ NIM 微服务,研究人员可以构建新的蛋白质结构,加速药物研发。
数十家医疗公司正在一系列应用中部署 NIM,以便在手术规划、数字助手、药物研发和临床试验优化等一系列应用中为生成式 AI 推理提供动力。
借助全新的 NVIDIA ACE NIM 微服务,开发者可以在客户服务、远程医疗、教育、游戏和娱乐等应用中,轻松构建和操作栩栩如生的交互式数字人。
数百家 AI 生态系统合作伙伴已嵌入 NIM
包括 Canonical、Red Hat、Nutanix 和 VMware(已被博通收购)在内的平台提供商已在开源 KServe 或企业解决方案方面支持 NIM。AI 应用公司 Hippocratic AI、Glean、Kinetica 和 Redis 也在部署 NIM 来支持生成式 AI 推理。
领先的 AI 工具和 MLOps 合作伙伴(包括亚马逊 SageMaker、微软 Azure AI、Dataiku、DataRobot、deepset、Domino Data Lab、LangChain、Llama Index、Replicate、Run.ai、Saturn Cloud、Securiti AI 和 Weights & Biases)也已将 NIM 嵌入到其平台,使开发者能够通过优化推理来构建和部署特定领域的生成式 AI 应用。
全球系统集成商和服务交付合作伙伴埃森哲、德勤、Infosys、Latentview、Quantiphi、SoftServe、塔塔咨询服务(TCS)和威普罗(Wipro)已经建立了 NIM 能力,以帮助全球企业快速开发和部署生产型 AI 策略。
企业几乎可以在任何地方运行支持 NIM 的应用,包括在全球基础设施制造商思科、戴尔科技、慧与、联想和超微,以及服务器制造商永擎电子、华硕、技嘉、鸿佰科技、英业达、和硕、QCT、纬创资通和纬颖科技的 NVIDIA 认证系统™ 上运行。NIM 微服务也已集成至亚马逊云科技、谷歌云、Azure 和 Oracle 云基础设施中。
行业巨头通过 NIM 加强生成式 AI
行业领导者 Foxconn、和硕、Amdocs、劳氏公司、 ServiceNow 和西门子利用 NIM 来加强生成式 AI 应用,涉及制造业、医疗、金融服务、零售、客户服务等领域:
可用性
开发者可在 ai.nvidia.com 网站上免费试用 NVIDIA 微服务。企业可通过在 NVIDIA 认证系统和领先的云平台上运行的 NVIDIA AI Enterprise 来部署生产级 NIM 微服务。从下个月开始,NVIDIA 开发者计划的会员将能够免费使用 NIM 来进行研究和测试。
好文章,需要你的鼓励
DeepResearchGym是一个创新的开源评估框架,专为深度研究系统设计,旨在解决当前依赖商业搜索API带来的透明度和可重复性挑战。该系统由卡内基梅隆大学研究团队开发,结合了基于ClueWeb22和FineWeb大型网络语料库的可重复搜索API与严格的评估协议。实验表明,使用DeepResearchGym的系统性能与使用商业API相当,且在评估指标间保持一致性。人类评估进一步证实了自动评估协议与人类偏好的一致性,验证了该框架评估深度研究系统的有效性。
这项研究介绍了FinTagging,首个面向大型语言模型的全面财务信息提取与结构化基准测试。不同于传统方法,它将XBRL标记分解为数值识别和概念链接两个子任务,能同时处理文本和表格数据。在零样本测试中,DeepSeek-V3和GPT-4o表现最佳,但在细粒度概念对齐方面仍面临挑战,揭示了当前大语言模型在自动化XBRL标记领域的局限性,为金融AI发展提供了新方向。
这项研究介绍了SweEval,一个新型基准测试,用于评估大型语言模型在企业环境中处理脏话的能力。研究团队从Oracle AI等多家机构的专家创建了一个包含八种语言的测试集,模拟不同语调和上下文的真实场景。实验结果显示,LLM在英语中较少使用脏话,但在印地语等低资源语言中更易受影响。研究还发现较大模型通常表现更好,且多语言模型如Llama系列在处理不当提示方面优于其他模型。这项工作对企业采用AI技术时的安全考量提供了重要参考。
这项研究提出了"VeriFree"——一种不需要验证器的方法,可以增强大型语言模型(LLM)的通用推理能力。传统方法如DeepSeek-R1-Zero需要验证答案正确性,限制了其在数学和编程以外领域的应用。VeriFree巧妙地计算正确答案在模型生成的推理过程后出现的概率,作为评估和训练信号。实验表明,这种方法不仅能匹配甚至超越基于验证器的方法,还大幅降低了计算资源需求,同时消除了"奖励黑客"问题。这一突破将有助于开发出在化学、医疗、法律等广泛领域具有更强推理能力的AI系统。