IBM近日推出了Watsonx产品套件 ,旨在帮助企业更轻松地构建和部署AI模型。
IBM在年度Think大会上推出了其他几款新产品,同时预览了Watsonx。IBM还针对自己的云平台推出了新的计算选项,以提供对GPU的访问,此外还将发布一款AI工具,帮助客户追踪与其云使用相关的碳排放量。
Watsonx
IBM此次新推出的Watsonx产品套件包含三种不同的产品,侧重于简化企业AI项目的不同方面。
第一款产品是Watsonx.ai软件平台,可以用于训练生成式AI模型以及其他类型的神经网络。IBM称,客户将不必从头开始构建他们的模型,Watsonx.ai将提供对预先打包的AI模型目录以及用于训练这些模型的数据集的访问权限。
其中有一组内置的AI模型fm.code,旨在提高软件团队的工作效率。它允许开发人员使用自然语言命令生成代码。客户还可以访问fm.NLP,这是IBM针对特定行业任务优化的大型语言模型集合。
此外还有fm.geospatial神经网络包,其中包含的模型经过了气候数据和“遥感”信息的训练。根据IBM的说法,企业可以使用fm.geospatial来完成监测生物多样性和自然灾害模式等任务。
除了IBM开发的模型之外,Watsonx.ai还将提供对Hugging Face开源神经网络的访问。Hugging Face是由同名初创公司运营的,是一个类似GitHub的平台,用于托管开源AI模型和相关文件。IBM表示,客户可以通过该平台访问到数以千计的神经网络和数据集。
Watsonx产品套件的第二款产品是watsonx.data,据称,这是一个数据湖库,企业组织可以使用它来存储他们训练AI模型的信息。
当AI模型从数据库请求信息时,请求由查询引擎的软件进行处理,尽可能高效地检索文件,不同的查询引擎以不同的方式检索信息。
Watsonx.data将支持多种查询引擎,帮助客户优化他们的AI软件。每个应用都可以使用该模块,从而最有效地检索信息。IBM表示,watsonx.data还将提供许多自动化功能来简化用户的工作。
Watsonx套件的第三款产品是watsonx.governance。它可以检测AI偏差和模型漂移,一种导致神经网络随着时间推移而变得不准确的技术问题。IBM表示,watsonx.governance将使企业能够确保他们的AI项目符合隐私法规。
IBM公司首席执行官Arvind Krishna说:“基础模型使部署AI的可扩展性、可负担性和效率显着提高。我们构建了IBM watsonx以满足企业的需求,让客户不仅仅是用户,他们还可以成为AI领先者。借助IBM watsonx,客户可以在整个业务中快速训练和部署自定义AI功能,同时保持对数据的完全控制。”
AI新品
Watsonx套件的核心组件将于7月全面上市。IBM在此次Think活动中还详细介绍了其他很多产品。
IBM更新了公有云平台IBM Cloud,增加了可访问Nvidia GPU的计算选项。据IBM称,客户可以将Nvidia GPU用于AI训练和推理任务。推理是训练完成后在生产中运行AI模型的一种任务。
除了新的GPU选项之外,IBM还推出了IBM Cloud Carbon Calculator工具。据称,该工具使用机器学习来帮助企业衡量技术基础设施的环境影响,将于今年晚些时候全面上市。
与此同时,IBM计划将基础模型嵌入到其他几个产品中。IBM将推出一款名为Watson Code Assistant的工具,可以根据自然语言提示生成代码。基础设施方面,IBM将发布AIOps Insights,一款旨在加快故障排除任务的应用。
IBM还针对企业用户推出了新的AI功能。据称,IBM用于分析气候和地理空间数据环境的Environmental Intelligence Suite套件,将通过新Watsonx产品套件中的fm.geospatial模型得到增强。另外IBM还向Watson Assistant和Watson Orchestrate中新增了一个单独的基础模型,这两款工具主要用于对常见的业务任务实施自动化,例如处理客户支持票等。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。