IBM近日宣布将在今年5月推出的watsonx.ai企业人工智能开发平台上,托管Meta Platforms的Llama 2。现在,部分客户已经可以抢先体验。

watsonx.ai可用于训练生成式AI模型和其他类型的神经网络,无需从头开始构建自己的模型,平台中包括了预先打包的AI模型目录以及用于训练这些模型的数据集。
今年2月Meta宣布开源Llama的举动震惊了人工智能界。像Llama这样的基础模型通常是在大量未标记数据上进行训练的,这使其能够针对各种任务进行微调。Meta上个月又开源了Llama 2(正式名称为Large Language Model Meta AI 2-chat),并表示将允许企业使用专有数据和工具定制他们自己的AI模型。
持续合作
IBM和Meta过去曾合作开发多个开源项目,包括PyTorch机器学习框架和watsonx.data中使用的Presto查询引擎。watsonx.data是一个基于开放Lakehouse架构构建的专用数据存储。
IBM的战略是提供第三方和自己的AI模型。目前,IBM提供自己的模型以及由Hugging Face支持的社区所托管的模型,这些模型经过预训练,可以支持一系列自然语言处理任务,例如问答、内容生成、内容摘要、文本分类和提取。IBM公司表示,计划很快就会发布AI调优工作室、watsonx.ai模型的情况说明书、以及IBM自己的生成式AI模型。
IBM表示,为了满足企业对安全和数据隐私的担忧,通过watsonx.ai中的提示实验室运行Llama-2模型的用户可以切换护栏功能,自动删除输入和输出文本中的有害语言,Meta还提供了文档用于构建负责任的AI模型。
IBM正在努力成为企业AI开发的首选技术提供商。Upwork Global最近的一项研究发现,有73%的CEO表示,他们的企业正在拥抱生成式AI。IBM表示,IBM的21000名数据、人工智能和自动化顾问已经与40000多家企业客户展开合作,作为IBM咨询部门一部分的Center of Excellence for Generative AI也聘请了1000多名顾问。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。