IBM近日推出新的Granite系列语言模型阵容,该系列将作为IBM watsonx产品套件的一部分提供给用户。
Granite系列是与其他几个新功能一起推出的。据IBM称,watsonx将增加一款新的工具可以让企业更轻松地创建AI训练数据集,另一项新增功能则会让神经网络更容易适应新的任务。
IBM在今年5月推出了watsonx软件产品,旨在帮助企业构建生成式AI模型,并有望简化例如确保神经网络满足安全要求等相关任务。
IBM这次推出的Granite模型将通过watsonx一个名为watsonx.ai的组件提供给用户。据IBM公司称,后者提供的工具可以更轻松地构建定制神经网络。此外,Watsonx.ai还包括了一系列预先打包的AI模型,这些模型将在本季度晚些时候通过Granite系列得到增强。
Granite系列包括了两种语言模型,分别是Granite.13b.instruct和Granite.13b.chat。IBM 表示,这两种语言模型可以总结文档、执行“洞察提取”以及生成文本,是IBM工程师通过2.4 TB训练数据集构建的。
这两个Granite模型都有130亿个参数,这使其足够紧凑,可以运行在Nvidia单个V100 GPU上。V100比Nvidia的旗舰产品H100要便宜得多,因此从理论上讲,Granite系列应该比那些需要更复杂硬件才能运行的大型语言模型更容易部署。
IBM公司软件高级副总裁Dinesh Nirmal在今天的博客文章中这样写道:“最初的Granite模型只是一个开始:更多的模型还将采用其他语言,更多IBM训练的模型也在准备之中。”
除了Granite系列之后,IBM还在watsonx.ai上推出了两个开源AI模型。第一个是Llama-2,这是Meta Platforms的通用大型语言模型;以及StarCoder,这是ServiceNow和Hugging Face在5月份发布的针对编程任务优化的神经网络。
除了更大的预打包神经网络目录之外,最新版本的watsonx.ai还包括了新的人工智能开发功能。
创建自定义人工智能模型往往需要大量的训练数据。在很多情况下,手动聚合这些信息可能需要大量的时间和精力,企业简化这个工作流程的方法之一,就是使用软件自动生成训练数据。
众所周知,此类合成数据并不总是像手动创建的记录那么准确,但对于AI训练来说通常是适合的。
据IBM称,watsonx.ai将增加一个内置的合成数据生成工具。要使用该公司,企业就必须上传示例数据集,例如购买日志的集合,watson.ai可以分析这些日志并生成具有类似特征的综合记录。
让已经训练好的AI模型适应新的任务,这通常需要对其进行重新训练,而且这可能是一个资源密集型的过程。为了应对这一挑战,IBM为watsonx.ai配备了参数调整工具,该工具可以针对新任务优化神经网络,而无需重新训练。
开发人员通过参数调整创建第二个起到支持作用的神经网络来优化AI模型。第二个神经网络向AI模型提供如何执行给定任务的指令,当这些指令与用户的自然语言提示相结合的时候,AI就能够比其他方式更有效地执行手头上的任务。
IBM还详细介绍了有关于watsonx.data的增强,watsonx.data是watsonx产品套件的一个组件,旨在帮助企业管理他们的AI训练数据集。
据IBM称,该工具将增加对话界面,允许用户更轻松地可视化存储在watsonx.data中的信息,对其进行细化并查找特定记录。IBM还增加了一个经过优化以保存嵌入的矢量数据库,即AI模型用来存储其内部知识存储库的数学结构。
好文章,需要你的鼓励
OpenAI CEO描绘了AI温和变革人类生活的愿景,但现实可能更复杂。AI发展将带来真正收益,但也会造成社会错位。随着AI系统日益影响知识获取和信念形成,共同认知基础面临分裂风险。个性化算法加剧信息茧房,民主对话变得困难。我们需要学会在认知群岛化的新地形中智慧生存,建立基于共同责任而非意识形态纯洁性的社区。
杜克大学等机构研究团队通过三种互补方法分析了大语言模型推理过程,发现存在"思维锚点"现象——某些关键句子对整个推理过程具有决定性影响。研究表明,计划生成和错误检查等高层次句子比具体计算步骤更重要,推理模型还进化出专门的注意力机制来跟踪这些关键节点。该发现为AI可解释性和安全性研究提供了新工具和视角。
传统数据中心基础设施虽然对企业至关重要,但也是预算和房地产的重大负担。模块化数据中心正成为强有力的替代方案,解决企业面临的运营、财务和环境复杂性问题。这种模块化方法在印度日益流行,有助于解决环境问题、满足人工智能的电力需求、降低成本并支持新一代分布式应用。相比传统建设需要数年时间,工厂预制的模块化数据中心基础设施可在数周内部署完成。
法国索邦大学团队开发出智能医学文献管理系统Biomed-Enriched,通过AI自动从PubMed数据库中识别和提取高质量临床案例及教育内容。该系统采用两步注释策略,先用大型AI模型评估40万段落质量,再训练小型模型处理全库1.33亿段落。实验显示该方法仅用三分之一训练数据即可达到传统方法效果,为医学AI发展提供了高效可持续的解决方案。