“双十一”是一个非常有意义的日子,它既是全民狂欢的购物节,也是红帽的生日。今年是红帽进入中国的第20年,对于红帽而言这是一个重要的里程碑。
过去20年间,开源技术在中国从无到有,从小到大,逐渐成为软件行业发展的重要基石。红帽的成长同样受益于生态系统的日益丰满,客户信任红帽,正是因为其技术能够被更多厂商广泛适配。
今年红帽中国依旧创下了双位数的增长,这也源于越来越多的企业接受开源技术,认识到开源的优势。虽已身披荣耀,但仍需大步向前,红帽全球副总裁兼大中华区总裁曹衡康在今年的红帽论坛上强调,我们的下一步是,解锁开源AI的无限可能。
红帽全球副总裁兼大中华区总裁曹衡康
以开源的方法将AI带入企业
过去两年全球都在积极投入AI基础设施的建设,几个月前美国科技巨头股价集体下跌,引发了投资者对AI产业泡沫的广泛讨论,如此高昂的投入却未见成效。
许多企业都在尝试使用大模型,但在生产场景即便是小问题也可能引发巨大风险,因此多数企业仍在探索如何有效启动AI应用。
IDC全球研究数据显示,2024年在AI相关开发、数据和基础设施投资分配中,预测性AI占34%、GenAI占34%、解释性AI占32%。
2024年红帽推出了全栈AI产品与解决方案,希望通过Linux AI(RHEL AI)和OpenShift AI,协助企业可以快速进入到AI世界,这既是初衷也是目标。
基于目前企业应用模型的趋势,红帽提出了利用小模型,即专属模型,更稳定、安全地实现企业的特定需求。通过与IBM合作发起了围绕大规模对话机器人对齐方法和IBM开源Granite模型的开源社区项目InstructLab。
此外,红帽还推出模型对齐工具,通过使用合成数据大幅减少对真实数据的需求,使数据量降低至原来的千分之一。这种方式不仅降低了算力成本,还大幅减少能耗,可以适应多种部署环境,可运行在本地数据中心、公有云、混合云和边缘设备上。
而且红帽引入了“开放实验室”概念,与客户的顾问团队合作,共同探索企业在研发、生产、市场营销和客户支持等环节中最具效能的生成式AI应用场景,从小应用的成功起步,逐步扩展到更广大的场景。
从实验到落地,企业AI应用三步曲
在生成式AI时代,企业更加希望在了解其成本和收益后,再决定项目的可行性。红帽则提出了“分步实施”的策略,尝试三步走构建企业AI应用。
第一步,在最小资源配置下试用开源模型和工具,比如在桌面环境下,在笔记本或工作站上,采用小数据集进行实验性训练。Podman Desktop工具为本地进行模型微调的开发者提供了桌面客户端,InstructLab可以帮助模型训练人员以较低成本实现模型对齐。
第二步,通过更多算力进行扩展,红帽平台几乎可以运行在任何环境中,企业可以通过完整的合成数据生成技术进行生产级模型训练。红帽企业级Linux AI平台能够无缝开发、测试和运行适用于企业级应用的Granite模型。
第三步,在更大的分布式集群环境下进行生产级模型训练,OpenShift AI支持数据的获取和准备、模型的训练和微调、模型供应、模型监控及硬件加速。
红帽也积极在中国落地这一方法,首先通过市场渠道推广AI的独特功能和优势;其次赋能合作伙伴;最后通过开放实验室,与客户共同探索AI在实际场景中的应用。当客户确定适合的应用场景后,再推动产品的全面导入。
曹衡康认为,一个新技术要进入市场,最快的方式就是找到成功的应用案例并加以推广。
尽管红帽的AI产品自美国发布至今仅5个月,已有多个客户开始复制该成功经验。红帽大中华区解决方案架构部高级总监王慧慧介绍,中国已有一家保险公司引入红帽的AI产品,加速代码审查和合并请求的处理。此前,旧工具准确率不足95%,在生产环境中的效果大打折扣。引入红帽新AI工具后,代码审查和合并的准确率显著提升,大大提高了效率。
“过去,我们通常学习国外的成功案例,而这次中国本地更快开发出了应用。”曹衡康非常自豪,因为这是亚太区第一个成功投入生产环境的AI应用。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。