开源软件巨头红帽公司(Red Hat)今天在犹他州盐湖城举行的KubeCon + CloudNativeCon North America 2024大会上宣布,将对Red Hat OpenShift AI平台进行一系列更新,提升其在人工智能开发领域的竞争力。
Red Hat OpenShift AI是一个可扩展的人工智能和机器学习开发平台,使企业能够在混合云环境中大规模创建并交付人工智能应用。换句话说,企业可以利用该平台创建人工智能模型和应用,以此利用其数据,无论这些数据是位于云端还是在企业内部。
新的偏见检测工具的作用大致未改变,但它们更侧重于人工智能模型的公平性。其目的是防止人工智能模型出现偏差。这是人工智能模型的常见问题。例如,负责筛选求职者的人工智能可能会对特定种族或教育背景的求职者产生偏见,新功能就是为了防止这种情况发生。
人工智能开发人员还将获得更多工具来加强模型微调。Red Hat OpenShift AI 2.15增加了对LoRA(即低秩适配器)的支持,因此可以对 LLM(如Meta Platforms的Llama 3)进行微调,限制资源消耗,使其在大规模运行时更经济。
今天发布的其他增强功能还包括集成了英伟达的NIM微服务,为生成式人工智能应用提供了大量易于部署的大型语言模型,并支持AMD的图形处理器,为客户提供了更多的人工智能处理硬件选择。开发人员还可以期待新的模型服务功能,例如为KServe提供vLLM服务运行时,以及扩展的人工智能训练和实验选项,例如超参数调整工具Ray Tune。
红帽公司副总裁兼人工智能业务部总经理Joe Fernandes表示,企业需要一个可靠、可扩展和灵活的人工智能平台,无论数据在哪里都能运行。“我们在可扩展性、性能和运营效率方面提供了重大改进……使IT企业能够获得强大的人工智能平台的优势,同时在他们独特的业务需求需要的任何环境中保持构建、部署和运行的能力。”
下一代Red Hat OpenShift进入预览阶段
红帽对人工智能的关注不仅在于帮助企业开发和部署智能应用。此外,它还利用人工智能增强自家平台的能力,例如经典的Red Hat OpenShift,这是一个广受欢迎的Kubernetes平台,开发人员利用它在任何云或内部部署环境中构建和部署分布式可扩展应用。
Red Hat OpenShift Lightspeed平台现在作为技术预览版推出,是这些人工智能集成工作的结晶,它引入了一个新的生成式人工智能驱动的助手,用户可以用自然语言向它提问。
Red Hat表示,OpenShift 虚拟助手旨在协助用户完成应用程序故障诊断和调查集群资源等任务,目的是简化用户的生活,提高他们的工作效率。
虽然Lightspeed还只是预览版,但最新的Red Hat OpenShift 4.17 版本已经全面发布,不过新功能并不那么令人兴奋。此次更新的主要重点是通过增强Red Hat OpenShift Virtualization来改进虚拟化工作负载管理。此外,该公司还发布了先进的Kubernetes管理功能,使跨多个集群管理虚拟机变得更加容易。
人工智能应用模板
回到人工智能方面,Red Hat发布了红帽开发者中心(Red Hat Developer Hub)的一系列新功能,这是一个基于开源Backstage项目的企业级开发者门户。
为此,Red Hat推出了新的、以人工智能为重点的软件模板,供开发人员采用更标准化的方法创建并部署人工智能增强型服务和组件。新模板涵盖从音频到文本、聊天机器人、代码生成、对象检测和检索增强生成等常见应用。通过使用这些模板,开发人员可以获得相当于预构建的应用程序,然后根据自己的喜好进行定制,从而节省开发时间。
最后,该公司发布了Red Hat Device Edge 4.17,这次更新旨在简化在传感器、无人机和机器人等低功耗设备上部署边缘人工智能应用的工作。Red Hat Device Edge是一个用于资源受限的边缘环境的平台,在这种环境中,小型设备和计算资源需要较低延迟的操作。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。