市场上有很多生成式AI平台的选择,为什么要选择红帽?
红帽总裁兼CEO Matt Hicks直言红帽的不同之处在于运行位置的核心灵活性。企业既可以对小型开源模型进行混合部署,也可以在公有云或自有数据中心训练模型,同时支持主要的GPU供应商。
最近在Red Hat Summit上,红帽发布了一系列与人工智能相关的内容,包括Linux AI(RHEL AI)和OpenShift AI的最新进展。
Matt Hicks表示,RHEL用于运行所有可以在Linux上运行的应用程序,RHEL AI则用于运行你可以通过训练和定制的大型语言模型的AI部分。OpenShift用于管理可以在RHEL上以分布式方式跨集群运行的所有应用程序,OpenShift AI则以相同的方式管理一系列模型,高效地分割训练、使用和提供服务。
红帽总裁兼CEO Matt Hicks
Linux AI(RHEL AI)开源AI的创新
RHEL AI是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型。该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。
在意识到IBM研究院开发的大规模对话机器人对齐(LAB)技术能显著提升模型性能后,IBM和红帽决定推出InstructLab,这是一个围绕LAB方法和IBM开源Granite模型构建的开源社区。InstructLab项目的目标是使开发者通过简化LLM的创建、构建和贡献过程,像参与任何其他开源项目一样,将LLM开发的权力交到开发者手中。
RHEL AI融合了企业级就绪的InstructLab项目和Granite语言与代码模型,及全球领先的企业级Linux平台,简化了混合基础设施环境中的部署。RHEL AI包括:
“RHEL AI的主要目标是利用硬件加速,进行模型的训练和运行。”Matt Hicks说,RHEL AI更专注于为大型语言模型创建业务安全、管理生命周期和提供可预测性,并使企业能够对其进行修改。
OpenShift AI增强预测性和生成式AI的灵活性
红帽OpenShift AI是基于红帽OpenShift构建的开放式混合人工智能(AI)和机器学习(ML)平台,帮助企业在混合云环境中大规模创建并交付人工智能支持的应用。
红帽OpenShift AI引入了新的增强功能,包括获取最新的AI/ML创新和以人工智能为中心的庞大合作伙伴生态系统的支持。最新版本红帽OpenShift AI 2.9,提供了边缘模型服务、增强型模型服务、采用Ray支持分布式工作负载、改进模型开发、模型监控和可视化、新的加速器配置文件。
在Matt Hicks看来,构建一个坚实的混合云基础对企业AI至关重要。许多企业尝试使用规模较小的模型进行微调和训练,但往往成效不佳。所以他们会转向“全知模型”——通常在公共云中运行的模型,参数量超过一万亿,这些模型虽然是开箱即用,但运行和训练成本相当之高。
无论是在笔记本、边缘还是任何地方,混合云对云充分发挥AI的潜力都是关键。企业必须改进这些小型模型,使其更好地适应实际任务,这就需要在特定用例上完成最后一段训练。
Red Hat Summit上红帽展示了在开放混合云中赋能人工智能战略,支持人工智能工作负载在数据所在的地方运行,无论是在数据中心、多个公有云或边缘。红帽的平台为这些工作负载提供跨环境的一致性,无论它们在何处运行,都可以顺利推进企业的人工智能创新。
好文章,需要你的鼓励
TAE Technologies在最新一轮投资中获1.5亿美元,累计融资约18亿美元。公司利用 AI 技术优化融合反应堆设计,目标于 2030 年代商业化发电,谷歌等巨头均参与合作。
澳大利亚国立大学和广湾大学研究团队开发的VAU-R1系统通过强化学习显著提升了视频异常理解能力。该研究不仅创建了第一个专门用于训练和评估视频异常理解的思维链基准数据集VAU-Bench,还提出了一种数据高效的强化微调框架,使模型能更准确地回答问题、定位异常时间段并提供连贯解释。实验结果表明,VAU-R1在多项选择题准确率和时间定位方面比传统方法有显著提升,为安全监控、灾害预警等领域的智能系统带来了新的可能性。
Nvidia 正在全球数据中心推广 AI 芯片,其最新 Blackwell 架构在 MLPerf 基准测试中获得最高性能,大幅加速下一代 AI 应用的训练与部署。
这项研究由香港中文大学团队提出了视频-3D几何大语言模型(VG LLM),一种无需依赖显式3D数据输入,仅通过普通视频就能理解3D世界的创新方法。通过集成3D视觉几何编码器,该模型能从视频序列中提取3D先验信息,显著提升空间推理能力。实验表明,该4B参数模型在多项3D场景理解和空间推理任务上超越了现有技术,甚至在VSI-Bench评估中胜过Gemini-1.5-Pro。