市场上有很多生成式AI平台的选择,为什么要选择红帽?
红帽总裁兼CEO Matt Hicks直言红帽的不同之处在于运行位置的核心灵活性。企业既可以对小型开源模型进行混合部署,也可以在公有云或自有数据中心训练模型,同时支持主要的GPU供应商。
最近在Red Hat Summit上,红帽发布了一系列与人工智能相关的内容,包括Linux AI(RHEL AI)和OpenShift AI的最新进展。
Matt Hicks表示,RHEL用于运行所有可以在Linux上运行的应用程序,RHEL AI则用于运行你可以通过训练和定制的大型语言模型的AI部分。OpenShift用于管理可以在RHEL上以分布式方式跨集群运行的所有应用程序,OpenShift AI则以相同的方式管理一系列模型,高效地分割训练、使用和提供服务。
红帽总裁兼CEO Matt Hicks
Linux AI(RHEL AI)开源AI的创新
RHEL AI是一个基础模型平台,能够使用户更加便捷地开发、测试和部署生成式人工智能(GenAI)模型。该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。
在意识到IBM研究院开发的大规模对话机器人对齐(LAB)技术能显著提升模型性能后,IBM和红帽决定推出InstructLab,这是一个围绕LAB方法和IBM开源Granite模型构建的开源社区。InstructLab项目的目标是使开发者通过简化LLM的创建、构建和贡献过程,像参与任何其他开源项目一样,将LLM开发的权力交到开发者手中。
RHEL AI融合了企业级就绪的InstructLab项目和Granite语言与代码模型,及全球领先的企业级Linux平台,简化了混合基础设施环境中的部署。RHEL AI包括:
“RHEL AI的主要目标是利用硬件加速,进行模型的训练和运行。”Matt Hicks说,RHEL AI更专注于为大型语言模型创建业务安全、管理生命周期和提供可预测性,并使企业能够对其进行修改。
OpenShift AI增强预测性和生成式AI的灵活性
红帽OpenShift AI是基于红帽OpenShift构建的开放式混合人工智能(AI)和机器学习(ML)平台,帮助企业在混合云环境中大规模创建并交付人工智能支持的应用。
红帽OpenShift AI引入了新的增强功能,包括获取最新的AI/ML创新和以人工智能为中心的庞大合作伙伴生态系统的支持。最新版本红帽OpenShift AI 2.9,提供了边缘模型服务、增强型模型服务、采用Ray支持分布式工作负载、改进模型开发、模型监控和可视化、新的加速器配置文件。
在Matt Hicks看来,构建一个坚实的混合云基础对企业AI至关重要。许多企业尝试使用规模较小的模型进行微调和训练,但往往成效不佳。所以他们会转向“全知模型”——通常在公共云中运行的模型,参数量超过一万亿,这些模型虽然是开箱即用,但运行和训练成本相当之高。
无论是在笔记本、边缘还是任何地方,混合云对云充分发挥AI的潜力都是关键。企业必须改进这些小型模型,使其更好地适应实际任务,这就需要在特定用例上完成最后一段训练。
Red Hat Summit上红帽展示了在开放混合云中赋能人工智能战略,支持人工智能工作负载在数据所在的地方运行,无论是在数据中心、多个公有云或边缘。红帽的平台为这些工作负载提供跨环境的一致性,无论它们在何处运行,都可以顺利推进企业的人工智能创新。
好文章,需要你的鼓励
Xbox 部门推出了名为 Muse 的生成式 AI 模型,旨在为游戏创造视觉效果和玩法。这一举措反映了微软全面拥抱 AI 技术的战略,尽管游戏开发者对 AI 持谨慎态度。Muse 不仅可能提高游戏开发效率,还有望实现老游戏的现代化改造,但其实际效果和对行业的影响仍有待观察。
Sonar收购AutoCodeRover,旨在通过自主AI代理增强其代码质量工具。这项收购将使Sonar客户能够自动化调试和问题修复等任务,让开发者将更多时间用于改进应用程序而非修复bug。AutoCodeRover的AI代理能够自主修复有问题的代码,将与Sonar的工具集成,提高开发效率并降低成本。
人工智能正在推动数据中心的变革。为满足 AI workload 的需求,数据中心面临前所未有的电力消耗增长、散热压力和设备重量挑战。应对这些挑战需要创新的解决方案,包括 AI 专用硬件、可再生能源、液冷技术等。同时,数据中心还需平衡监管压力和社区关切。未来数据中心的发展将决定 AI 技术能否实现其变革性潜力。