在今年早些时候的Red Hat Summit峰会上,Red Hat通过OpenShift AI深化了平台功能,可以让组织将更多人工智能工作负载添加到OpenShift上的应用组合。
此举是对Red Hat目标的一个自然延伸。Red Hat的目标是要成为应用开发人员和基础设施运营商在跨公有云、私有云以及网络边缘的分布式IT环境中构建和运行应用的首选平台。
Red Hat通过OpenShift AI为创建生产型AI和机器学习模型提供了标准化的基础。Red Hat还与IBM合作开发了Ansible Lightspeed,IBM也对其Watson Code Assistant进行训练来编写Ansible自动化手册。
然而,Red Hat的AI举措在某种程度上被开源社区对于Red Hat限制客户访问Red Hat Enterprise Linux (RHEL)源代码的回应所掩盖了。Red Hat是在Red Hat Summit峰会大约一个月之后宣布这个决定的,目的是防止重建者在不增加软件价值的情况下从RHEL代码中获利。
Red Hat公司首席执行官Matt Hicks谈到了Red Hat公司为支持在混合云环境中使用生成式AI以及MLOps工具所做出的努力,此外他还对RHEL源代码的混乱局面以及Red Hat如何解决社区对这个决定的担忧,表达了他的观点。
您能否解读一下最近Red Hat Summit峰会上发布的一些重要公告以及这些公告对于Red Hat未来发展的意义?
Hicks:我将从人工智能开始,然后再返回来,因为我认为AI本质上将是一种混合工作负载,这一点已经变得非常清楚。你可能会在大型环境中训练模型,然后在尽可能靠近用户的地方运行这些模型。长期以来,我们一直相信开放式的混合云,这是一种令人兴奋的工作负载,可以让客户接受混合架构。
像ChatGPT这样的热点让大多数企业客户开始试图弄清楚AI会给他们的业务带来怎样的影响,让他们思考如何才能做好混合,而我们在这次峰会上发布的公告,大部分内容都是关于为混合奠定基础的,无论是传统应用、云原生应用还是AI工作负载。
我们通过几种不同的方式来做到这一点,首先是我们正在做的安全供应链方面工作。正如你所知,技术堆栈正在快速变化,因此当你交付基础的时候,无论是在本地、公有云中还是最终走向边缘,了解基础的来源及其安全性都是至关重要的,尤其是当你把一些东西迁移出数据中心的时候。
Service Interconnect是我们公布的第二部分内容。Service Interconnect让应用可以更轻松地通过SSH通道和VPN连接到混合云中的组件。我们对此感到非常兴奋,因为我们相信,AI不会是单独存在的,它要与应用一起运行,而这些应用必须从训练环境开始就是和你的业务运行环境互连的。
第三部分是开发者中心。我们已经看到许多使用OpenShift的企业在构建自己的门户,来收集他们的资产,并向他们的开发人员指出他们应该从哪里开始,例如要使用的图像和服务。这非常常见,如果你有了一个安全的基础,而且你构建了跨多个位置的应用,那么能够发布和使用这些应用以支持更广泛的开发团队也是同样重要的。
如何解决AI带来的一些挑战,例如可解释性,特别是具有数十亿甚至数万亿参数的大型语言模型?
Hicks:这包括两个部分——一个部分是我们在做的,另一部分取决于模型创建者。我要讲讲我们和IBM在Ansible Lightspeed方面所做的工作,主要是为了提供特定领域的AI生成功能,你可以要求该功能提供内容,我们会为你生成相应的内容。ChatGPT的应用非常广泛,它非常具体并且非常适合Ansible。
关于你提的问题,我们强调的事情之一是来源,特别是AI提供建议的来源,因为我们从事的是开源的业务,许可、版权和商标规则都很重要——你是不能够随心所欲地提取代码,然后放进其他任何代码中。我们希望确保,我们展示了我们所能做到的。
现在这个问题实际上发生在两个堆栈上。我们借助OpenShift可以帮助支持DevOps中的一整套工作——源代码管理、同行评审、代码发布、标记、了解发布模块、管道,然后发布代码,OpenShift在这方面做得很好。我们可以利用整个集合并将代码从笔记本电脑转移到生产环境中。
AI模型并没有那么不同。就原则要求来说,你需要了解你一开始就使用的模型。如果是生成式AI,那么你需要确切地知道你引入了哪些数据,以及你如何训练这些数据,或者进行细化训练或提示工程。你需要能够跟踪输出内容,并在将其发布到生产环境之前对其进行测试,因此如果结果发生变化,你就会知道它是来自哪里的。这个部分很棘手,因为数据变化如此之快,以至于你无法只是发布数据而不重新训练数据。对数据的再训练和代码生成一样,都是持续不断的。
因此,我们在OpenShift AI上所做的就是MLOps——提取数据、训练模型,并使用与代码非常相似的管道。但是你需要有一个基础模型,这就引出了模型最初是如何训练的问题,这是Red Hat本身并不做的事情,而是由IBM、Meta、OpenAI和其他模型生成器完成的,此外Hugging Face也有很多开源模型生成器。
对IBM来说,他们会严格控制自己的模型,因为这是Ansible特定的领域。他们会严格控制训练对象,以便最终能够驱动核心归因。有两个不同的阵营——有些阵营对所有公开可用的内容进行训练,为你提供大量参数模型,其中归因始终是一个挑战。然后是Hugging Face,它有很多专门的模型,这些模型可能从基础模型开始,但仅限于领域之内。
我们的目标是确保我们能够将这种原则添加到你一开始的内容之中。你在数据方面改变了什么?你是如何重新训练的?结果如何?在哪里发布?现在有很多训练,但在未来一两年内,我们认为我们将更多地进入推理领域,而迭代方式则变得至关重要。
除了IBM之外,是否有计划与市场上的其他参与者合作?此外,Red Hat与那些也具有MLOps功能的超大规模企业有着深厚的关系——您对竞争格局有何看法?
Hicks:我们不做模型的原因之一,就是我们想确保我们是一家平台公司。我们的工作是以尽可能最好的方式运行最好的模型。我们如何使用RHEL和OpenShift将模型(无论是哪一个模型)桥接到Nvidia、英特尔或者是AMD的硬件以驱动训练和推理?因为不涉足模型,这让我们天然地成为了所有人的合作伙伴,而且这实际上也是一项关于硬件的声明。我们如何才能充分地利用OpenShift分布式计算的训练环境,然后进行推理,很多时候更接近核心RHEL或更小的OpenShift实例。所以,这是第一层。
看看OpenShift AI就会发现,第二层是我们与许多其他公司展开合作的地方,这些公司添加了专门的功能,无论是关注函数数组的Starburst还是其他公司。IBM在Watsonx上所做的工作令人感到兴奋。他们大量使用了OpenShift AI,从一开始他们就对OpenShift很满意。我们的目标是确保我们作为一家平台公司是具有中立性和独立性的,很高兴我们能够为IBM提供服务,但同时我们也会有其他的合作伙伴,因为这个领域有太多的专业化技术和利基产品了。
我最近见到了SUSE公司的首席执行官,我们谈到了Red Hat最近关于限制其客户访问RHEL源代码的决定。Red Hat高管已经撰写了很多文章来解释这么做的理由,那么您是如何向客户解释这个问题并打消社区对这个决定的担忧呢?
Hicks:我将通过两种方式解决这个问题。关于社区的担忧,我认为这其中有一半是人们才刚刚开始意识到我们是带来了RHEL的访问路径,无论是供团队使用的RHEL还是可供非生产使用的多个实例,或者是供个人和爱好者使用的免费RHEL。我们的首要目标是,如果你是Linux的贡献者,我们绝不想妨碍你使用我们的产品。我认为我们可能在一年前就消除了很多这样的障碍。随着人们越来越多地使用RHEL,还有改进的空间吗?当然,这可以确保RHEL可供受众使用。
当我们接触到那些想要构建专有Linux社区或者从我们已经完成的一些工作开始着手、但朝不同方向发展的社区群体时,我们的观点是,就下一个版本的RHEL而言,CentOS Stream提供了你所需的一切。如果你想对其进行更积极的改进,Fedora可以为你提供所需的一切。如果我们自己选择的话,你的贡献可以流入RHEL。
RHEL的逐位重建对我们来说并不适用。现在,有人总是可以进入CentOS,所有代码都可以重新组合,但我们对Linux发行版的偏好是添加一些新颖的或者专门的内容,以前所未有的方式使发行版变得更好。
对于我们的客户来说,他们中的大多数人与社区建设者就像生活在不同的世界。我们的RHEL源代码政策非常好地涵盖了我们的客户群,因为如果你作为客户需要源代码,你就会得到它们。我们有使用过RHEL和CentOS的客户,这对他们来说无疑是一个决策点。但Linux是地球上可用性最高的操作系统,因此他们有很多选项可供选择。我们始终希望确保能够通过RHEL为他们提供服务,但这并不是一项真正的客户挑战。
我想说的挑战是,社区感觉我们从他们那里拿走了一些东西。其中一半原因是他们对CentOS Stream不太熟悉,也不熟悉RHEL的使用方式。我们从事开源已经有一段时间了,你在开源中所做的任何改变往往都会引起非常强烈的反应。我们仍然坚持开源——我们仍然开源我们所做的一切,我们仍然为我们赚的每一美元做出巨大的贡献。
在您给员工关于最近裁员的信中,提到了Red Hat关注真正擅长的事情的重要性。您能详细说明一下这些事情是什么,以及您希望实现什么吗?
Hicks:这是一个很好的问题,我几乎每次在公司会议开始的时候都会说,“放心,我们是一家平台公司”。我们将定位在硬件之上,在边缘世界中,在数据中心外新整合的设备上。我们将连接到应用,无论是传统应用还是新的云原生应用,然后你就可以拥有AI工作负载。
从RHEL时代到JBoss中间件,再到OpenShift和分布式计算,我们所做的工作就是确保想要使用我们平台进行构建的开发人员拥有尽可能广泛的影响力。这很重要,因为现在有很多事情都在发生变化。看看边缘和AI的交叉点,想要成为一家平台公司,我们就必须服务于这个市场和此类工作负载,这意味着我们必须在工程和销售上有所投入。
我们拥有这个令人难以置信的机会,让Linux、OpenShift和Ansible在企业中取得成功。但数据中心的边界正在发生变化,新技术正在改变企业构建事物的方式。这是我们要面对的下一个机会,从数据中心到云还有大量的工作要做,但我们必须坚持不懈地专注于成为一个平台,并为这些用例提供服务。
这就是我们想要做得很好的事情,其中一些工作是在操作系统领域,例如保护软件供应链、PyTorch优化或者Nvidia集成等领域;还有一些工作会涉及分布式计算,这就是我们通过OpenShift所做的事情,以及围绕Ansible编排方面还有很多的工作要做。
我们肯定会投资这三个领域之外的其他领域,但如果我的工作做得好,你永远不会看到我们投资于那些无法追溯到这个平台用例的领域。我认为,现在对我们来说这是一个相当大的市场,我们了解这个市场的动态,我们知道如何向这个市场进行销售,而且我们拥有这个市场中的人才,这些不断发展的领域中有足够的机会值得我们关注。
好文章,需要你的鼓励
亚马逊云科技首席执行官Matt Garman在re:Invent年度大会上向拉斯维加斯的60000名与会者和另外400000名在线观看者发表了长达三小时的主题演讲,让他们从这位新领导人那里听到了很多消息。
亚马逊云科技(AWS)人工智能和数据副总裁 Swami Sivasubramanian在该公司于拉斯维加斯举办的re:Invent年会上进行了主题演讲,他在演讲中介绍了这些重要的趋势。
自从ChatGPT推出以来,OpenAI不仅将人工智能技术带入了主流视野,而且在短短几年内,彻底改变了人们工作、沟通和创新的方式,这种