Red Hat高管表示,Red Hat OpenShift、OpenShift AI、Edge Device和Developer Hub的更新将会为合作伙伴提供更多与客户开展业务的方式。
这家位于美国北卡罗来纳的厂商在近日举行的KubeCon活动期间发布了一系列重大新闻,包括对OpenShift虚拟化功能的改进、OpenShift AI支持更多的模型训练、Edge Device降低了低延迟、以及Developer Hub新增了AI模板。
Red Hat混合云平台高级总监Kirsten Newcomer表示,合作伙伴将会看到“OpenShift虚拟化带来的巨大机会”,尤其是在竞争对手VMware的价格变化持续令人感到沮丧的情况下。
她鼓励合作伙伴去了解Red Hat的迁移工具包,以便将VMware工作负载迁移到Red Hat,并与客户讨论其他应用现代化的方法,以及使应用能够通过OpenShift在云中运行、甚至通过OpenShift在本地运行。
Red Hat KubeCon 2024大会
Newcomer表示:“对于SI和咨询公司来说,这是一个巨大的机会,可以帮助客户进行迁移,并帮助负责OpenShift的团队、负责在虚拟机中运行应用的团队,帮助他们适应这种环境,适应它,熟悉它,它确实为组织提供了一条提高应用现代化能力的道路,因为即使他们还没有准备好转向微服务或其他类型的、更现代的应用,他们也可以熟悉环境。”
Red Hat表示,整体销售额中有大约80%来自间接渠道和联盟关系,预计未来12个月内渠道合作伙伴数量将会有所增加。
Red Hat在KubeCon 2024大会上的重磅公告之一,就是OpenShift 4.17全面上市(GA)。据Red Hat称,这个版本改进了虚拟机的安全内存超额订阅,并为用户提供了在虚拟机运行时设备和类别之间进行存储实时迁移的技术预览。
这个技术预览中还包括了命名空间的本机网络隔离和机密计算证明运算符,用于改进数据保护和安全性。
Red Hat还透露,OpenShift Lightspeed AI驱动的虚拟助手现在也已经进入技术预览阶段。
Red Hat OpenShift AI
据称,Red Hat OpenShift AI 2.15将于本月晚些时候全面上市。
OpenShift AI是去年发布的,支持模型开发、训练、服务、自动化、以及其他预测和生成式AI用例,部分更新包括模型注册表的技术预览,用于管理版本、元数据和模型工件以及数据漂移和偏差的检测工具。
Red Hat表示,新的OpenShift AI还支持Nvidia Nim微服务以及AMD的GPU。
Red Hat人工智能产品管理总监Jeff DeMoss在电话会议上补充说,解决方案提供商将会在通过OpenShift AI开发特定领域和行业产品方面有“巨大的机会”。
DeMoss说:“他们可以利用他们在特定领域或行业的知识,而不仅仅是拥有一些通用的用例,他们可以覆盖更多特定垂直行业独有的打包用例和模式。”
Red Hat Device Edge
Red Hat Device Edge 4.17版本包括了新的低延迟和近实时功能,以吸引从自动驾驶汽车到工业环境的各种用例。
Red Hat Edge产品管理高级总监Shobhan Lakkapragada称,边缘是“顾问和全球系统集成商可以发挥重要作用的一个巨大机遇领域,因为我们的SI合作伙伴和MSP甚至可以带来许多行业特定的转型和行业特定的知识”。
Lakkapragada说:“我们非常有兴趣与SI和顾问展开合作,拓展这个新市场。我们在这个领域相对较新,我想说,也才几年的时间。因此,这个领域的很多最终客户都是业务线的决策者,他们看到了IT世界中正在发生的所有变化,他们希望将其带入运营技术中,在帮助最终客户实现这种转变方面,SI将发挥重要的作用。”
Red Hat Developer Hub
Red Hat在其Developer Hub产品中提供了五个专注于常见AI用例的新模板:音频转文本、聊天机器人、代码生成、对象检测和检索增强生成(RAG)聊天机器人。
据Red Hat称,今年推出的Developer Hub平台上有超过20000名开发人员。
Red Hat开发者工具高级总监Balaji Sivasubramanian表示,Developer Hub“对我们的增值或服务合作伙伴来说是一个绝佳的机会”,并且“绝对是一个绝佳的机会”,尤其是在客户采用AI和提高开发人员生产力方面。
“德勤不仅将Developer Hub用于他们的内部用例,也就是内部开发人员本身,而且还向最终客户提供了基于Developer Hub的解决方案,”Sivasubramanian说。
Developer Hub为企业内部的开发人员门户提供了高度定制化,为“这些增值服务、SI合作伙伴提供了巨大的机会,使他们能够接受这些服务,并根据用例进行定制。我看到很多合作伙伴已经等着利用我们的产品并展开营销。”
Neural Magic收购
Red Hat在KubeCon大会期间透露,已经签署协议收购Neural Magic,这是一家位于美国马萨诸塞州萨默维尔的初创公司,为生成式AI推理工作负载提供了软件和算法。
Red Hat对Neural Magic(该公司在2018年从麻省理工学院分拆出来)的吸引力,一部分源自于这家初创公司在vLLM中的领导地位。vLLM是一个用于模型服务的开源项目,支持所有关键模型系列和高级推理加速研究。
vLLM还支持AMD GPU、AWS Neuron、谷歌TPU、英特尔Gaudi、Nvidia GPU和x86 CPU。Red Hat表示,未来还有其他硬件后端。
尽管Red Hat没有透露预计收购何时完成,但预计合作伙伴将会从中受益。
Red Hat在一份声明中表示:“借助Red Hat和Neural Magic,支持通用计算和AI的基础设施合作伙伴将能够更好地跨平台和加速器扩展AI。”
Red Hat补充说:“那些创建有价值的解决方案以帮助应对当今独特业务挑战的ISV合作伙伴,将获得更强大的推理和性能,与自己的产品进行集成,而且OEM合作伙伴将能够利用改进开源基础设施用于生成式AI。”
好文章,需要你的鼓励
这项来自麻省理工和滑铁卢大学的研究质疑了在AI文本排序中"思考过程"的必要性。研究者比较了三种文章重排模型:直接判断的StandardRR、先推理再判断的ReasonRR,以及禁用推理功能的ReasonRR-NoReason。实验结果表明,不仅推理过程没有提高排序质量,有时甚至会降低效果。主要原因是推理导致模型倾向于极端判断,难以表达"部分相关"这种微妙关系。即使应用"自洽性"等改进技术,简单直接的判断方式仍然更为高效有效。研究为信息检索系统设计提供了新视角:有时,少即是多。
TAGS是一种创新的医学问答框架,结合了泛医和专医两种视角,通过层次化检索和不确定性验证机制提升医学AI回答的准确性。该框架由穆罕默德·本·扎耶德人工智能大学等机构的研究团队开发,无需任何模型微调即可显著提升包括GPT-4o和DeepSeek-R1在内的大型语言模型在九个医学问答基准测试上的表现。TAGS通过模拟医疗专家协作、结构化知识检索和质量控制,解决了现有方法在复杂医学推理中的短板,为构建更可靠的医学AI系统提供了新思路。
这篇研究提出了时间抽象值学习(OTA)方法,解决离线目标条件强化学习中的长期规划问题。研究团队发现现有分层方法失败的关键在于高层策略无法生成合适子目标,原因是价值函数在长期规划中估计不准确。OTA通过"选项"概念实现时间抽象,有效缩短规划视野,使价值函数能提供更准确的优势信号。在复杂迷宫导航和视觉机器人操作任务中,OTA显著优于现有方法,证明了该方法在处理长期任务时的有效性。
这项研究探索了大语言模型内部可解释特征的形成过程,分析了它们在训练过程中(时间)、模型层级间(空间)和不同规模模型(尺度)的行为变化。研究团队使用稀疏自编码器技术,成功识别出特定语义概念在神经激活中出现的时间点和位置。研究结果显示,不同领域的知识概念在模型训练和规模扩展中存在明确的激活阈值,且在空间分析中发现了早期层特征会在后期层重新激活的现象,这挑战了对变换器模型表示动态的传统认知。