ZD至顶网软件频道消息: 红帽在过去6个季度里每个季度的增长均达18%至22%,这引起了行业内的关注,业界人士均认为,这样的情况并不常见。但红帽确实是面临了这样一个怪象。据悉,红帽发布了第2季度的预计报告,增长强劲,完成了价值超过100万美元的55笔交易。但业界却普遍担心红帽能否跨越公有云的障碍,担心企业不用内部数据中心而迁移到公有云里后红帽的收入将流失。而这些担忧导致红帽一年来股价表现平平。
问题的症结在于,红帽习惯性地将自己的软件描述成混合云软件,特别是涉及到红帽企业Linux、OpenShift和红帽做的OpenStack工作时是这样。混合云这个术语,传统厂商在试图向用户推销更多的数据中心设备和软件时用常常用到。而红帽的混合云对于用户来说是不同的,此为实质所在。
记者在红帽财报电话会议向红帽首席执行官Jim Whitehurst提到公有云的蚕食问题。他解释了红帽在多个云里运行和在服务器运行的方式是一样的。Whitehurst 在接受记者采访时表示,“业界对公共云有疑虑,不知道公共云对红帽是好事还是坏事,这一点是毫无疑问的。对有些人来说,向公有云迁移意味着红帽成了传统系统。”
而实质上公共云部署并不一定会对红帽不利,红帽可以在大多数公共云里运行,包括微软Azure。Whitehurst 表示,“我们在惠普和戴尔的服务器运行红帽,价值主张是一样的。而现在我们不再绑定硬件,客户买了红帽订阅的话,在什么地方运行对我们来说都是一样的。”
事实上,公共云甚至可能有助于红帽。甲骨文首席技术官Larry Ellison发了一通对亚马逊网络服务(AWS)不满的牢骚。 Ellison牢骚的两个要点:
• 如果Ellison这么痛恨AWS,即是说AWS肯定是从甲骨文那挖走了一些数据库工作负载。
• Ellison说AWS搞锁定说到了点子上。
大企业知道被云服务提供商锁定是有风险的。这些高科技领导者可能也会觉得Ellison如此发AWS的牢骚有些滑稽,原因是甲骨文也尝过锁定的一些甜头,这是大家都知道的事。
用户既然用了专有API的云堆栈就会有某种形式的锁定风险。这也是为什么OpenStack受欢迎和成了一种新潮的原因。
Whitehurst 表示,“我们现在可以看出,大客户了解到能在各种地方运行是有价值的。这些客户希望存在一个标准的操作环境,他们希望迁移到云里去时能带上Linux。”
那些担心红帽的人大可能提出,公共云之举意味着AWS将挖走Linux业务。不一定。Whitehurst 提出,“迁移到公共云的人越多,我们就越重要。假如用户迁到亚马逊云里,那他就要确保自己的架构不被锁定,大企业都受够了锁定的困扰。”
换句话说,红帽就是防锁定的抽象层。诸如红帽的OpenShift一类的工具可以将工作负载迁移到不同的地方。
有人可能会问,如果AWS威胁到红帽又将如何?Whitehurst觉得没有关系。他提到,在私有云和数据中心的世界里,一半的基础架构是在Windows上运行。 “Windows那一半不属于我的,以后我也拿不到,我宁愿与AWS上的Linux对抗。”
好文章,需要你的鼓励
这项由加州大学圣地亚哥分校和微软研究院合作开发的REAL框架,通过程序分析反馈训练大型语言模型生成高质量代码。与传统方法不同,REAL采用强化学习将代码安全性和可维护性作为奖励信号,不依赖人工标注或特定规则。研究在多个数据集上的实验表明,REAL在保证功能正确性的同时显著提高了代码质量,有效解决了"即兴编程"中的安全漏洞和维护性问题,为AI辅助编程提供了新的范式。
加州大学伯克利分校与Meta FAIR研究团队开发了"Self-Challenging"框架,让大语言模型通过自己创建和解决任务来提升能力。该方法引入创新的"Code-as-Task"格式,包含指令、验证函数、示例解决方案和失败案例,确保生成的任务既可行又有挑战性。在工具计算、网页浏览、零售服务和航班预订四种环境测试中,仅使用自生成训练数据,Llama-3.1-8B模型性能提升了两倍多,证明AI可以通过自我挑战实现有效学习,减少对人类标注的依赖。
南洋理工大学与SenseTime Research合作提出了PoseFuse3D-KI,一种创新的人体中心关键帧插值框架。该方法将3D人体模型信息融入扩散过程,解决了现有技术在处理复杂人体动作时产生扭曲结果的问题。研究团队开发了专门的SMPL-X编码器直接从3D空间提取几何信息,并设计了融合网络将3D线索与2D姿态无缝整合。他们还构建了CHKI-Video数据集,包含2,614个视频片段及完整的人体标注。实验结果显示,PoseFuse3D-KI在PSNR上提升9%,LPIPS减少38%,显著超越现有方法。
这项研究提出了LongGuide算法,解决了大型语言模型在长文本生成任务中的局限性。研究团队发现,仅依靠上下文学习无法使模型充分掌握文本的语言和格式特性。LongGuide通过自动生成两种指导原则:度量指导原则和输出约束指导原则,显著提升了模型性能。在七种长文本生成任务中,该方法使开源和闭源模型的ROUGE-L评分平均提高约6%。LongGuide具有通用性强、易于学习、成本效益高等优点,为提升AI长文本生成能力提供了新方向。