至顶网软件频道消息:红帽股票在盘后交易中大幅跳水,此前红帽公布的收入预期低于分析师的预期。
刚刚结束的这个季度,红帽的表现超过了分析师的预期,每股盈利72美分,好于市场普遍预期的68美分。收入增长20%,达到8.14亿美元,连续第四个季度增长20%或更高,同时也高于预期。
然而令人吃惊的是,相比上一季度预测的34.25亿美元至33.35亿美元,全年收入预计减少5000万美元。红帽将其归咎于今年秋季的货币汇率,并重申早前预测今年收入增长16%至17%,但投资者猛烈抨击该股,使其在盘后交易中下跌超过10%。
投资者还关注第一季度的7.09亿美元的帐单,也低于此前普遍预期的7.25亿美元。此前红帽发布的第二季度预测报告,称每股收益可能为81美分,略高于去年同期的77美分,但远低于市场普遍预期的89美分。
红帽试图通过宣布计划回购价值10亿美元的股票来缓解这一坏消息,并称其长期前景依然强劲。红帽首席财务官Eric Shander说:“没有任何迹象表明红帽 Enterprise Linux业务整体放缓。”
Pund-IT总裁兼首席分析师Charles King表示,投资者们似乎受到最近Raymond James报告的影响。该报告称,随着客户越来越多地转向基于云的服务和容器,他们可能会推迟采购红帽传统的中间件解决方案。红帽显然是云计算和容器领域的一个重要参与者,但问题是红帽如何有效地维持与现有客户的关系,同时寻求新的收入机会。”
红帽高管也许不会反驳King的分析。Shander表示,客户向容器技术的迁移要比预期得快,这给红帽短期业务造成了一定的压力。容器是轻量级的虚拟机,可以在多个平台之间轻松部署和移动,从而避免使用某些基础设施软件。
尽管短期内收入受到冲击,但红帽一直在鼓励这种转变。Shander说:“这不是收入上的损失,这是一个暂停,因为客户要考虑如何将他们的环境容器化。这是重大的技术决策。随着客户将更多的应用转移到容器,这将有利于中间件和红帽整体的业绩表现。”
实际上红帽第一季度的表现相当不错,按固定汇率调整后收入增长70%,营业收入增长19%,现金流增长34%。然而,红帽首席执行长Jim Whitehurst表示,红帽在2017年与多家企业客户签署了大单,这从当前季度转移了部分资金,从而减少了收入。
为了证明红帽所具有的弹性,他表示,本季度规模100万美元的交易数量增长了48%,并且有超过100个新客户签署了OpenShift平台即服务,这项业务也被红帽视为未来增长的一个重要引擎。Whitehurst表示,服务收入增长了25%,主要原因在于OpenShift的接受度有所增加。
然而,也有放缓的迹象。红帽核心基础设施相关产品的订购收入仅增长11%,达到5.22亿美元,这在一定程度上抵消了应用开发服务订阅37%的增长。应收账款减少38%,表明公司的管道可能正在减少。
然而Shander将这一下降归因于从第四季度到第一季度收款的一次性转变。他还表示,业务预计在下一季度后将回暖。“进入下半年我们将看到收入继续增长。”
King对于红帽长期前景强劲的说法也表示认同。“云计算迁移和容器化等技术正在影响各种IT厂商。总的来说,红帽似乎可以很好地摆脱这些变化带来的影响,最终比其他许多面临相同挑战的厂商更加繁荣发展。”
好文章,需要你的鼓励
微软宣布结束噪声量子机器时代,专注构建容错量子计算机与AI和高性能计算集成。公司推出Majorana 1芯片,采用分割电子形成天然抗噪声的量子比特技术。微软将量子处理器视为经典计算的加速器,通过AI简化量子编程,让用户用自然语言设计量子电路。Azure Quantum平台支持多种量子技术,应用涵盖化学、制药、金融等领域,并推进后量子密码学保护数据安全。
台湾大学联合MediaTek和Nvidia的研究团队开发了一种突破性的语音识别自我改进框架,无需大量人工标注数据即可显著提升AI语音识别准确率。该方法通过让AI生成伪标签训练语音合成系统,再用合成语音反向训练识别模型,形成自我强化循环。在台湾国语测试中,新模型Twister比原版Whisper错误率降低20-55%,数据效率提升10倍以上,为低资源语言AI应用提供了新路径。
在圣地亚哥举办的思科大会上,这家IT基础设施巨头展示了其在网络、网络安全和可观测性产品组合中深度集成智能AI的发展成果,重点关注客户体验提升。会议发布了AgenticOps平台作为AI基础设施的核心,包含AI Canvas管理控制台和深度网络模型,旨在简化网络和安全运营。此外还宣布了智能交换机产品线扩展、思科实时保护安全功能、统一架构体验等多项创新。思科正通过平台化策略构建完整的AI技术栈,为企业提供计算、网络和安全一体化解决方案。
微信AI团队发现当前先进的搜索系统存在"粒度困境":虽能处理复杂任务,但在简单的细节识别上却常出错。研究团队构建了专门测试平台,发现无论大小模型都在基础搜索任务上表现不佳。他们提出了新的训练方法,让小模型超越大模型,但同时发现了新挑战:过度关注细节会损害整体理解能力。