这也许是Red Hat作为一家独立实体最后一次发布财报了。这家开源软件厂商在2020财年第一季度的收入和收益都超出了预期。收入增长近15%,达到9.341亿美元,比预期高出约250万美元,每股1美元的收益比预期高出14美分。
Red Hat表示,该季度与应用开发工具和新兴技术相关的订阅收入增长了29%,达到2.35亿美元,培训和服务收入增长22%,达到1.19亿美元,这反映了Red Hat不断努力实现收入来源和类型的多样化。Red Hat核心的基础设施软件相关销售额增长14%,达到5.8亿美元。
“我们的大型交易增长势头依然强劲,数量翻了一番超过500万美元,比去年同期规模超过100万美元的交易数量增加了15%,” Red Hat首席财务官Eric Shander在声明中这样表示。
Red Hat并没有按产品类别划分收入,但Shander表示,该季度的新业务包括一笔500多万美元的OpenStack云计算平台销售订单,以及一笔1500多万美元的存储和超融合订单。而且该季度的营业现金流量同比增长37%,达到4.74亿美元,显示出Red Hat核心业务的实力。
从股票市场来说,这个结果很大程度是理论意义上的,因为今年下半年Red Hat将被IBM以340亿美元收购。因为目前这一收购还未完成,因此Red Hat并没有公布收益指引,也没有召开常规的分析师电话会议。
Red Hat股票在盘后交易中小幅上涨25%,但这支股票已经在小幅交易区间内保持了三个多月的时间。路透社早些时候报道称,欧盟即将公布的无条件批准将给IBM收购Red Hat带来利好。
鉴于Red Hat在过去九个月中的表现有些不稳定,因此这一结果应该会让IBM高管感到些许宽慰。IBM在2019财年第四季度和第二季度均未达到分析师预期,第三季度好于预期。
分析师更关注接下来Red Hat将会给IBM带来怎样的贡献,因为IBM已经表示Red Hat将主导其多元化战略。研究公司Wikibon分析师James Kobielus认为:“Red Hat将成为IBM在混合云和多云领域占据主导地位的主要力量。”
虽然Red Hat以Red Hat Enterprise Linux产品而闻名,但最近Red Hat在云基础设施的其他领域成功实现了多元化,包括OpenShift容器编排平台、基于Knative的无服务器计算、基于Istio的网格计算等。
Kobielus表示,“Red Hat最近宣布将OpenShift作为微软Azure上一项联合管理企业级容器编排服务,标志着Red Hat和IBM对真正平台无关的多云所做出的承诺。此外与虚拟化巨头VMware达成的类似协议表明,他们承诺让共同客户不必进行大量的定制集成工作。”
市场研究公司Pund-IT分析师Charles King表示认同,并指出20多年前IBM曾经是推动开源软件的领导者,并且一直保持着对各种开源平台的支持。King表示,“Red Hat作为企业Linux首选解决方案的这一领导地位,让Red Hat成为IBM的一个理想选择。再加上开源在新兴工作负载、现代应用和其他大型IT项目中日益增长的重要性,收购Red Hat对IBM来说意义重大。”
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。