至顶网软件频道消息:开源解决方案提供商红帽公司(纽交所代码:RHT)日前公布其2020财年第一季度财报,该报告截止日期为2019年5月31日。(注:红帽2020财年指的是2019年3月1日到2020年2月29日)。
红帽总裁兼首席执行官Jim Whitehurst表示:“我们持续释放开发者和企业的潜力,帮助我们的客户成功构建下一代IT基础架构和应用。企业用户对红帽技术的兴趣非常浓厚,这从我们的年度用户盛会——红帽峰会的参会人数再创新高,达到近9000名这一点就可以看出来。在此次活动中,我们正式推出红帽企业Linux 8和OpenShift 4,再次延续了我们持续实现创新、不断为我们的用户创造商业价值的长久历史。用户们对新品发布非常兴奋,本季度新增90多家OpenShift用户也进一步验证了这一点。”
红帽执行副总裁兼首席财务官Eric Shander表示:“第一季度为2020财年迎来了一个强势的开局,多项财务指标实现了两位数增长,比如按美元计算的总营收与去年同期相比增长15%,按固定汇率计算增长18%;与应用开发以及新兴技术相关的产品订阅收入,以美元计算比去年同期增长24%,以固定汇率计算比去年同期增长29%。我们的大额业务增长势头依然强劲,500万美元以上的交易数量翻了一番,超过100万美元的交易数量与一年前的本季度相比增长了15%。这些交易中有许多都包含新兴技术,其中包括一笔超过500万美元的OpenStack交易,以及一笔超过1500万美元的我们有史以来最大额的存储和超融合交易。红帽广泛性的成功表明,客户可以利用我们的产品组合实现重要价值。”
营收:本季度总营收为9.34亿美元,比去年同期增长15%,按固定汇率计算增长18%。本季度的订阅收入为8.15亿美元,比去年同期增长15%,按固定汇率计算增长18%。本季度的订阅收入占总收入的87%。本季度服务收入为1.19亿美元,比去年同期增长17%,按固定汇率计算增长22%。
订阅收入实现突破:本季度基础架构相关产品的订阅收入为5.8亿美元,比去年同期增长11%,按固定汇率计算增长14%。本季度与应用开发以及新兴技术相关的产品订阅收入为2.35亿美元,比去年同期增长24%,按固定汇率计算增长29%。
营业收入:本季度GAAP营业收入为1.32亿美元,比去年同期增长18%。调整完非现金股票补偿、无形资产摊销及企业合并相关的交易成本支出后,第一季度非GAAP调整后营业收入为2.02亿美元,比去年同期增长20%。第一季度GAAP营业利润率为14.1%,非GAAP调整后营业利润率为21.7%。
净收入:本季度GAAP净收入为1.41亿美元,每股摊薄收益为0.76美元,而去年同期的GAAP净收入为1.13亿美元,每股摊薄收益为0.59美元。本季度的净收入包括1320万美元的净税收收益,主要与实体内部资产转移有关。
在不计入非现金股票补偿、无形资产摊销、与企业合并相关的交易成本以及因债券折扣积累产生的非现金利息支出后,本季度非GAAP调整后净收入为1.86亿美元,每股摊薄收益为1美元,而去年同期非GAAP调整后净收入为1.33亿美元,每股摊薄收益为0.72美元。非GAAP调整后的稀释加权平均流通股没有包含预期会被我们的可转换债券对冲交易抵消的稀释。
现金流:第一季度GAAP运营现金流为4.6亿美元,比去年同期增长33%。非GAAP运营现金流针对我们采用《ASU 2016-15:现金流量表(主题230):某些现金收入和现金支付的分类》规定后所产生的影响进行了调整,该规定要求把在第一季度偿还的可转换票据中可归因于债务折扣的部分归类为运营现金流。非GAAP运营现金流(不包括受影响的约1400万美元)为4.74亿美元,非GAAP运营现金流比去年同期增长37%。截止到2019年5月31日,可转换票据的总还款额为6.15亿美元,剩余本金金额为1.9亿美元。截止到2019年5月31日,红帽持有的现金、现金等价物和投资总额总计为27亿美元。
递延收入:截至第一季度末,红帽递延收入总额为28亿美元,比去年同期增长14%。外汇汇率变化对递延收入总额的负面影响为5700万美元。按固定汇率计算,递延收入总额比去年同期增长17%。
由于与国际商业机器公司(IBM)之间的未决交易,红帽公司将不会举行2020财年第一季度业绩电话会议,并且不会提供其2020财年展望。
好文章,需要你的鼓励
苏州大学研究团队提出"语境降噪训练"新方法,通过"综合梯度分数"识别长文本中的关键信息,在训练时强化重要内容、抑制干扰噪音。该技术让80亿参数的开源模型在长文本任务上达到GPT-4o水平,训练效率比传统方法高出40多倍。研究解决了AI处理长文档时容易被无关信息干扰的核心问题,为文档分析、法律研究等应用提供重要突破。
在Cloudera的“价值观”中,企业智能化的根基可以被概括为两个字:“源”与“治”——让数据有源,智能可治。
清华大学团队首次揭示了困扰AI训练领域超过两年的"幽灵故障"根本原因:Flash Attention在BF16精度下训练时会因数字舍入偏差与低秩矩阵结构的交互作用导致训练崩溃。研究团队通过深入分析发现问题源于注意力权重为1时的系统性舍入误差累积,并提出了动态最大值调整的解决方案,成功稳定了训练过程。这项研究不仅解决了实际工程问题,更为分析类似数值稳定性挑战提供了重要方法论。