至顶网软件频道消息:开源解决方案提供商红帽公司(纽交所代码:RHT)日前公布其2020财年第一季度财报,该报告截止日期为2019年5月31日。(注:红帽2020财年指的是2019年3月1日到2020年2月29日)。
红帽总裁兼首席执行官Jim Whitehurst表示:“我们持续释放开发者和企业的潜力,帮助我们的客户成功构建下一代IT基础架构和应用。企业用户对红帽技术的兴趣非常浓厚,这从我们的年度用户盛会——红帽峰会的参会人数再创新高,达到近9000名这一点就可以看出来。在此次活动中,我们正式推出红帽企业Linux 8和OpenShift 4,再次延续了我们持续实现创新、不断为我们的用户创造商业价值的长久历史。用户们对新品发布非常兴奋,本季度新增90多家OpenShift用户也进一步验证了这一点。”
红帽执行副总裁兼首席财务官Eric Shander表示:“第一季度为2020财年迎来了一个强势的开局,多项财务指标实现了两位数增长,比如按美元计算的总营收与去年同期相比增长15%,按固定汇率计算增长18%;与应用开发以及新兴技术相关的产品订阅收入,以美元计算比去年同期增长24%,以固定汇率计算比去年同期增长29%。我们的大额业务增长势头依然强劲,500万美元以上的交易数量翻了一番,超过100万美元的交易数量与一年前的本季度相比增长了15%。这些交易中有许多都包含新兴技术,其中包括一笔超过500万美元的OpenStack交易,以及一笔超过1500万美元的我们有史以来最大额的存储和超融合交易。红帽广泛性的成功表明,客户可以利用我们的产品组合实现重要价值。”
营收:本季度总营收为9.34亿美元,比去年同期增长15%,按固定汇率计算增长18%。本季度的订阅收入为8.15亿美元,比去年同期增长15%,按固定汇率计算增长18%。本季度的订阅收入占总收入的87%。本季度服务收入为1.19亿美元,比去年同期增长17%,按固定汇率计算增长22%。
订阅收入实现突破:本季度基础架构相关产品的订阅收入为5.8亿美元,比去年同期增长11%,按固定汇率计算增长14%。本季度与应用开发以及新兴技术相关的产品订阅收入为2.35亿美元,比去年同期增长24%,按固定汇率计算增长29%。
营业收入:本季度GAAP营业收入为1.32亿美元,比去年同期增长18%。调整完非现金股票补偿、无形资产摊销及企业合并相关的交易成本支出后,第一季度非GAAP调整后营业收入为2.02亿美元,比去年同期增长20%。第一季度GAAP营业利润率为14.1%,非GAAP调整后营业利润率为21.7%。
净收入:本季度GAAP净收入为1.41亿美元,每股摊薄收益为0.76美元,而去年同期的GAAP净收入为1.13亿美元,每股摊薄收益为0.59美元。本季度的净收入包括1320万美元的净税收收益,主要与实体内部资产转移有关。
在不计入非现金股票补偿、无形资产摊销、与企业合并相关的交易成本以及因债券折扣积累产生的非现金利息支出后,本季度非GAAP调整后净收入为1.86亿美元,每股摊薄收益为1美元,而去年同期非GAAP调整后净收入为1.33亿美元,每股摊薄收益为0.72美元。非GAAP调整后的稀释加权平均流通股没有包含预期会被我们的可转换债券对冲交易抵消的稀释。
现金流:第一季度GAAP运营现金流为4.6亿美元,比去年同期增长33%。非GAAP运营现金流针对我们采用《ASU 2016-15:现金流量表(主题230):某些现金收入和现金支付的分类》规定后所产生的影响进行了调整,该规定要求把在第一季度偿还的可转换票据中可归因于债务折扣的部分归类为运营现金流。非GAAP运营现金流(不包括受影响的约1400万美元)为4.74亿美元,非GAAP运营现金流比去年同期增长37%。截止到2019年5月31日,可转换票据的总还款额为6.15亿美元,剩余本金金额为1.9亿美元。截止到2019年5月31日,红帽持有的现金、现金等价物和投资总额总计为27亿美元。
递延收入:截至第一季度末,红帽递延收入总额为28亿美元,比去年同期增长14%。外汇汇率变化对递延收入总额的负面影响为5700万美元。按固定汇率计算,递延收入总额比去年同期增长17%。
由于与国际商业机器公司(IBM)之间的未决交易,红帽公司将不会举行2020财年第一季度业绩电话会议,并且不会提供其2020财年展望。
好文章,需要你的鼓励
这项研究针对现代文档检索系统中的关键缺陷:独立处理文档片段导致丢失上下文信息。研究团队开发了ConTEB基准测试来评估模型利用文档级上下文的能力,并提出了InSeNT方法,结合后期分块和创新的对比学习策略。实验表明,上下文感知嵌入显著提升检索性能,尤其在处理非自包含文本片段时,同时保持计算效率,对分块策略更具鲁棒性,并且在语料库规模扩大时表现更佳。这一研究为更智能的文档检索系统铺平了道路。
这项由布朗大学和Cohere实验室研究者联合进行的研究全面分析了大型语言模型(LLM)安全研究中的语言不平等现象。通过系统回顾近300篇2020-2024年间的安全相关论文,研究发现LLM安全研究严重偏向英语,即使中文这样的高资源语言也仅获得英语十分之一的研究关注,且这一差距正在扩大。研究还揭示非英语语言很少作为独立研究对象,且英语安全研究常忽略语言覆盖文档化。为解决这一问题,研究者提出了三个未来方向:开发文化敏感的评估基准、创建多语言安全训练数据,以及深入理解跨语言安全泛化挑战。
这项研究提出了ChARM,一种创新的角色扮演AI奖励建模框架,通过行为自适应边界和自我进化策略大幅提升AI角色的真实性和一致性。研究团队创建了包含1,108个角色的RoleplayPref数据集,实验表明ChARM比传统模型提高了13%的偏好排名准确率,应用于DPO技术后在多项基准测试中达到了领先水平。这一突破将为娱乐、教育和心理健康支持等领域带来更加自然、个性化的AI互动体验。
这篇研究重新审视了循环神经网络中的双线性状态转换机制,挑战了传统观点。高通AI研究团队证明,隐藏单元不仅是被动记忆存储,更是网络计算的积极参与者。研究建立了一个从实数对角线到完全双线性的模型层级,对应不同复杂度的状态跟踪任务。实验表明,双线性RNN能有效学习各种状态跟踪任务,甚至只需极少量训练数据。研究还发现,纯乘法交互比加法交互更有利于状态跟踪,为循环网络设计提供了新视角。