数据库厂商Oracle近日发布财报,因其销售额未达预期且给出的收入指引低于分析师的预期,使得股价在盘后交易中遭受重挫。
2024财年第一季度Oracle公布的净利润为24.2亿美元,高于上年同期的15.5亿美元,不计入股票补偿等特定成本之前的盈利为每股1.19美元,高于华尔街预期的每股1.15美元。
然而,较高的盈利能力未能减轻Oracle营收未达预期所带来的打击。Oracle公司报告称,该季度总销售额为124.5亿美元,低于市场普遍预期的124.7亿美元。
第二季度也不太可能有任何好转,Oracle公司预计每股收益在1.30美元至1.34美元之间,而收入增长为5%至7%,分析师预期的第二季度每股收益为1.33美元,销售额为132.8亿美元,收入增长8%。
Oracle股价在盘后交易中下跌超过8%,抵消了在常规交易时段的小幅涨幅。
收入低于预期的一个可能原因是Oracle对电子医疗记录公司Cerner的持续整合。此前Oracle在2022年6月完成了对Cerner的282亿美元收购,并表示,正在将业务整合到Oracle的云基础设施中。
Oracle公司首席执行官Safra Catz(如图)在电话会议上表示,Cerner向Oracle云的加速过渡导致收入增长放缓。她解释说:“随着客户从预先认可的许可购买转向按比例认可的云订阅模式,这种转变会给Cerner的增长带来一些短期阻力。”
然而,云是Oracle最大的亮点。该季度Oracle的云基础设施收入为15亿美元,同比增长66%。Catz表示,这比超大规模云基础设施业务的竞争对手要快得多。
不过她没有说的是,这比上一季度报告的76%的增幅要慢一些。目前,Oracle的云基础设施业务仍然比竞争对手AWS、微软和谷歌要小得多。
Catz表示:“该季度云服务总收入、基础设施以及应用增长了30%,达到46亿美元。Oracle Cloud Services加上许可支持收入目前占到Oracle总收入的77%。这种高度可预测的、高利润的经常性收入流推动了第一季度非GAAP每股收益增长16%,自由现金流增长21%,运营现金流增长70亿美元。”
Oracle该季度云服务和许可支持总收入为95.5亿美元,同比增长13%,高于华尔街普遍预期的94.4亿美元。但在这个细分市场中,云许可和本地许可收入下降了10%,为8.09亿美元,略低于华尔街预期的8.927亿美元。
硬件收入再次令人感到失望,同比下降6%至7.14亿美元,此前分析师预期的是7.396亿美元。
Oracle公司创始人、董事长兼首席技术官Larry Ellison竭尽全力激起人们对于在蓬勃发展的人工智能行业中Oracle前景的兴奋情绪。该季度,Oracle宣布与Cohere建立战略合作伙伴关系,Cohere是一家生成式AI初创公司,其聊天机器人可以和OpenAI和ChatGPT展开竞争。
Cohere将在Oracle的云基础设施上训练、构建和部署其生成式AI模型。Oracle当时表示,客户将能够根据自己的数据定制和训练Cohere模型,以实现业务流程自动化、改进决策并增强客户体验。
Ellison表示,Oracle正在人工智能行业建立更多合作伙伴关系,这位科技行业资深人士表示:“截至今天,多家AI开发公司已经签署合同,购买超过40亿美元的Oracle Gen2 云容量,这是我们第四季度末预订量的2倍。”
他还在电话会议上透露,Elon Musk最近公布的初创公司xAI将采用Oracle的云服务。这一举动并不令人意外,因为Ellison持有特斯拉公司的股票,并且在2022年8月之前一直担任董事会成员。
在这次股价下跌之前,今年迄今为止Oracle的股价已经上涨了55%,远远领先于同期仅上涨17%的标普500指数。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。