数据库厂商Oracle近日发布财报,因其销售额未达预期且给出的收入指引低于分析师的预期,使得股价在盘后交易中遭受重挫。
2024财年第一季度Oracle公布的净利润为24.2亿美元,高于上年同期的15.5亿美元,不计入股票补偿等特定成本之前的盈利为每股1.19美元,高于华尔街预期的每股1.15美元。
然而,较高的盈利能力未能减轻Oracle营收未达预期所带来的打击。Oracle公司报告称,该季度总销售额为124.5亿美元,低于市场普遍预期的124.7亿美元。
第二季度也不太可能有任何好转,Oracle公司预计每股收益在1.30美元至1.34美元之间,而收入增长为5%至7%,分析师预期的第二季度每股收益为1.33美元,销售额为132.8亿美元,收入增长8%。
Oracle股价在盘后交易中下跌超过8%,抵消了在常规交易时段的小幅涨幅。
收入低于预期的一个可能原因是Oracle对电子医疗记录公司Cerner的持续整合。此前Oracle在2022年6月完成了对Cerner的282亿美元收购,并表示,正在将业务整合到Oracle的云基础设施中。
Oracle公司首席执行官Safra Catz(如图)在电话会议上表示,Cerner向Oracle云的加速过渡导致收入增长放缓。她解释说:“随着客户从预先认可的许可购买转向按比例认可的云订阅模式,这种转变会给Cerner的增长带来一些短期阻力。”
然而,云是Oracle最大的亮点。该季度Oracle的云基础设施收入为15亿美元,同比增长66%。Catz表示,这比超大规模云基础设施业务的竞争对手要快得多。
不过她没有说的是,这比上一季度报告的76%的增幅要慢一些。目前,Oracle的云基础设施业务仍然比竞争对手AWS、微软和谷歌要小得多。
Catz表示:“该季度云服务总收入、基础设施以及应用增长了30%,达到46亿美元。Oracle Cloud Services加上许可支持收入目前占到Oracle总收入的77%。这种高度可预测的、高利润的经常性收入流推动了第一季度非GAAP每股收益增长16%,自由现金流增长21%,运营现金流增长70亿美元。”
Oracle该季度云服务和许可支持总收入为95.5亿美元,同比增长13%,高于华尔街普遍预期的94.4亿美元。但在这个细分市场中,云许可和本地许可收入下降了10%,为8.09亿美元,略低于华尔街预期的8.927亿美元。
硬件收入再次令人感到失望,同比下降6%至7.14亿美元,此前分析师预期的是7.396亿美元。
Oracle公司创始人、董事长兼首席技术官Larry Ellison竭尽全力激起人们对于在蓬勃发展的人工智能行业中Oracle前景的兴奋情绪。该季度,Oracle宣布与Cohere建立战略合作伙伴关系,Cohere是一家生成式AI初创公司,其聊天机器人可以和OpenAI和ChatGPT展开竞争。
Cohere将在Oracle的云基础设施上训练、构建和部署其生成式AI模型。Oracle当时表示,客户将能够根据自己的数据定制和训练Cohere模型,以实现业务流程自动化、改进决策并增强客户体验。
Ellison表示,Oracle正在人工智能行业建立更多合作伙伴关系,这位科技行业资深人士表示:“截至今天,多家AI开发公司已经签署合同,购买超过40亿美元的Oracle Gen2 云容量,这是我们第四季度末预订量的2倍。”
他还在电话会议上透露,Elon Musk最近公布的初创公司xAI将采用Oracle的云服务。这一举动并不令人意外,因为Ellison持有特斯拉公司的股票,并且在2022年8月之前一直担任董事会成员。
在这次股价下跌之前,今年迄今为止Oracle的股价已经上涨了55%,远远领先于同期仅上涨17%的标普500指数。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
Google DeepMind团队发布了EmbeddingGemma,这是一个仅有3.08亿参数的轻量级文本理解模型,却能达到7亿参数模型的性能水平。该模型在权威的多语言文本嵌入基准测试中排名第一,支持250多种语言,特别适合移动设备部署。研究团队通过创新的编码器-解码器初始化、三重损失函数训练和模型融合技术,实现了性能与效率的完美平衡,为AI技术普及化开辟了新路径。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
日本奈良先端科学技术大学等机构首次深入研究AI编程工具Claude Code在真实开源项目中的表现。通过分析567个代码贡献,发现83.8%被成功接受,54.9%无需修改直接使用。AI擅长重构、测试和文档工作,但需要人工修正bug处理、代码风格等问题。研究揭示了AI编程工具的实际能力边界和改进方向。