IBM近日公布了稳健的第二季度财务业绩,超出了分析师的预期水平,而这主要得益于IBM的企业客户增加了AI支出。IBM股价在盘后交易中上涨了约3%。
该季度IBM的每股收益(不包括股票薪酬等某些成本)为2.43美元,远高于分析师普遍预期的每股2.20美元。收入增长2%,至157.7亿美元,轻松超过华尔街预期的156.2亿美元。
总体来看,IBM的净利润为18.3亿美元,高于去年同期的15.8亿美元。
IBM公司首席执行官Arvind Krishna(如图)在一份声明中表示,IBM的生成式AI业务已增长至20多亿美元,这得益于一年前推出的Watsonx开发平台。
Krishna表示:“鉴于我们上半年的业绩,我们上调了全年自由现金流预期,目前预计自由现金流将超过120亿美元。”三个月前,在之前的财报电话会议上,IBM预计到今年年底自由现金流将达到120亿美元左右。“我们对技术支出的宏观前景仍然充满信心,”Krishna在电话会议上向分析师这样表示。
近几个月来,IBM一直专注于扩展Watsonx平台,该平台使企业能够构建和部署AI聊天机器人,以及增强其他AI程序的代码。此外,IBM于最近开源了Granite系列大型语言模型,以推广IBM其他的一些AI服务。
Global X研究分析师Tejas Dessai表示:“生成式AI的商业化正在加速,让IBM等多元化的企业技术公司能够利用日益增长的、AI集成带来的需求。”
Krishna在电话会议上告诉分析师,IBM继续受到高利率和通货膨胀的影响。尽管世界其他地区存在不确定性,但IBM的主要业务部门继续顺利运转。该季度IBM的软件业务收入为67.4亿美元,比去年同期增长7%,高于华尔街预期的64.9亿美元。
其中,Red Hat的增长率为7%,对于这个收购来的软件业务来说,算是一个相对缓慢的季度,而该业务曾经每季度的增长率一直超过20%。不过,Krishna表示,Red Hat该季度的订单量有所增加,这对今年剩余的时间来说是一个好兆头。
IBM的咨询业务收入为51.8亿美元,较去年同期下降1%,略低于华尔街52.3亿美元的目标。与此同时,IBM的基础设施部门(包括IBM标志性的大型计算机)该季度销售额为36.5亿美元,增长0.8%,高于华尔街普遍预期的53.1亿美元。IBM公司首席财务官Jim Kavanaugh在电话会议上表示,当前一代z16大型机的表现仍然优于之前的销售周期。
IBM的软件业务日益重要,多年来IBM从一家传统硬件公司逐渐转变为一家专注于高增长软件和服务公司,如今这一转型达到了顶峰。IBM一直在努力加速这个转型过程,在今年4月宣布计划以64亿美元收购“基础设施即代码”软件巨头HashiCorp。
HashiCorp在上周的更新中透露,监管机构已经要求提供有关计划收购的更多信息。这表明,交易审批流程可能会因监管审查的加强而延迟,尽管目前尚无迹象表明该交易遭到反对。Krishna告诉分析师,他仍然“非常有信心”这次交易能够在今年年底前完成。
该季度IBM还宣布与Palo Alto Networks建立新的合作伙伴关系。IBM表示,这家安全公司将收购IBM的QRadar软件即服务资产,成为IBM在网络、云和安全运营方面的首选网络安全合作伙伴。
在这次股价上涨之前,IBM的股价今年迄今为止已经上涨14%,与更广泛的标准普尔500指数基本一致。
好文章,需要你的鼓励
Intuit在ChatGPT发布后匆忙推出的聊天式AI助手遭遇失败,随后公司进行了为期九个月的战略转型。通过观察客户实际工作流程,发现手动转录发票等重复性劳动,决定用AI智能体自动化这些任务而非强加新的聊天行为。公司建立了三大支柱框架:培养构建者文化、高速迭代替代官僚主义、构建GenOS平台引擎。最终推出的QuickBooks支付智能体让小企业平均提前5天收到款项,每月节省12小时工作时间。
希伯来大学研究团队开发出MV-RAG系统,首次解决了AI在生成稀有物品3D模型时的"胡编乱造"问题。该系统像拥有图像记忆库的艺术家,能先搜索相关真实照片再生成准确3D视图。通过独创的混合训练策略和智能自适应机制,MV-RAG在处理罕见概念时性能显著超越现有方法,为游戏开发、影视制作、虚拟现实等领域提供了强大工具。
马斯克旗下xAI公司发布专为开发者设计的新AI模型grok-code-fast-1,主打快速且经济的推理能力。该模型属于Grok 4系列,具备自主处理任务的能力。xAI声称其在SWE-bench评测中解决了70.8%的实际软件问题,表现优于GPT-5和Claude 4。不过模型存在较高的不诚实率问题。用户可通过GitHub Copilot等平台免费试用7天,需要API密钥访问。
MBZUAI等机构研究团队通过一维细胞自动机实验揭示了AI模型多步推理的关键限制:固定深度模型在单步预测上表现优异,但多步推理能力急剧下降。研究发现增加模型深度比宽度更有效,自适应计算时间、强化学习和思维链训练能突破这些限制。这为开发更强推理能力的AI系统提供了重要指导,强调了真正推理与简单记忆的本质区别。