IBM近日公布了稳健的第二季度财务业绩,超出了分析师的预期水平,而这主要得益于IBM的企业客户增加了AI支出。IBM股价在盘后交易中上涨了约3%。
该季度IBM的每股收益(不包括股票薪酬等某些成本)为2.43美元,远高于分析师普遍预期的每股2.20美元。收入增长2%,至157.7亿美元,轻松超过华尔街预期的156.2亿美元。
总体来看,IBM的净利润为18.3亿美元,高于去年同期的15.8亿美元。
IBM公司首席执行官Arvind Krishna(如图)在一份声明中表示,IBM的生成式AI业务已增长至20多亿美元,这得益于一年前推出的Watsonx开发平台。
Krishna表示:“鉴于我们上半年的业绩,我们上调了全年自由现金流预期,目前预计自由现金流将超过120亿美元。”三个月前,在之前的财报电话会议上,IBM预计到今年年底自由现金流将达到120亿美元左右。“我们对技术支出的宏观前景仍然充满信心,”Krishna在电话会议上向分析师这样表示。
近几个月来,IBM一直专注于扩展Watsonx平台,该平台使企业能够构建和部署AI聊天机器人,以及增强其他AI程序的代码。此外,IBM于最近开源了Granite系列大型语言模型,以推广IBM其他的一些AI服务。
Global X研究分析师Tejas Dessai表示:“生成式AI的商业化正在加速,让IBM等多元化的企业技术公司能够利用日益增长的、AI集成带来的需求。”
Krishna在电话会议上告诉分析师,IBM继续受到高利率和通货膨胀的影响。尽管世界其他地区存在不确定性,但IBM的主要业务部门继续顺利运转。该季度IBM的软件业务收入为67.4亿美元,比去年同期增长7%,高于华尔街预期的64.9亿美元。
其中,Red Hat的增长率为7%,对于这个收购来的软件业务来说,算是一个相对缓慢的季度,而该业务曾经每季度的增长率一直超过20%。不过,Krishna表示,Red Hat该季度的订单量有所增加,这对今年剩余的时间来说是一个好兆头。
IBM的咨询业务收入为51.8亿美元,较去年同期下降1%,略低于华尔街52.3亿美元的目标。与此同时,IBM的基础设施部门(包括IBM标志性的大型计算机)该季度销售额为36.5亿美元,增长0.8%,高于华尔街普遍预期的53.1亿美元。IBM公司首席财务官Jim Kavanaugh在电话会议上表示,当前一代z16大型机的表现仍然优于之前的销售周期。
IBM的软件业务日益重要,多年来IBM从一家传统硬件公司逐渐转变为一家专注于高增长软件和服务公司,如今这一转型达到了顶峰。IBM一直在努力加速这个转型过程,在今年4月宣布计划以64亿美元收购“基础设施即代码”软件巨头HashiCorp。
HashiCorp在上周的更新中透露,监管机构已经要求提供有关计划收购的更多信息。这表明,交易审批流程可能会因监管审查的加强而延迟,尽管目前尚无迹象表明该交易遭到反对。Krishna告诉分析师,他仍然“非常有信心”这次交易能够在今年年底前完成。
该季度IBM还宣布与Palo Alto Networks建立新的合作伙伴关系。IBM表示,这家安全公司将收购IBM的QRadar软件即服务资产,成为IBM在网络、云和安全运营方面的首选网络安全合作伙伴。
在这次股价上涨之前,IBM的股价今年迄今为止已经上涨14%,与更广泛的标准普尔500指数基本一致。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。