IBM近日发布第三季度财报,结果略高于分析师预期,使得股价在盘后交易时段上涨了1%。
该季度IBM在不计入股票补偿等特定成本的收益为每股2.20美金,高于每股2.13美金的预期,收入较去年同期增长5%,达到147.5亿美元,也高于市场普遍预期的147.3亿美金。
IBM在该季度的净利润为17亿美金,去年同期因59亿美金养老金结算费用而亏损32亿美金,之后扭亏为盈。
该季度表现最好的是软件业务部门,该部门实现了62.7亿美金的收入,同比增长8%,符合分析师的普遍预期。IBM基础设施部门(包括大型机)收入较去年同期下降2%,为32.7亿美金,但这一数字明显高于分析师预测的31亿美金。咨询业务部门销售额为49.6亿美金,同比增长6%,但低于市场预期的51.1亿美金。
IBM首席执行官Arvind Krishna(如图)表示,客户对IBM watsonx人工智能和数据平台及其混合云平台表示非常赞赏,因为他们希望能够提高生产力。他表示:“这有助于推动我们的软件和咨询业务的稳健增长。因此,我们对全年的收入和自由现金流预期仍然充满信心。”
IBM在咨询领域的失误并不完全令人震惊,因为IBM在咨询领域的主要竞争对手之一埃森哲公司上个月表示,最近一个季度来自通信、媒体和技术客户的收入下降了12%。
IBM首席财务官Jim Kavanaugh在接受采访时表示,尽管未能符合预期,但IBM的咨询业务正在从竞争对手手中夺取市场份额。IBM最近加大了在咨询领域的力度,宣布在该季度与微软和AWS建立新的合作伙伴关系,重点关注生成式AI,IBM还承诺提供专业知识帮助云客户定义和实施利用生成式AI功能的策略。
即便如此,Kavanaugh表示,许多客户仍然关注降低成本,这给咨询项目带来了压力。
AI即使不是一鸣惊人,总体上仍然是一个充满希望的赌注。IBM软件业务中来自数据和AI的收入同比增长了6%。Pund-IT分析师Charles King指出,Krishna在电话会议中表示,第三季度生成式AI预订量“只有数亿美金”,并表示,明年收入运行率约为10亿美金。他说:“考虑到许多其他厂商才刚刚开始他们的生成式AI之旅,这是一个重要的里程碑。”
King还感兴趣的是,尽管硬件销量整体下降,但IBM旗舰的Z大型机销量仍增长了9%。他表示,由于大型机销售周期性的因素,这一结果令人感到惊讶。他说:“一些报告将此归因于传统交易工作负载的增长,但我想知道,IBM把IBM Z和LinuxOne定位于其他关键业务应用和安全流程的战略是否正在带来红利。”
Constellation Research分析师Holger Mueller表示,IBM的表现很好,达到了预期,但投资者最担心的是增长率仍处于个位数。Mueller表示:“未来几个季度,这一数字可能会有所回升,但也可能会进一步下滑。这可不好,因为投资者希望看到更大的缓冲,这样就不会导致收入萎缩。一大亮点是watsonx平台所表现出的强大吸引力。对AI和相关服务的需求对IBM来说是有利的,并且2024年估计还会继续如此。”
展望下一季度,IBM管理层重申了全年指引,称收入增长预计在3%至5%之间,自由现金流约为105亿美金,与之前的预测一致。
该季度IBM公布了在AI领域取得的多项进展,包括发布了watsonx平台上的Granite系列硬件高效型生成式AI模型,该模型可以执行总结文档、洞察提取和文本生成等任务。此外,IBM还宣布将在watsonx.ai studio上托管Meta Platforms开源的Llama 2,一个包含有700亿参数的大型语言模型,并为IBM大型机推出生成式AI代码助手。
IBM该季度还斥资46亿美金收购了Apptio,一家基于AI的云成本管理工具提供商。
IBM股价今年迄今为止下跌了约2%,落后于更广泛的标准普尔500指数,该指数今年上涨了9%。
好文章,需要你的鼓励
三星与AI搜索引擎Perplexity合作,将其应用引入智能电视。2025年三星电视用户可立即使用,2024和2023年款设备将通过系统更新获得支持。用户可通过打字或语音提问,Perplexity还为用户提供12个月免费Pro订阅。尽管面临版权争议,这一合作仍引发关注。
浙江大学团队提出动态专家搜索方法,让AI能根据不同问题灵活调整内部专家配置。该方法在数学、编程等任务上显著提升推理准确率,且不增加计算成本。研究发现不同类型问题偏爱不同专家配置,为AI推理优化开辟新路径。
苹果M5 MacBook Pro评测显示这是一次相对较小的升级。最大变化是M5芯片,CPU性能比M4提升约9%,多核性能比M4 MacBook Air快19%,GPU性能提升37%。功耗可能有所增加但电池续航保持24小时。评测者认为该产品不适合M4用户升级,但对使用older型号用户仍是强有力选择。
清华大学研究团队提出SIRI方法,通过"压缩-扩张"交替训练策略,成功解决了大型推理模型"话多且准确率低"的问题。实验显示,该方法在数学竞赛题上将模型准确率提升43.2%的同时,输出长度减少46.9%,真正实现了效率与性能的双重优化,为AI模型训练提供了新思路。