IBM正在向私募股权公司Francisco Partners出售旗下Watson Health业务的软件产品等资产。
就在一年之前,首次有报道称IBM正在考虑出售Watson Health业务。去年2月,《华尔街日报》报道称,IBM高管们曾一度考虑通过与一家空白支票公司的合并将该部门上市。
当时《华尔街日报》报道称,Watson Health的年收入约为10亿美元,而且当时尚未实现盈利。Axios本月早些时候发布的一份最新报告援引消息人士的话说,IBM正试图为该业务部门获得至少10亿美元的资金。
此次公告中IBM和Francisco Partners都没有披露交易的财务条款,但是详细说明了将有哪些资产被易手。
Francisco Partners将收购Watson Health部门的Health Insights平台,该平台可帮助医疗组织分析他们运营过程中所生成的数据。这家私募股权公司还收购了许多用于处理医学图像的软件产品以及Clinical Development、Social Program Management和Micromedex产品线。
Francisco Partners此次收购的产品并非所有都是软件解决方案,还包括MarketScan——IBM用于研究项目的医疗数据集。
此次出售资产将让IBM能够把更多精力集中于通过在混合云和人工智能领域获得额外市场份额来促进收入增长的战略。此前IBM也有类似举措,去年11月IBM剥离了托管基础设施服务业务,现在该业务已经成为一家名为Kyndryl Holdings的独立公司,在纳斯达克证券交易所上市。
医疗和技术服务市场仍然是IBM关注的焦点,IBM旗下红帽子公司凭借软件产品在医疗领域占有重要地位。在技术服务领域,IBM最近几个季度进行了多次收购,以扩展自己的云咨询服务产品。
IBM Software业务高级副总裁Tom Rosamilia表示:“今天与Francisco Partners达成的协议是我们明确的下一步战略,IBM将更加专注于我们基于平台的混合云和人工智能战略。IBM仍然致力于Watson、更广泛的AI业务、以及我们在医疗IT领域支持的客户和合作伙伴。Francisco Partners则通过此次交易获得了数据和分析资产,受益于不断增强的投资,以及专注于医疗行业的投资组合所带来的专业技能。”
此次交易并不是Francisco Partners第一次从一家大型企业技术厂商那里收购资产。早在2016年,Francisco Partners就与Elliott Management联合收购了戴尔的Quest Software和SonicWall子公司,最近又以54亿美元的价格将Quest Software卖给了另一家投资公司Clearlake Capital Group。
Francisco Partners合伙人Justin Chen表示:“与企业合作进行资产剥离一直是Francisco Partners的核心重点。我们期待为优秀的员工和管理团队提供支持,帮助这家独立的公司专注于增长机会以发挥其全部潜力,为客户和合作伙伴提供更高的价值。”
IBM和Francisco Partners预计将在第二季度完成收购,届时这家私募股权公司将把收购来的Watson Health资产转变为一家独立公司,由现任管理团队领导。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。