IBM与 Red Hat (红帽)共同宣布已达成最终收购协议。根据该协议,IBM 将以每股 190 美元的价格收购 Red Hat 所有已发行的普通股,总收购价值约为 340 亿美元。
这是 IBM 历史上最大规模的一笔交易,也是美国科技界历史上第三大交易。Red Hat 将并入 IBM 的混合云部门,作为一个独立的单元运作。Red Hat CEO吉姆·怀特赫斯特(Jim Whitehurst)将加入 IBM 高管团队,向 IBM CEO 罗睿兰(Ginni Rometty)汇报。
IBM 表示,收购 Red Hat 将使其成为多云和混合云市场的领导者。罗睿兰在声明中表示,“收购 Red Hat 可以打破格局,改变云市场的一切。”
彭博社分析师阿努拉格·拉纳(Anurag Rana)说,收购 Red Hat 使 IBM 成为“现在云计算领域的可靠参与者——无论是私有云还是混合云”。
美国科技媒体 TechCrunch 评论称,这笔交易也许代表着,在花了 10 年时间钻研人工智能和区块链技术之后,IBM 逐渐将工作重心从盈利前景不明朗的沃森(Watson)挪回了以往最擅长的企业服务领域。
沃森机器人自诞生以来一直代表着 IBM 顶尖计算能力和未来感的形象。它能创造菜谱,参加问答比赛,帮人保税,还能做会议记录员、医生助理、博物馆讲解员……但有分析师一直在质疑它能否成为 IBM 可依赖的收入来源。
投资银行 Jefferies 的分析师评论称,IBM 很多金融、生物领域的合作伙伴对沃森的表现并不满意,认为“它的失误不是单一故障的产物,而是过度营销、深度学习能力缺陷和早期训练数据缺失的结果”。
IBM 市值 1140 亿美元,但最近的收益更新中公布的营收低于预期。自罗睿兰在 2012 年担任 CEO 以来,IBM 营收下降了近四分之一。虽然部分原因是资产剥离,但大部分原因是现有硬件、软件和服务产品销售下滑,该公司一直在努力在云基础设施业务上赶上亚马逊和微软。
Red Hat 是美国一家以开发、贩售 Linux 包并提供技术服务为主要业务的企业,其产品包括 Red Hat Enterprise Linux 等。该公司在诸多重要 IT 领域如操作系统、存储、中间件、虚拟化和云计算等提供关键任务的软件与服务,且目前仍是提供 Linux 集成服务的同类企业中规模最大的公司。
1990 年代末期,Linux 以自由软件、开放源代码为号召,试图挑战商业化且闭源的 Windows 操作系统的霸主地位。当时,Red Hat 所推出的 Linux 系统软件集成包 Red Hat Linux 诞生,奠定了其在 Linux 业界的旗手地位。
Red Hat 于 1999 年 8 月 11 日在纳斯达克上市,2005 年 12 月 19 日纳入纳斯达克 100 指数,2006 年 12 月 12 日转到纽约证券交易所挂牌,2009 年 7 月 27 日,Red Hat 取代 CIT 集团成为标准普尔 500 指数成分股。
上一财年 Red Hat 营收为 29.2 亿美元,利润为 2.59 亿美元。2018 财年 Red Hat 营收同比增长了 21%,全年营收有望首次突破 30 亿美元。但与此同时,Red Hat 上季度和本季度的销售额均低于分析师的预期,这加剧了人们的担忧,即 Red Hat 可能会输给竞争对手,增长可能正在放缓。截至上周五,Red Hat 公司股价在过去 6 个月里下跌了 28%。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。