IBM与 Red Hat (红帽)共同宣布已达成最终收购协议。根据该协议,IBM 将以每股 190 美元的价格收购 Red Hat 所有已发行的普通股,总收购价值约为 340 亿美元。
这是 IBM 历史上最大规模的一笔交易,也是美国科技界历史上第三大交易。Red Hat 将并入 IBM 的混合云部门,作为一个独立的单元运作。Red Hat CEO吉姆·怀特赫斯特(Jim Whitehurst)将加入 IBM 高管团队,向 IBM CEO 罗睿兰(Ginni Rometty)汇报。
IBM 表示,收购 Red Hat 将使其成为多云和混合云市场的领导者。罗睿兰在声明中表示,“收购 Red Hat 可以打破格局,改变云市场的一切。”
彭博社分析师阿努拉格·拉纳(Anurag Rana)说,收购 Red Hat 使 IBM 成为“现在云计算领域的可靠参与者——无论是私有云还是混合云”。
美国科技媒体 TechCrunch 评论称,这笔交易也许代表着,在花了 10 年时间钻研人工智能和区块链技术之后,IBM 逐渐将工作重心从盈利前景不明朗的沃森(Watson)挪回了以往最擅长的企业服务领域。
沃森机器人自诞生以来一直代表着 IBM 顶尖计算能力和未来感的形象。它能创造菜谱,参加问答比赛,帮人保税,还能做会议记录员、医生助理、博物馆讲解员……但有分析师一直在质疑它能否成为 IBM 可依赖的收入来源。
投资银行 Jefferies 的分析师评论称,IBM 很多金融、生物领域的合作伙伴对沃森的表现并不满意,认为“它的失误不是单一故障的产物,而是过度营销、深度学习能力缺陷和早期训练数据缺失的结果”。
IBM 市值 1140 亿美元,但最近的收益更新中公布的营收低于预期。自罗睿兰在 2012 年担任 CEO 以来,IBM 营收下降了近四分之一。虽然部分原因是资产剥离,但大部分原因是现有硬件、软件和服务产品销售下滑,该公司一直在努力在云基础设施业务上赶上亚马逊和微软。
Red Hat 是美国一家以开发、贩售 Linux 包并提供技术服务为主要业务的企业,其产品包括 Red Hat Enterprise Linux 等。该公司在诸多重要 IT 领域如操作系统、存储、中间件、虚拟化和云计算等提供关键任务的软件与服务,且目前仍是提供 Linux 集成服务的同类企业中规模最大的公司。
1990 年代末期,Linux 以自由软件、开放源代码为号召,试图挑战商业化且闭源的 Windows 操作系统的霸主地位。当时,Red Hat 所推出的 Linux 系统软件集成包 Red Hat Linux 诞生,奠定了其在 Linux 业界的旗手地位。
Red Hat 于 1999 年 8 月 11 日在纳斯达克上市,2005 年 12 月 19 日纳入纳斯达克 100 指数,2006 年 12 月 12 日转到纽约证券交易所挂牌,2009 年 7 月 27 日,Red Hat 取代 CIT 集团成为标准普尔 500 指数成分股。
上一财年 Red Hat 营收为 29.2 亿美元,利润为 2.59 亿美元。2018 财年 Red Hat 营收同比增长了 21%,全年营收有望首次突破 30 亿美元。但与此同时,Red Hat 上季度和本季度的销售额均低于分析师的预期,这加剧了人们的担忧,即 Red Hat 可能会输给竞争对手,增长可能正在放缓。截至上周五,Red Hat 公司股价在过去 6 个月里下跌了 28%。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。