尽管投入大量资源,但仅有不足半数AI模型能够投入生产。为了摸清造成这种窘境的原因,Run:AI委托开展了首轮AI基础设施现状调查。本次调查面向来自十个国家的211名数据科学家、AI/机器学习/IT从业者及系统架构师,他们主要来自员工超过5000人的规模企业,但也包括部分来自初创企业和超大型跨国集团。
统计数据也证实了这一基本判断:77%的受访者表示他们的大部分AI模型从未投入过正式使用;甚至有五分之一的受访者给出了更低的答案,称全部模型中只有10%能够介入生产环境。
报告中的其他发现则给出了具体解释。例如,只有17%的AI厂商能够对昂贵的AI资源进行高效利用;22%的AI解决方案开发者表示,他们的基础设施大多处于闲置状态,这是因为超过三分之一的受访者需要手动访问GPU资源,而且硬件加速器的静态分配机制也严重限制了他们的工作效率。
AI领域已经吸纳了巨量成本:38%的受访者表示所在公司单单在AI基础设施,包括硬件、软件与云开销方面就开出了超过100万美元的年度预算;更有15%的受访者表示所在公司的年度AI基础设施投入超过1000万美元。还有74%的受访者称公司计划在短期之内增加GPU容量或AI基础设施支出。
调查发现,AI工作者们面临的最大挑战集中在数据层面。61%的受访者表示数据收集、数据清洗与治理等环节存在问题。42%的受访者强调所在公司的AI基础设施与算力水平达不到要求。除开数据与基础设施这两大核心要素,紧随其后的挑战为模型开发及训练时间过长、模型引用量过大,占受访者中的24%。
调查还强调了云计算在AI领域的作用,53%的受访者表示他们的AI应用程序及基础设施位于云端,34%受访者表示计划在未来几年向云端迁移。容器已经成为运行AI工作负载的标准基础设施选项,80%的受访者表示他们已经在某些AI工作负载中使用容器技术,49%的受访者表示他们的大部分乃至全部AI负载都运行在容器之内。在编排方面,Kubernetes一马当先、获得42%的支持率,另有16%的受访者表示计划使用这套流行的容器编排解决方案。紧随其后的是Red Hat Openshift,有13%的用户正在使用、6%的受访者有意试用。
Run:AI公司联合创始人兼CEO Omri Geller表示,“除了基础设施层面的数百万美元投入之外,对AI抱有兴趣的企业还需要再准备几百万美元招纳高水平的AI员工。但很遗憾,大部分AI模型从未被投入实际生产,意味着这些投入白白打了水漂。我们的调查显示,大量基础设施处于闲置状态、引发严重的资源浪费;数据科学家被迫手动访问GPU资源;而且云迁移之旅也仍在推进当中。总之,谁能率先把自己的模型投入生产并获得实效,谁就能在这场AI竞赛当中占据领先。”
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。