作为一个刚刚被推进实施的新兴概念,AI云强调将人工智能同云计算结合起来。AI工具与软件一直在为云计算提供更新、更高的价值提升;同时,云计算不仅仅在数据存储与计算方面具有成本优势,而且在AI的应用层面也发挥着重要作用。
AI云的实质就是专为支撑AI用例而构建的共享基础设施,能够在任意时间点上基于云基础设施同时支持多个项目与AI工作负载。AI云将AI硬件与软件(包括开源软件)结合起来,立足混合云基础设施提供AI软件即服务,大大降低企业访问AI资源、使用AI功能的准入门槛。
AI算法的运行需要大量算力资源,多数企业无法独力承担。但以软件即服务或基础设施即服务为启发应运而生的AI软件即服务,正在消除人们对这项技术的恐惧感和陌生感。
为什么使用AI云
AI云最引人注目的优势,在于它所能化解的实际挑战。它让AI真正实现了大众化与易用性。通过降低采用成本并促进共同创新,AI云正在全力推动企业的AI转型之路。
如今,云已经成为AI的力量放大器,将AI驱动的洞察能力交付至每个人手中。另外,虽然现有云计算技术的普及度远远高于AI本身,但AI的介入也一定能够进一步提升云计算的运行效率。
这些AI驱动计划能够为决策流程提供战略输入,充分发挥云计算的灵活性、敏捷性与规模支持优势,最终成为智能体系中源源不断的动力源。另外,云计算还显著增加了AI的影响范围与覆盖面,以用户企业为起点逐步向更大的市场铺开。事实上,AI与云计算更会相互促进,以云为依托发挥AI技术的真正潜力。
而这一切的前提,又取决于企业能否在业务场景中借助已经无处不在的云资源发挥自身AI专业知识。企业在AI领域的投资将通过云获得数倍回报,也正是这样的价值前景让AI云有了令人难以抵抗的吸引力。
AI工作负载在本质上具有计算与内存密集型属性,这一点在训练新模型与运行既有模型方面都有明确体现。涉及视频、语音或者大规模文本数据的工作负载往往需要巨大的内存空间与处理器算力,而云扩展资源能够借自动化之力轻松完成资源配置。满足了这个前提条件,客户就能从各类AI服务、对接精选数据集的解决方案、训练模型以及端到端工具栈中切实获益。
云托管AI平台分为多个层,最底层为基础设施管理层,用以保证计算过程始终具备良好的云/超大规模基础设施中立性与按需可扩展能力。
接下来则是工程生命周期管理层,这是实现AI供应商与技术工作台中立性、推动标准化及低部署门槛的关键。AI能够优化硬件的使用方式,并实现良好的处理器(CPU/GPU)架构中立性。
中间层负责管理AI与数字劳动力,同时提供运营可见性。
接下来是API层,允许更广泛的开发者社区使用预定义的基础模型,保证按需提供标准化或“共享化”的技术服务。
最顶层则是体验层,允许用户访问资产、获取功能与专业知识、促进协作,实现重用、学习与众包。
面向未来的AI云
企业需要构建企业级AI平台战略,通过软件堆栈将多种技术结合起来,以系统化方式将不同元素拼接汇聚以扩大AI应用,同时以众包开发的方式打破技能孤岛。
为了面向未来做好准备,企业应总结出一套方法,保证自身能够全面实现基础设施等关键因素的中立性,具体涵盖超大规模设施供应商、AI模型、算法乃至AI工具栈开源供应商等。在企业层面对模型、数据集和数据管道的管理流程进行标准化,借此实现随时切换能力、底层组件变化而不会妨碍业务应用的正常运转。
时至今日,与AI相集成的企业软件已经成为AI应用的主要方式,而此类软件也越来越仰仗云服务,这就让AI云变得触手可及。要让这一前景确切变为现实,企业必须积极开展合作,为电信、制造、医疗、金融及保险等不同行业建立特定的场景与模型。另外,垂直行业也应快速构建相应的AI功能,帮助企业转向”AI优先“这一全新形态。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。