生成式人工智能模型越来越大,参数已多达 2 万亿个,大型语言模型对计算和存储的需求也在增加。
谷歌云(Google Cloud)今天宣布升级旗下 Kubernetes 引擎的容量,以应对更大规模的模型,Kubernetes 引擎的容量将从目前支持 15000 个节点集群升级到支持 65000 个节点集群。Kubernetes 引擎的扩容将为处理全球最复杂且资源密集型的人工智能任务提供所需的规模和计算能力。
在人工智能加速器工作负载上训练数万亿参数的模型需要超过 10,000 个节点的集群。人工智能模型的参数指的是模型中的变量,这些变量控制着模型的行为方式和预测能力。变量越多,模型准确预测的能力就越强。参数有点类似于模型里的旋钮或开关,模型开发者可以调整这些参数达到提高模型性能或准确性的目的。
谷歌云Kubernetes和无服务器高级产品总监 Drew Bradstock 在接受记者采访时表示,“从根本上讲,大型语言模型(LLM)不断增大,世界各地公司需要非常大的集群才能高效运行这些模型。他们不仅仅需要大型集群。他们需要可靠、可扩展的集群才能应对运行这些 LLM 训练工作负载实际遇到的挑战。”
谷歌 Kubernetes 引擎(缩写为 GKE)是谷歌提供的托管 Kubernetes 服务,GKE 可减少运行容器环境的工作量。GKE 可根据工作负载需求的变化自动添加和移除硬件资源,例如专用人工智能芯片或图形处理单元。GKE 也可以为用户 更新 Kubernetes 及监督其他维护任务。
GKE 新的65,000节点集群能够管理分布在250,000个张量处理单元上的人工智能模型,张量处理单元是用于加速机器学习和生成式人工智能工作负载的专用人工智能处理器。Bradstock 表示,这比 GKE 在单个集群上以前的基准(5 万个 TPU 芯片)提高了五倍。
新的65,000节点集群大大提高了运行大规模人工智能工作负载的可靠性和效率。Bradstock 认为,规模的增加对大规模人工智能训练和推理都很重要,因为 Kubernetes 允许用户无需担心停机就可以处理基于硬件的故障。这也能加快作业完成时间,因为额外的容量可以在更短的时间内运行更多的模型迭代。
Bradstock 表示,为了实现这一目标,谷歌云正在将GKE从开源的分布式键值存储etcd过渡到更强大的基于谷歌分布式数据库Spanner系统。这将使 GKE 集群能够处理几乎无限的规模并提供更低的延迟。
谷歌还对 GKE 基础设施进行了重大改造,改造后 GKE 的扩展速度显著加快。客户需求因此能够更快地得到满足。此外,GKE 也能够在单个集群中运行五个负载作业,每个作业的规模均与谷歌云之前训练大型语言模型的记录相匹配。
Bradstock表示,客户的关注、该系统中人工智能的普及以及人工智能在整个行业的快速发展等等推动了升级需求。谷歌的客户一直都在利用 GKE 的集群功能训练他们的模型,客户包括Anthropic PBC等领先的前沿人工智能模型开发商。
Anthropic 公司计算主管 James Bradbury 表示,“GKE 对更大型集群的新支持为我们提供了加快人工智能创新步伐所需的规模。”
Bradstock表示,在过去的一年里,GKE 上 TPU 和图形处理单元的使用增加了 900%,大大超过了以前的使用量,而以前使用量就已经很大了。他表示,“这主要是由人工智能的快速增长所推动的。人工智能在未来将占 GKE 使用的主
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。