生成式人工智能模型越来越大,参数已多达 2 万亿个,大型语言模型对计算和存储的需求也在增加。
谷歌云(Google Cloud)今天宣布升级旗下 Kubernetes 引擎的容量,以应对更大规模的模型,Kubernetes 引擎的容量将从目前支持 15000 个节点集群升级到支持 65000 个节点集群。Kubernetes 引擎的扩容将为处理全球最复杂且资源密集型的人工智能任务提供所需的规模和计算能力。
在人工智能加速器工作负载上训练数万亿参数的模型需要超过 10,000 个节点的集群。人工智能模型的参数指的是模型中的变量,这些变量控制着模型的行为方式和预测能力。变量越多,模型准确预测的能力就越强。参数有点类似于模型里的旋钮或开关,模型开发者可以调整这些参数达到提高模型性能或准确性的目的。
谷歌云Kubernetes和无服务器高级产品总监 Drew Bradstock 在接受记者采访时表示,“从根本上讲,大型语言模型(LLM)不断增大,世界各地公司需要非常大的集群才能高效运行这些模型。他们不仅仅需要大型集群。他们需要可靠、可扩展的集群才能应对运行这些 LLM 训练工作负载实际遇到的挑战。”
谷歌 Kubernetes 引擎(缩写为 GKE)是谷歌提供的托管 Kubernetes 服务,GKE 可减少运行容器环境的工作量。GKE 可根据工作负载需求的变化自动添加和移除硬件资源,例如专用人工智能芯片或图形处理单元。GKE 也可以为用户 更新 Kubernetes 及监督其他维护任务。
GKE 新的65,000节点集群能够管理分布在250,000个张量处理单元上的人工智能模型,张量处理单元是用于加速机器学习和生成式人工智能工作负载的专用人工智能处理器。Bradstock 表示,这比 GKE 在单个集群上以前的基准(5 万个 TPU 芯片)提高了五倍。
新的65,000节点集群大大提高了运行大规模人工智能工作负载的可靠性和效率。Bradstock 认为,规模的增加对大规模人工智能训练和推理都很重要,因为 Kubernetes 允许用户无需担心停机就可以处理基于硬件的故障。这也能加快作业完成时间,因为额外的容量可以在更短的时间内运行更多的模型迭代。
Bradstock 表示,为了实现这一目标,谷歌云正在将GKE从开源的分布式键值存储etcd过渡到更强大的基于谷歌分布式数据库Spanner系统。这将使 GKE 集群能够处理几乎无限的规模并提供更低的延迟。
谷歌还对 GKE 基础设施进行了重大改造,改造后 GKE 的扩展速度显著加快。客户需求因此能够更快地得到满足。此外,GKE 也能够在单个集群中运行五个负载作业,每个作业的规模均与谷歌云之前训练大型语言模型的记录相匹配。
Bradstock表示,客户的关注、该系统中人工智能的普及以及人工智能在整个行业的快速发展等等推动了升级需求。谷歌的客户一直都在利用 GKE 的集群功能训练他们的模型,客户包括Anthropic PBC等领先的前沿人工智能模型开发商。
Anthropic 公司计算主管 James Bradbury 表示,“GKE 对更大型集群的新支持为我们提供了加快人工智能创新步伐所需的规模。”
Bradstock表示,在过去的一年里,GKE 上 TPU 和图形处理单元的使用增加了 900%,大大超过了以前的使用量,而以前使用量就已经很大了。他表示,“这主要是由人工智能的快速增长所推动的。人工智能在未来将占 GKE 使用的主
好文章,需要你的鼓励
Colt科技服务公司推出超低延迟云连接服务Colt ULL DCA,专门面向加密货币交易商和AI应用开发企业的高速需求。该服务结合超低延迟网络和专用云接入平台,绕过公共互联网提供专用高速路径。在AWS亚洲区域测试中,平均延迟比原生路由降低15%。随着亚太地区数字资产交易成熟和AI需求爆发,企业对安全高性能连接需求激增,Colt正加速在东南亚扩张布局。
约翰霍普金斯大学研究团队开发了ETTIN模型套件,首次实现了编码器和解码器模型的公平比较。研究发现编码器擅长理解任务,解码器擅长生成任务,跨界训练效果有限。该研究为AI模型选择提供了科学依据,所有资料已开源供学术界使用。
皮尤研究中心最新分析显示,谷歌搜索结果页面的AI概述功能显著降低了用户对其他网站的点击率。研究发现,没有AI回答的搜索点击率为15%,而有AI概述的搜索点击率降至8%。目前约五分之一的搜索会显示AI概述,问题类搜索中60%会触发AI回答。尽管谷歌声称AI概述不会影响网站流量,但数据表明用户看到AI生成的信息后更容易结束浏览,这可能导致错误信息的传播。
博洛尼亚大学团队开发出情感增强的AI系统,通过结合情感分析和文本分类技术,显著提升了新闻文章中主观性表达的识别准确率。该研究覆盖五种语言,在多项国际评测中取得优异成绩,为打击虚假信息和提升媒体素养提供了新工具。