谷歌今天宣布,将在其云平台上采用Nvidia的低功耗Tesla T4 GPU,目前还处于测试模式。
此举很重要,因为Nvidia GPU是用于机器学习最主流的硬件。机器学习是人工智能的一个子集,利用软件大致模拟人类大脑的工作方式,让计算机能够自学,而不需要明确编程。
在采用这些芯片之前,特定客户已经对这些芯片进行了数月的测试。
Nvidia的T4 GPU专为人工智能、数据分析、高性能计算和图形设计等工作负载设计,基于Nvidia新的Turing架构,拥有多精度Turing Tensor Cores和新的RT核心。每个T4芯片都配备16GB内存,能够提供206 TOPS计算性能。
Nvidia表示,由于能耗低,所以T4 GPU对于那些运行在网络边缘的工作负载来说是一个理想选择。
谷歌在今天的博客文章中强调说,T4也非常适合运行推理工作负载——也就是经过全面训练的机器学习算法,可自行做出决策。
“它用于FP16、INT8和INT4所实现的高性能,让你可以运行大规模推理工作负载,同事实现精度与性能之间的平衡,这在其他GPU上是无法实现的,”谷歌产品经理Chris Kleban这样表示。
Constellation Research首席分析师、副总裁Holger Mueller称,Nvidia T4 GPU得到谷歌云的支持,这将让Nvidia和谷歌都受益,因为机器学习是云普及的关键驱动因素。
Mueller说:“Nvidia将其Tesla GPU纳入Google Cloud是一项重大的胜利,因为这确保了客户可以轻松使用Tesla GPU。这对谷歌来说也是一件好事,因为机器学习工作加载很多GPU平台,这样让客户可以更轻松地将负载转移到Google Cloud。”
谷歌表示,将从今天开始在多个地区测试支持Nvidia Tesla T4 GPU,包括美国、欧洲、巴西、印度、日本和新加坡。在可抢占的虚拟机实例上,每个GPU每小时起价为29美分;对于按需实例来说,起价为每小时95美分。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
清华大学研究团队提出StateX技术,通过"记忆扩容"方式解决RNN模型记忆有限问题。该技术采用后训练改造策略,无需从头训练即可显著提升AI的长文本处理和信息记忆能力。实验显示,改造后的模型在记忆密集型任务上提升3.36%,"大海捞针"测试准确率从26%提升至42%,为AI模型优化提供了经济高效的新路径。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
斯坦福大学研究团队开发了CHURRO历史文献识别系统,可处理跨越22世纪、46种语言的古代文献。该系统基于CHURRO-DS数据集训练,包含近10万页历史文档。CHURRO在印刷和手写文档识别上分别达到82.3%和70.1%准确率,超越最好的商业模型,成本仅为其1/15.5,为历史文献数字化提供了高效解决方案。