谷歌研究人员创建了号称是“学习一切的模型”,可利用多种类型的训练数据在不同的任务里训练人工智能(AI)模型。
谷歌希望旗下的Tensor2Tensor程序库可以加速深度学习的研究
谷歌研究人员和以AI为重点的谷歌大脑团队(Google Brain Team)打造的新Tensor2Tensor程序库里还包括其他工具及模块化组件,简单来说其就是一个程序库包,他们希望该程序库包可以加速深度学习的研究。
另外,该谷歌框架可望减少环境定制的一些工作,令深度学习模型可以处理各种任务。
谷歌研究人员在一篇文章里称此为“学习一切的模型”,到目前为止,尽管深度学习在语音识别、图像分类和翻译方面取得了成功,但每个模型都需针对特定的任务进行微调。
而且,各种模型通常是针对来自相同“域”的任务进行训练的,例如,一种翻译任务的训练用的是其他翻译任务。
这些因素凑在一起将减缓了深度学习的研究,并且也没有遵循人类大脑的工作原理,人类大脑能够从一个挑战中学会一些东西,并将其应用于解决新的任务。
而谷歌创建的模型是针对各种任务训练的,包括图像识别、翻译任务、图像字幕和语音识别等。
谷歌研究人员称该单一模型可以同时从多个领域学习许多的任务,而且该模型还能够传递知识。该模型能够从拥有大量训练数据的任务里学习,并将学习到知识应用到一些数据有限的任务。
Tensor2Tensor程序库由谷歌大脑团队的研究人员和工程师维护,该程序库提供了一套用于训练TensorFlow深入学习模型的开源工具。据Tensor2Tensor的GitHub网页(https://github.com/tensorflow/tensor2tensor)介绍,Tensor2Tensor库“的目标是最大限度地提高想法带宽并最大限度地减少执行延迟”。
谷歌大脑团队高级研究科学家及文章的主要作者Lukasz Kaiser做了如下解释,“Tensor2Tensor库有助于为各种机器学习应用程序创建最先进的模型,例如翻译、解析、图像字幕等等,有了Tensor2Tensor,就能快速探索各种想法。”
另外,Tensor2Tensor库还包括一个从谷歌大脑研究人员最近发表的论文里获取的数据集和模型库。
Kaiser日前还发布了用于机器翻译的BLEU基准测试结果,结果表明,Tensor2Tensor的最佳模式可提供业内最佳结果,而用的GPU数量更少,用的时间比过去未使用Tensor2Tensor的模型少很多。
Kaiser 表示,“用了Tensor2Tensor,就可以在一天内使用单个GPU得到业内最佳结果,这一点很了不起。”
Tensor2Tensor库还包括相关的数据集、模型架构、优化器、学习速率衰减方案、超参数等等,并包含这些组件之间的标准接口。
好文章,需要你的鼓励
AI颠覆预计将在2026年持续,推动企业适应不断演进的技术并扩大规模。国际奥委会、Moderna和Sportradar的领导者在纽约路透社峰会上分享了他们的AI策略。讨论焦点包括自建AI与购买第三方资源的选择,AI在内部流程优化和外部产品开发中的应用,以及小型模型在日常应用中的潜力。专家建议,企业应将AI建设融入企业文化,以创新而非成本节约为驱动力。
字节跳动等机构联合发布GAR技术,让AI能同时理解图像的全局和局部信息,实现对多个区域间复杂关系的准确分析。该技术通过RoI对齐特征重放方法,在保持全局视野的同时提取精确细节,在多项测试中表现出色,甚至在某些指标上超越了体积更大的模型,为AI视觉理解能力带来重要突破。
Spotify在新西兰测试推出AI提示播放列表功能,用户可通过文字描述需求让AI根据指令和听歌历史生成个性化播放列表。该功能允许用户设置定期刷新,相当于创建可控制算法的每周发现播放列表。这是Spotify赋予用户更多控制权努力的一部分,此前其AI DJ功能也增加了语音提示选项,反映了各平台让用户更好控制算法推荐的趋势。
Inclusion AI团队推出首个开源万亿参数思维模型Ring-1T,通过IcePop、C3PO++和ASystem三项核心技术突破,解决了超大规模强化学习训练的稳定性和效率难题。该模型在AIME-2025获得93.4分,IMO-2025达到银牌水平,CodeForces获得2088分,展现出卓越的数学推理和编程能力,为AI推理能力发展树立了新的里程碑。