至顶网软件频道消息: 谷歌今天开始在自己的公有云上提供了一个新的图形加速器,以更好的支持人工智能和虚拟桌面工作负载。
据悉,谷歌采用的芯片是Nvidia的P4,这让谷歌云平台支持的Nvidia GPU数量增加到4个,而且所有这些都是从2017年2月以来添加的。Nvidia扩展其GPU产品线的步伐反映了企业采用人工智能的速度越来越快。
P4的起价为每小时60美分,是4款GPU中价格第二低的。在处理最多4个字节的单精度值时,该芯片可提供5.5 teraflops的性能。
Nvidia还为P4配备了8GB GDDR5内存,专门设计用于GPU。片上芯片内存要比普通内存更快,因为让数据更接近GPU核心,从而减少延迟。
在人工智能部署方面,谷歌认为基于云的P4主要用于机器学习推理,也就是数据处理神经网络在经过适当训练之后可以在生产环境中做的事情,这是一种完全不同的任务,有时候利用更强大的GPU可以实现更好的性能。
P4也适用于虚拟桌面环境。它采用了Grid,这个Nvidia软件可以在多个虚拟机之间分配GPU硬件资源。此外,谷歌还支持合作伙伴Teradici的工具,该工具可以将运行在虚拟机中应用流式传输到员工的本地设备上。
谷歌瞄准的第三种场景是视频流。根据Nvidia的说法,该芯片有3个视频处理引擎,可以实时转码多达35个高清流。
另外,GPU在谷歌的技术战略中扮演着越来越重要的作用,因此Nvidia也成为谷歌的一个重要合作伙伴。话虽如此,但谷歌并不完全依赖于这家AI处理器的芯片制造商。谷歌还支持Tensor Processing Units,这款内部设计的芯片可定制用于运行神经网络,每个神经网络可提供180 teraflops的巨大计算能力。
好文章,需要你的鼓励
这项研究由新加坡国立大学团队开发的DualParal技术,通过创新的双重并行架构解决了AI视频生成的长度限制问题。该方法同时在时间帧和模型层两个维度实现并行处理,配合分块降噪机制、特征缓存和协调噪声初始化策略,使生成分钟级长视频成为可能。实验表明,在生成1,025帧视频时,DualParal比现有技术减少了高达6.54倍的延迟和1.48倍的内存成本,同时保持了高质量的视频输出,为内容创作者提供了生成更长、更复杂视频叙事的新工具。
SoloSpeech是约翰霍普金斯大学研究团队开发的创新语音处理技术,针对"鸡尾酒会效应"问题提出了全新解决方案。该系统通过级联生成式管道整合压缩、提取、重建和校正过程,实现了高质量目标语音提取。与传统判别式模型相比,SoloSpeech采用无需说话者嵌入的设计,直接利用提示音频的潜在空间信息与混合音频对齐,有效避免特征不匹配问题。在Libri2Mix及多个真实世界数据集上的评测显示,SoloSpeech在清晰度、质量和泛化能力上均达到了领先水平,为语音分离技术开辟了新方向。
这项由北京大学深圳研究生院、伟湾大学、腾讯ARC实验室和兔小贝智能联合研究的Sci-Fi框架,通过创新的对称约束机制,解决了视频帧间插值中的关键问题。研究团队设计了轻量级EF-Net模块,增强结束帧约束力,使其与起始帧形成平衡影响,从而生成更自然流畅的中间过渡帧。实验证明,该方法在各种场景下都优于现有技术,特别适用于电影制作、动画创作和视频编辑领域,显著降低了人力成本。
这项来自西北大学和谷歌的研究突破了传统马尔可夫强化学习的局限,通过贝叶斯自适应RL框架解释了大语言模型中涌现的反思性推理行为。研究团队提出的BARL算法通过维护多个解题策略的后验分布,指导模型何时何地进行反思性探索,在数学推理任务上展现出显著优势,比基线方法减少高达50%的标记使用量,同时提高了准确率。这一研究不仅解释了"为什么反思有用",还提供了实用的指导原则,为AI系统的自适应推理能力开辟了新方向。