至顶网软件频道消息: 谷歌今天开始在自己的公有云上提供了一个新的图形加速器,以更好的支持人工智能和虚拟桌面工作负载。
据悉,谷歌采用的芯片是Nvidia的P4,这让谷歌云平台支持的Nvidia GPU数量增加到4个,而且所有这些都是从2017年2月以来添加的。Nvidia扩展其GPU产品线的步伐反映了企业采用人工智能的速度越来越快。
P4的起价为每小时60美分,是4款GPU中价格第二低的。在处理最多4个字节的单精度值时,该芯片可提供5.5 teraflops的性能。
Nvidia还为P4配备了8GB GDDR5内存,专门设计用于GPU。片上芯片内存要比普通内存更快,因为让数据更接近GPU核心,从而减少延迟。
在人工智能部署方面,谷歌认为基于云的P4主要用于机器学习推理,也就是数据处理神经网络在经过适当训练之后可以在生产环境中做的事情,这是一种完全不同的任务,有时候利用更强大的GPU可以实现更好的性能。
P4也适用于虚拟桌面环境。它采用了Grid,这个Nvidia软件可以在多个虚拟机之间分配GPU硬件资源。此外,谷歌还支持合作伙伴Teradici的工具,该工具可以将运行在虚拟机中应用流式传输到员工的本地设备上。
谷歌瞄准的第三种场景是视频流。根据Nvidia的说法,该芯片有3个视频处理引擎,可以实时转码多达35个高清流。
另外,GPU在谷歌的技术战略中扮演着越来越重要的作用,因此Nvidia也成为谷歌的一个重要合作伙伴。话虽如此,但谷歌并不完全依赖于这家AI处理器的芯片制造商。谷歌还支持Tensor Processing Units,这款内部设计的芯片可定制用于运行神经网络,每个神经网络可提供180 teraflops的巨大计算能力。
好文章,需要你的鼓励
在AI智能体的发展中,记忆能力成为区分不同类型的关键因素。专家将AI智能体分为七类:简单反射、基于模型反射、目标导向、效用导向、学习型、多智能体系统和层次化智能体。有状态的智能体具备数据记忆能力,能提供持续上下文,而无状态系统每次都重新开始。未来AI需要实现实时记忆访问,将存储与计算集成在同一位置,从而创造出具备人类般记忆能力的数字孪生系统。
中国人民大学和字节跳动联合提出Pass@k训练方法,通过给AI模型多次答题机会来平衡探索与利用。该方法不仅提升了模型的多样性表现,还意外改善了单次答题准确率。实验显示,经过训练的7B参数模型在某些任务上超越了GPT-4o等大型商业模型,为AI训练方法论贡献了重要洞察。
OpenAI首席执行官阿尔特曼表示,公司计划在不久的将来投入数万亿美元用于AI基础设施建设,包括数据中心建设等。他正在设计新型金融工具来筹集资金。阿尔特曼认为当前AI投资存在过度兴奋现象,类似于90年代互联网泡沫,但AI技术本身是真实且重要的。他承认GPT-5发布存在问题,并表示OpenAI未来可能会上市。
南加州大学等机构研究团队开发出突破性的"N-gram覆盖攻击"方法,仅通过分析AI模型生成的文本内容就能检测其是否记住了训练数据,无需访问模型内部信息。该方法在多个数据集上超越传统方法,效率提升2.6倍。研究还发现新一代AI模型如GPT-4o展现出更强隐私保护能力,为AI隐私审计和版权保护提供了实用工具。