中国存储软件供应商燕融为 HPC 和 AI 工作负载提供 YRCloudFile 分布式共享文件系统。通过将 KVCache 集成到文件系统中,燕融表示显著提升了 KV 缓存命中率和长上下文处理能力,降低了 AI 推理成本。
YRCloudFile 支持全闪存驱动器和 Nvidia 的 GPUDirect 协议。KVCache 是一种在 AI 模型推理阶段存储中间结果的方式,避免在每个阶段重新计算,从而缩短响应时间。
据了解,YRCloudFile 系统中的 KVCache 可能作为 GPU 服务器集群中的分布式内存层,用于存储经常访问的元数据(即键值对)。
为了验证 YRCloudFile KVCache 的性能,燕融使用公开数据集、行业标准基准测试工具和 NVIDIA GPU 硬件模拟了真实工作负载。结果表明,YRCloudFile KVCache 支持显著更高的并发查询吞吐量,为推理工作负载提供了具体、可量化的价值。
燕融进行了多阶段测试,比较了原生 vLLM 性能与集成 YRCloudFile KVCache 的 vLLM 在不同 token 数量和配置下的表现。
一项测试评估了单个查询在 8,000 至约 30,000 个 token 作为上下文输入时的总响应时间。随着上下文长度增加,使用 KVCache 的 YRCloudFile 在首个 Token 生成时间 (TTFT) 方面实现了 3 倍到超过 13 倍的性能提升。
第二项测试衡量了在 TTFT 值为 2 秒或更短时支持的并发查询数量。结果显示,YRCloudFile KVCache 与原生 vLLM 相比,支持的并发请求数量提高了 8 倍。
第三项测试结果表明,在高并发情况下,YRCloudFile KVCache 在不同上下文长度下实现了超过 4 倍的 TTFT 性能提升。
燕融表示,这些结果展示了"通过分布式存储扩展 GPU 内存如何突破传统计算瓶颈,实现资源利用率的指数级提升"。总的来说,"YRCloudFile KVCache 通过 PB 级缓存扩展将存储资源转化为计算优势,重新定义了 AI 推理的经济性"。
我们认为,YRCloudFile 的 KVCache 与 WEKA 的增强内存网格 (AMG) 有一些相似之处。AMG 是一个软件定义的文件系统扩展,提供了微秒级延迟的 Ex 级缓存容量和每秒数 TB 的带宽,实现接近内存速度的性能。
WEKA 的一篇博客提到,它"将 GPU 内存扩展到 WEKA 数据平台中的 token 仓库,提供接近内存速度的 PB 级持久存储。token 仓库为标记化数据提供持久的、基于 NVMe 的存储,使 AI 系统能够以接近内存的速度存储和检索 token"。
这"使您能够缓存 token 并以微秒级延迟将其传递到 GPU,驱动下一代 AI 工厂所需的大规模、低延迟推理和高效的计算重用"。AMG 的特点是:"在 NVMe 中持久存储标记化数据",而且"token 被存储起来,在推理时从'货架'上取出,而不是针对每个请求持续地按需重新生成"。
AMG "将 GPU 内存扩展为分布式高性能内存结构,提供微秒级延迟和大规模并行 I/O,这对于实时大规模存储和检索 token 至关重要"。
好文章,需要你的鼓励
IBM Spyre加速器将于本月晚些时候正式推出,为z17大型机、LinuxONE 5和Power11系统等企业级硬件的AI能力提供显著提升。该加速器基于定制芯片的PCIe卡,配备32个独立加速器核心,专为处理AI工作负载需求而设计。系统最多可配置48张Spyre卡,支持多模型AI处理,包括生成式AI和大语言模型,主要应用于金融交易欺诈检测等关键业务场景。
微软研究院提出潜在分区网络(LZN),首次实现生成建模、表示学习和分类任务的真正统一。该框架通过共享高斯潜在空间和创新的潜在对齐机制,让原本独立的AI任务协同工作。实验显示LZN不仅能增强现有模型性能,还能独立完成各类任务,多任务联合训练效果更是超越单独训练。这项研究为构建下一代通用AI系统提供了新的架构思路。
意大利初创公司Ganiga开发了AI驱动的智能垃圾分拣机器人Hoooly,能自动识别并分类垃圾和可回收物。该公司产品包括机器人垃圾桶、智能盖子和废物追踪软件,旨在解决全球塑料回收率不足10%的问题。2024年公司收入50万美元,已向谷歌和多个机场销售超120台设备,计划融资300万美元并拓展美国市场。
上海AI实验室开发的VLAC模型让机器人首次具备真实世界自主学习能力。该系统如同给机器人配备智能导师,能实时评估动作效果并从中学习。在四个操作任务测试中,机器人成功率从30%提升至90%,仅需200次练习。技术结合视觉、语言理解和动作生成,支持跨场景适应和人机协作,为家庭服务、医疗护理等领域应用奠定基础。