近日,浪潮KaiwuDB 与中国人民大学合作的论文 FOSS: A Self-Learned Doctor for Query Optimizer 被数据库领域顶会The 40th IEEE International Conference on Data Engineering (ICDE 2024) 录用。论文提出了具备自学习、自诊断能力的查询优化器 FOSS,推动了基于 AI 算法的学习型查询优化技术革新,其技术创新性获得国际顶会权威认可。浪潮KaiwuDB 高级研发工程师、人大信息学院博士孙路明为共同作者。
ICDE 是电气与电子工程师协会(IEEE)举办的旗舰会议,与 SIGMOD、VLDB 并称数据库三大顶会,也是中国计算机学会 ( CCF ) 推荐的 A 类国际会议,主要聚焦设计、构建、管理和评估高级数据密集型系统和应用等研究问题,在国际上享有盛誉并具有广泛的学术影响力。此次在荷兰召开的ICDE 2024大会,吸引到北京大学、清华大学、中国人民大学、浙江大学、MIT、斯坦福等高校及全球知名科技企业参会,共同探讨数据库、数据处理领域的先进技术问题。
近年来,数据库研究人员提出了多个基于 AI 算法的学习型查询优化器,它们或者通过自下而上的方式从头学习构建查询计划,或者通过提示(Hint)引导或者限制传统优化器的执行计划生成过程。虽然这些方法取得了一些成功,但它们却面临训练效率低下、计划搜索空间有限等方面的挑战。
本篇论文提出了一种基于深度强化学习的查询优化新框架——FOSS。FOSS 的行为类似一个诊疗查询计划的医生,它从传统优化器生成的原始计划开始优化,发现其中的性能问题,并通过一系列优化动作逐步改进计划中的次优节点。与引导传统优化器行为的黑盒方法不同,FOSS 是一个白盒方法,通过优化传统查询优化器生成的计划,更好地利用专家优化知识。此外, FOSS 中还采用了不对称的收益模型来评估两个计划之间的性能差异。为了提高 FOSS 的训练效率,本文将 FOSS 与传统优化器集成以形成一个模拟环境。利用这个模拟环境,FOSS 可以自动快速生成大量高质量的模拟经验,然后从这些经验中学习以提高其优化能力。论文在 Join Order Benchmark, TPC-DS 和 Stack Overflow 等多组数据集和负载上评估了 FOSS 的性能,实验结果表明,FOSS 在模型收敛速度、查询优化效果上优于现有学习型查询优化器,与 PostgreSQL 默认查询优化器相比,更是获得了最高 8.33 倍的加速效果。通过引入该技术,数据库查询性能、响应时间及用户体验或将有效提升,适用于 OLAP、HTAP 等数据密集型场景的查询需求。
作为业内首款分布式、多模融合、支持原生AI 的数据库产品,KaiwuDB 长期致力于为 AIoT 等重点场景提供更丰富的数据运管能力和更卓越的数据库性能,力求不断在 SQL 优化、数据库自治等重点技术上实现突破。未来也将始终坚持以先进技术打磨产品,加速学术研究与产业应用融合,为中国数据库技术创新发展、数据处理效能提升等方面贡献新思路,为政企客户伙伴提供高性能、高可用、易运维的数据服务,助力产业数字化升级与应用创新。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。