当地时间2月25日,AAAI 2025 在美国宾夕法尼亚州费城举办,会议为期8天,于3月4日结束。AAAI 由国际人工智能促进协会主办,是人工智能领域历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议,每年举办一届。AAAI 2025 共有12957篇有效投稿,录用3032篇,录取率为 23.4%。其中,Oral论文占比4.6%。
AAAI 2025 收录了多篇来自中国高校和互联网企业的技术论文。如厦门大学信息学院有32篇论文入选,研究方向涉及多模态、目标检测、自动驾驶等领域。香港科技大学数据科学与分析学域有14篇论文入选,研究方向涉及大语言模型压缩、微调,监督学习,AI图像处理等领域。快手有7篇论文入选,研究方向涉及短视频处理、视频问答技术、推荐模型等。蚂蚁集团则有18篇论文入选,其中3篇入选Oral论文,研究领域涉及增强大模型隐私保护、提高推理速度与推理能力、提升大模型训练效率、降低模型幻觉等。
这些论文中,聚焦大模型的技术优化和技术突破尤为引人关注。
大模型的快速及持续发展,离不开对模型所有权和数据隐私的保护。由蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合完成的Oral论文《隐私-实用性可变的大模型跨域微调算法》提出了一种全新的跨域微调(offsite-tuning)框架ScaleOT。该框架可为模型隐私提供多种不同规模的有损压缩的仿真器,还能促进无损微调。实验表明,与基于知识蒸馏的方法相比,ScaleOT在多种模型上取得了12.5%的全量微调达成率提升。相较于知识蒸馏方法,ScaleOT还节省了90%的算力需求,为百亿级参数模型的轻量化跨域微调提供可行方案。目前,该算法已融入蚂蚁数科旗下的摩斯大模型隐私保护产品中,并成为国内首批通过信通院大模型可信执行环境产品专项测试的产品之一。
大语言模型的飞速发展,还打破了许多自然语言处理任务间的壁垒。对于知识图谱而言,实体作为最基本的数据单元,往往需要多个自然语言词元才能准确描述,这导致知识图谱与自然语言之间存在明显的粒度不匹配。蚂蚁集团和浙江大学联合实验室完成的另一篇Oral论文《K-ON:在大模型的输出层堆叠知识图谱知识》提出了一个叫K-ON的方法,其采用的多步Token预测机制不仅能一步生成对所有实体的评估结果,并且实现了适配语言模型的图谱实体层级的对比学习,这是知识图谱表示学习中最有力的工具之一。实验结果表明,K-ON不仅优于传统方法,而且在性能上也超过了那些利用额外文本和视觉信息的多模态方法。此外,与传统方法相比,K-ON的训练轮数从1000轮减少到了5轮。在DB15K数据集上使用8张A100显卡可以在1小时内完成训练。
记者发现,近年来,全球AI顶级会议上的“中国队”越来越活跃。中国科学技术信息研究所《中国科技论文统计报告 2024》显示,中国热点论文数世界第一(48.4%),高被引论文数世界第二(33.8%),以及计算机科学等 7 个学科论文被引次数世界第一。
“中国队”中,互联网企业和科技企业等“队友”的表现引人注目。斯坦福 AIIndex2024 总结的十大趋势显示,当下,工业界正在主导人工智能前沿研究。
中国的互联网企业和科技公司,如今亦已成长为不容忽视的中国科研力量,期待由产学研联手的“中国队”,继续在全球前沿科技舞台上斩获佳绩。
好文章,需要你的鼓励
很多人担心被AI取代,陷入无意义感。按照杨元庆的思路,其实无论是模型的打造者,还是模型的使用者,都不该把AI放在人的对立面。
MIT研究团队提出递归语言模型(RLM),通过将长文本存储在外部编程环境中,让AI能够编写代码来探索和分解文本,并递归调用自身处理子任务。该方法成功处理了比传统模型大两个数量级的文本长度,在多项长文本任务上显著优于现有方法,同时保持了相当的成本效率,为AI处理超长文本提供了全新解决方案。
谷歌宣布对Gmail进行重大升级,全面集成Gemini AI功能,将其转变为"个人主动式收件箱助手"。新功能包括AI收件箱视图,可按优先级自动分组邮件;"帮我快速了解"功能提供邮件活动摘要;扩展"帮我写邮件"工具至所有用户;支持复杂问题查询如"我的航班何时降落"。部分功能免费提供,高级功能需付费订阅。谷歌强调用户数据安全,邮件内容不会用于训练公共AI模型。
华为研究团队推出SWE-Lego框架,通过混合数据集、改进监督学习和测试时扩展三大创新,让8B参数AI模型在代码自动修复任务上击败32B对手。该系统在SWE-bench Verified测试中达到42.2%成功率,加上扩展技术后提升至49.6%,证明了精巧方法设计胜过简单规模扩展的技术理念。