当地时间2月25日,AAAI 2025 在美国宾夕法尼亚州费城举办,会议为期8天,于3月4日结束。AAAI 由国际人工智能促进协会主办,是人工智能领域历史最悠久、涵盖内容最广泛的国际顶级学术会议之一,也是中国计算机学会(CCF)推荐的A类国际学术会议,每年举办一届。AAAI 2025 共有12957篇有效投稿,录用3032篇,录取率为 23.4%。其中,Oral论文占比4.6%。
AAAI 2025 收录了多篇来自中国高校和互联网企业的技术论文。如厦门大学信息学院有32篇论文入选,研究方向涉及多模态、目标检测、自动驾驶等领域。香港科技大学数据科学与分析学域有14篇论文入选,研究方向涉及大语言模型压缩、微调,监督学习,AI图像处理等领域。快手有7篇论文入选,研究方向涉及短视频处理、视频问答技术、推荐模型等。蚂蚁集团则有18篇论文入选,其中3篇入选Oral论文,研究领域涉及增强大模型隐私保护、提高推理速度与推理能力、提升大模型训练效率、降低模型幻觉等。
这些论文中,聚焦大模型的技术优化和技术突破尤为引人关注。
大模型的快速及持续发展,离不开对模型所有权和数据隐私的保护。由蚂蚁数科、浙江大学、利物浦大学和华东师范大学联合完成的Oral论文《隐私-实用性可变的大模型跨域微调算法》提出了一种全新的跨域微调(offsite-tuning)框架ScaleOT。该框架可为模型隐私提供多种不同规模的有损压缩的仿真器,还能促进无损微调。实验表明,与基于知识蒸馏的方法相比,ScaleOT在多种模型上取得了12.5%的全量微调达成率提升。相较于知识蒸馏方法,ScaleOT还节省了90%的算力需求,为百亿级参数模型的轻量化跨域微调提供可行方案。目前,该算法已融入蚂蚁数科旗下的摩斯大模型隐私保护产品中,并成为国内首批通过信通院大模型可信执行环境产品专项测试的产品之一。
大语言模型的飞速发展,还打破了许多自然语言处理任务间的壁垒。对于知识图谱而言,实体作为最基本的数据单元,往往需要多个自然语言词元才能准确描述,这导致知识图谱与自然语言之间存在明显的粒度不匹配。蚂蚁集团和浙江大学联合实验室完成的另一篇Oral论文《K-ON:在大模型的输出层堆叠知识图谱知识》提出了一个叫K-ON的方法,其采用的多步Token预测机制不仅能一步生成对所有实体的评估结果,并且实现了适配语言模型的图谱实体层级的对比学习,这是知识图谱表示学习中最有力的工具之一。实验结果表明,K-ON不仅优于传统方法,而且在性能上也超过了那些利用额外文本和视觉信息的多模态方法。此外,与传统方法相比,K-ON的训练轮数从1000轮减少到了5轮。在DB15K数据集上使用8张A100显卡可以在1小时内完成训练。
记者发现,近年来,全球AI顶级会议上的“中国队”越来越活跃。中国科学技术信息研究所《中国科技论文统计报告 2024》显示,中国热点论文数世界第一(48.4%),高被引论文数世界第二(33.8%),以及计算机科学等 7 个学科论文被引次数世界第一。
“中国队”中,互联网企业和科技企业等“队友”的表现引人注目。斯坦福 AIIndex2024 总结的十大趋势显示,当下,工业界正在主导人工智能前沿研究。
中国的互联网企业和科技公司,如今亦已成长为不容忽视的中国科研力量,期待由产学研联手的“中国队”,继续在全球前沿科技舞台上斩获佳绩。
好文章,需要你的鼓励
CoreWeave发布AI对象存储服务,采用本地对象传输加速器(LOTA)技术,可在全球范围内高速传输对象数据,无出口费用或请求交易分层费用。该技术通过智能代理在每个GPU节点上加速数据传输,提供高达每GPU 7 GBps的吞吐量,可扩展至数十万个GPU。服务采用三层自动定价模式,为客户的AI工作负载降低超过75%的存储成本。
IDEA研究院等机构联合开发了ToG-3智能推理系统,通过多智能体协作和双重进化机制,让AI能像人类专家团队一样动态思考和学习。该系统在复杂推理任务上表现优异,能用较小模型达到卓越性能,为AI技术的普及应用开辟了新路径,在教育、医疗、商业决策等领域具有广阔应用前景。
谷歌DeepMind与核聚变初创公司CFS合作,运用先进AI模型帮助管理和改进即将发布的Sparc反应堆。DeepMind开发了名为Torax的专用软件来模拟等离子体,结合强化学习等AI技术寻找最佳核聚变控制方式。核聚变被视为清洁能源的圣杯,可提供几乎无限的零碳排放能源。谷歌已投资CFS并承诺购买其200兆瓦电力。
上海人工智能实验室提出SPARK框架,创新性地让AI模型在学习推理的同时学会自我评判,通过回收训练数据建立策略与奖励的协同进化机制。实验显示,该方法在数学推理、奖励评判和通用能力上分别提升9.7%、12.1%和1.5%,且训练成本仅为传统方法的一半,展现出强大的泛化能力和自我反思能力。