10月16日,主题为“科技助力金融创新 合作引领技术未来”的中国农业银行-南大通用联合创新实验室签约揭牌仪式在京举行。
中国农业银行研发中心总经理蔡钊、副总经理姚琥、高级专家赵维平,南大通用董事长尹丽娜、CEO 武新、研发总监鹿明、产品总监张绍勇等双方高管出席了签约仪式,并为双方共建的“联合创新实验室”揭牌。
双方基于以往的良好合作基础,成立联合创新实验室,面向未来银行业,在大数据、人工智能、云计算等领域展开更加全面而深入地合作,打造金融科技利器,共同孵化金融科技领域的丰硕成果。
国产自主可控助力金融创新
2013年开始,中国农业银行与南大通用公司合作。6年来,农行与南大通用共同对MPP数据库进行深入研究、适配,总计完成数百项优化与改进。如今,GBase 8a MPP Cluster大规模分布式数据库集群已经成功助力中国农业银行大数据平台稳定、高效运行超过1100天,支撑了600多个节点,管理数据量20PB。
中国农业银行研发中心总经理蔡钊在致辞中表示:“农业银行高度重视金融科技创新发展,自13年11月以来,我们双方共同组建团队,针对MPP数据库总计完成数百项包括底层架构、高可靠性、高可用性、性能等方面的优化与改进,使得产品在性能、功能、稳定性和安全性上满足了金融核心业务系统的要求,填补了国内空白,农业银行也成为国内首家在MPP数据库中完成国产化替代的银行,开创国产基础软件支撑金融核心业务系统的先河。”
南大通用董事长尹丽娜表示:“六年前,农行就意识到基础软件不能受控于人,坚定地开始了基础软件国产化的进程。过去6年的合作中,中国农业银行以高度支持国产自主可控产品的责任心和稳健务实的信息化建设理念,给予南大通用足够的信任、支持与理解,使南大通用在产品、人才、用户、品牌等多方面取得长足进步。”
数据赋能再创新 合作引领新未来
近年来,金融科技蓬勃发展,以人工智能、大数据、云计算等为代表的新技术突发猛进,深刻影响和改变着传统金融行业的格局、商业模式、经营方式以及金融服务的供给方式。新兴科技与传统银行业务的深度融合,将成为产业升级的又一个重要风口。
习近平总书记在今年3月份的重要讲话中强调,中国的饭碗一定要端带自己手里,碗里面主要装中国粮食。蔡钊表示:“在大数据领域,我们理解这个粮食就是“数据”,饭碗就是数据库产品。作为拥有9亿多客户和海量数据信息的农业银行与国产数据库领域领先企业的南大通用,我们有责任有义务研究如何用我们自己的“饭碗”盛出优质的“粮食”。所以双方确立以“金融领域大数据及数据智能平台应用研究”为主要方向的合作恰逢其时,通过成立联合创新实验室,发挥各自在技术、客户、人才、数据等方面的优势,共同孵化金融科技领域的丰硕成果。”
中国农业银行研发中心高级专家赵维平在演讲中表示:“六年磨一剑,中国农业银行的大数据平台在双方的努力下,取得了好的成绩。大数据只有起点,没有终点,双方未来在大数据、价值发现、人工智能方面很有很长的路要走。”
南大通用CEO武新表示:“双方的合作正好与南大通用战略发展相契合。南大通用的第一个十年,作为一家传统的数据库软件厂商,已经成为国产数据库厂商的龙头企业,同时进入国际视野;下一个十年,我们聚焦在大数据融合平台、Daas和人工智能领域,做到源代码自主可控,要在中国彻底解决数据库和大数据、核心技术、数字语言的问题,这也是我们公司的使命。我们已经发布了把关系模型和非关系模型融合在一起的大数据平台,这是下一代大数据平台的核心技术。未来这个平台能够彻底地云化,基于数据就可以对外提供服务,帮助客户把数据资源变成数据资产。当下,农行已经使用了南大通用大数据平台的技术,下一步我们会在实验室把人工智能的成果跟金融科技结合起来。”
强强联手,再攀高峰
会上,双方领导签署了联合创新实验室协议,并为实验室揭牌。
此次中国农业银行与南大通用联合创新实验室的成立,开启了双方优势互补、资源共享、互利双赢的新篇章,构建了金融科技创新发展的新平台,也必将助力中国银行业实现金融科技战略发展的新跨越。
好文章,需要你的鼓励
韩国科学技术院研究团队提出"分叉-合并解码"方法,无需额外训练即可改善音视频大语言模型的多模态理解能力。通过先独立处理音频和视频(分叉阶段),再融合结果(合并阶段),该方法有效缓解了模型过度依赖单一模态的问题,在AVQA、MUSIC-AVQA和AVHBench三个基准测试中均取得显著性能提升,特别是在需要平衡音视频理解的任务上表现突出。
这项研究利用大语言模型解决科学新颖性检测难题,南洋理工大学团队创新性地构建了闭合领域数据集并提出知识蒸馏框架,训练轻量级检索器捕捉想法层面相似性而非表面文本相似性。实验表明,该方法在市场营销和NLP领域显著优于现有技术,为加速科学创新提供了有力工具。
un?CLIP是一项创新研究,通过巧妙反转unCLIP生成模型来增强CLIP的视觉细节捕捉能力。中国科学院研究团队发现,虽然CLIP在全局图像理解方面表现出色,但在捕捉细节时存在不足。他们的方法利用unCLIP生成模型的视觉细节表示能力,同时保持与CLIP原始文本编码器的语义对齐。实验结果表明,un?CLIP在MMVP-VLM基准、开放词汇语义分割和视觉中心的多模态任务上显著优于原始CLIP和现有改进方法,为视觉-语言模型的发展提供了新思路。
这项研究介绍了RPEval,一个专为评估大语言模型角色扮演能力而设计的新基准。研究团队从法国里尔大学开发的这一工具专注于四个关键维度:情感理解、决策制定、道德对齐和角色一致性,通过单轮交互实现全自动评估。研究结果显示Gemini-1.5-Pro在总体表现上领先,而GPT-4o虽在决策方面表现出色,但在角色一致性上存在明显不足。这一基准为研究人员提供了一个可靠、可重复的方法来评估和改进大语言模型的角色扮演能力。