7月18日,全球领先的IT市场研究和咨询公司IDC发布《中国金融行业分布式事务型数据库市场份额,2023:技术验证结束,迎接高速增长》(Doc#CHC50966824,2024年6月)报告。OceanBase占据两项第一:金融行业本地部署市场份额第一、保险证券子市场本地部署份额第一。
OceanBase副总裁、金融政企事业部总经理王爽在媒体交流会上介绍,目前70%千亿资产规模以上银行、75%头部证券机构、65%头部保险机构、45%头部基金公司都已选择OceanBase进行核心系统升级,包括中国工商银行、交通银行、四川农商联合银行、中国太平洋保险、招商证券等。其中,一半以上将OceanBase应用于核心系统。
本地部署市场份额第一
报告统计,2023年中国金融行业分布式事务型数据库的市场规模约2亿美元,同比增长12.1%,市场加速增长。
从市场格局来看,仍以头部厂商为主,占整体市场份额86.9%。其中,OceanBase的市场份额占比达到17.1%,领先其他独立数据库厂商,位列市场整体第四,仅次于三家云厂商。
2023年,OceanBase的金融行业营收规模为2.7亿人民币,在金融行业分布式数据库市场中位列独立数据库厂商第一。
金融行业因其特殊的行业要求,核心交易系统只能以本地化方式部署,以保障数据的安全性和可控性,本地化部署的应用系统对分布式事务型数据库的建设标准要求更高。
报告显示,2023年中国金融行业分布式事务型数据库本地部署的整体市场规模约为1.6亿美元,占整体市场的70.1%。其中,OceanBase以23.2%的市场份额排名第一。
保险及证券成最快增长市场,OceanBase市场份额第一
报告同样分析了金融子市场格局。
在保险及证券行业,2023年保险及证券行业分布式数据库市场规模整体为0.7亿美元,占金融整体行业的约1/3。随着2024年分布式技术迎来爆发性增长,保险及证券行业将成为增长最快的市场。
在保险及证券本地化部署的子市场中,OceanBase以42.5%的市场份额大幅领先,市场份额占据第一。
而在银行行业,银行子市场2023年市场规模约为1.5亿美元,在其本地化部署中主要对应银行内部交易系统,覆盖银行A级和A+级的核心交易系统。在这一子市场,OceanBase以17.8%的市场份额位列第三。
分布式数据库迎来大规模部署阶段
IDC中国研究经理李凌霄在报告中指出,分布式事务型数据库的实际应用价值和可行性已经得到验证,伴随技术验证的稳固,不仅中小型金融机构,如电信运营商、交通运输等高度依赖数据库且业务复杂度相似的行业,也都将加速转型进程。
记者采访中国太平洋保险数智研究院首席数据库专家林春了解到,继P17核心客服系统外,太保集团资金交易系统、增值税系统、产险 P09、产险 M6 车险理赔、销管系统、寿险自然人、中意险等核心系统也已升级至OceanBase。2024年1月,承载着全集团资金收付交易任务的资金交易系统成功上线,存储平均压缩至原来的1/3。2024年5月,承载全产险的会计核算管理系统上线,应收结果统计模块计算效率提升2倍。
四川农商联合银行科技部副总经理唐明剑也介绍,四川省农商行的很多分支机构都位于地震活动区,为了确保数据的安全可靠和业务运营的连续性,采用了“三地四中心五节点”的城市级多活容灾架构,OceanBase的分布式架构很好地匹配了四川农商行的需求,目前已有49个系统在OceanBase上稳定运行。
交通银行贷记卡系统的分布式改造,是其向全面分布式转型的关键一步,其中就包括在底层使用OceanBase,大大提升数据处理效率和系统可用性,金融TPS(每秒处理事务数)提升6倍、跑批效率提升超过7倍。
报告还认为,2024年将进入分布式数据库大规模部署阶段,分布式数据库厂商需要持续打磨核心功能、扩大生态建设、做好人才培养、做好金融行业差异化需求适配等。
好文章,需要你的鼓励
OpenAI发布ChatGPT新功能Pulse,可在用户睡眠期间生成个性化报告,提供5-10条简报帮助用户快速了解当日重要信息。该功能旨在让用户像查看社交媒体一样优先使用ChatGPT。Pulse首先向每月200美元的Pro订阅用户开放,未来计划扩展至所有用户。功能支持连接Gmail、日历等应用,可解析邮件、生成日程安排。报告以卡片形式展示,包含AI生成的图像和文本,涵盖新闻摘要、个性化建议等内容。
这项由谷歌DeepMind研究团队完成的开创性研究首次系统阐述了AI智能体经济的概念框架。研究提出"沙盒经济"模型,从起源性质和边界渗透性两个维度分析AI智能体经济形态,预测未来将出现自然涌现且高度透水的AI经济网络。研究详细探讨了科学加速、机器人协调、个人助手等应用场景,提出基于拍卖机制的公平资源分配方案和使命经济概念,并深入分析了技术基础设施需求、社区货币应用以及相关风险防范措施。
AI平台公司Clarifai发布新推理引擎,声称能让AI模型运行速度提升一倍,成本降低40%。该系统采用多种优化技术,从CUDA内核到高级推测解码,能在相同硬件上获得更强推理性能。第三方测试显示其在吞吐量和延迟方面创下行业最佳记录。该产品专门针对推理过程优化,特别适用于需要多步骤响应的智能体和推理模型。
中国人民大学研究团队提出LoFT方法,通过参数高效微调基础模型解决长尾半监督学习中的数据不平衡问题。该方法利用预训练模型的良好校准特性改进伪标签质量,并扩展出LoFT-OW版本处理开放世界场景。实验显示,仅使用传统方法1%的数据量就能取得更优性能,为AI公平性和实用性提供了新的解决方案。