数据库,是和芯片、操作系统并列的现代信息技术领域的三大核心基础之一,是基础软件“皇冠上的明珠”。
OceanBase作为蚂蚁集团100%自研原生分布式数据库,自2010年开始投入研发,目前已支持支付宝全部核心账务、核心支付系统,连续10+年稳定支撑双11。
11月16日,在OceanBase2023年度发布会上,OceanBase CEO杨冰宣布,OceanBase将持续践行“一体化”产品战略,为关键业务负载打造分布式数据库。
同时,会上发布一体化数据库的首个长期支持版本OceanBase 4.2.1 LTS,标志着OceanBase一体化数据库进入可规模化上线使用的长期支持阶段。
用一个数据库解决80%的问题
杨冰表示,从OceanBase诞生的第一天起,实践的就是“一体化”产品理念,把复杂留给自己、把简单留给客户。在OceanBase过去13年产品技术演进中,一体化的理念贯穿于整个发展历程,通过分布式架构底座将多个关键能力融合到一个引擎和一套数据库。
OceanBase注意到,在数据库的实际应用中,客户往往面临着业务规模增长、业务场景变多、IT架构应用渐趋复杂的难题,造成数据库越用越多、越用越复杂的现状,而一体化设计的数据库能有效解决相关问题。
OceanBase专注于OLTP场景,从2010年开始逐步实现工程一体化、TP/AP一体化、云上云下一体化、单机分布式一体化。目前通过一个数据库、一套架构、一份数据、一个技术栈、一个引擎的方式,打造了满足现代数据架构需求的多模态、多兼容模式、多租户、多工作负载、多基础设施等核心能力,用一个数据库满足客户80%的数据库场景需求,为用户提供简化复杂性的全新可能性。
“一体化”产品,追求分布式架构下的极致性能与最佳成本。既能实现同等硬件条件下,比主流单机数据库提供更好的性能,也能实现分布式架构下事务处理和实时分析的最佳性能。此外,统一的技术栈,也最小化了管理成本,大大降低架构成本、存储成本、运维成本、管理成本。
国际咨询机构Forrester《OceanBase总体经济影响报告》的数据显示,采用OceanBase后,企业数据存储空间节约70%、服务器资源节约85%、平均每注册用户数据库成本节约50%,且呈现逐渐成本节约递增的趋势,越用越便宜。此外,单机分布式一体化在单机形态、硬件成本以及迁移学习成本上也有着显著的优势。
杨冰指出,一体化数据库可以通过对不同场景的“求解公约数”找到相同问题,提供统一解决的办法,但在一些复杂场景下,专业版本的数据库仍会更有优势。
一体化数据库4.2.1 LTS发布
2022年8月,OceanBase发布了业内首个单机分布式一体化数据库OceanBase 4.0 小鱼,有效兼顾了分布式架构的扩展性与集中式架构的性能优势,首次突破了分布式数据库的单机性能瓶颈,既可以实现单机部署、又可以在单机部署下实现分布式部署的完整功能。在同等硬件条件下实现单机性能赶超集中式数据库,帮助用户极大地降低了分布式数据库的使用门槛。
此次发布会上,OceanBase继续沿着“一体化”产品战略思路,发布一体化数据库的首个长期支持版本——OceanBase 4.2.1 LTS。
OceanBase CTO 杨传辉介绍,4.2.1 LTS标志着OceanBase一体化数据库进入可规模化上线使用的长期支持阶段。4.2.1 LTS是面向OLTP核心场景的里程碑版本,具备OLTP的完整功能,相比3.2版本有更强的OLTP、OLAP性能,相比传统容灾提供更具性价比的仲裁无损容灾方案,可通过2个副本实现RPO=0。
此外,在列存能力上,OceanBase也带来了其最新进展。随着数字化转型进程的加速,越来越多企业在强调OLTP性能的典型HTAP场景中,迫切需要确保在高性能OLTP的基础上,获得更为迅速的实时分析能力,融合行存、列存、行列混存的一体化存储引擎正可以满足这一需要。
本次发布会上,OceanBase将列存实验室版本带到了现场,与业内一流的大宽表数据库ClickHouse现场进行了跑分PK。结果显示,在同等硬件条件下,OceanBase的性能达到了ClickHouse的同一水平。
杨传辉介绍,围绕“一体化”的产品战略,OceanBase未来还将持续推出针对列存、存算分离的一体化数据库版本,为客户提供更为完善的数据库服务。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。