最近硅谷出现了至今为止最大规模的风险投资,AI数据分析平台Databricks宣布完成100亿美元J轮融资,估值将达620亿美元。
Databricks其实99%的营收仍来自数据业务,这也印证了PingCAP联合创始人兼CTO黄东旭一直坚信的观点,人工智能创新落地时都需要依靠现有数据技术来支撑。
人们日常使用ChatGPT主要是为了处理一些工作流程,但黄东旭相信AI的潜力远不止于此,它的真正影响力将基于个人数据的深度和广度,AI的核心在于使AI能够访问并有效利用你与世界互动所产生的数据。
Data+AI的发展速度已经远超预期。
向着TiDB One演进
2023年度PingCAP以97.9%的增长率,成为全球数据库管理系统市场增速最快的厂商。
黄东旭曾问一位美国付费客户的CIO,为什么选择PingCAP。他回答:“我知道分布式数据库是一个非常复杂的产品,没有完美的产品。但我能看到,如果遇到任何问题可以7x24小时随时找到你们,并且你们一定会在15分钟之内做出响应。”
其实,自2019年TiDB Cloud推出以来就充满挑战,到今年TiDB Cloud托管集群(Managed clusters)数量已超过5万个,单个客户集群规模已超过1.2PB,单个集群的表数量超过70万张,单个集群的峰值QPS(每秒查询率)超过260万次,这些都标志着TiDB Cloud 取得了跨越式的成长。
在生成式AI这个新物种诞生后,PingCAP从这一视角得到新的启示。
在黄东旭看来,让大模型真正发挥作用的只有一条路——RAG(Retrieval Augmented Generation,检索增强生成),但RAG的本质仍是数据业务,数据库也将成为下一波受AI影响最大的行业之一。
所以数据库的未来趋势将围绕四个关键要素:可扩展性(Scalability)、灵活性(Flexibility)、成本效益(Cost-effective)和简洁性(Simplicity)。
他谈到,十年前TiDB诞生时的核心目标是希望解决MySQL在面对数据量快速增长时所遇到的挑战。如今,PingCAP正着手构建新一代引擎,一个基于对象存储的OLTP(联机事务处理)引擎。并且下一代TiDB必须面向多租户场景,实现隔离和资源共享。
过去的数据库是一个独立的软件,而今天在云上重新设计系统时,它们变成了一组微服务的组合。黄东旭强调,现在已经没有“升级” 这一概念,因为每个模块都在自我迭代,只需保持Serverless接口的稳定性。
“与十年前不同的是,TiDB Cloud已经是一个天然的平台,PingCAP先要成为新一代TiDB的最大用户。”黄东旭说。
TiDB要逐步演进到TiDB One。
从企业核心场景到AI时代首选
TiDB的演进经历了四个阶段:2015-2019年,聚焦于产品和社区建设;2020-2021年,进入规模商业化并开始出海;2022-2024年,迈向云原生架构和平凯数据库的升级;从2024年至今,开启AI创新。
十年来,TiDB始终坚持“好用”和“稳定”两个核心标准。最近,PingCAP发布了TiDB最新的长周期支持版本——TiDB v8.5 LTS。
PingCAP研发副总裁唐刘表示,TiDB v8.5专注于企业级核心场景,尤其为中国金融行业的核心交易场景,提供更加稳定和可靠的解决方案。
稳定性方面,I/O抖动对系统的影响降至原来的十分之一,确保了用户业务的平稳运行;新增了基于资源组做业务划分和资源限定,保证关键业务稳定运行,驾驭复杂多业务合并场景。
性能方面,OLTP系统P99延迟降低了40%,分析类查询(TPC-H)的效率提升了50%;TiDB 在高频更新场景实现加速,数据扫描性能提升2倍,通用负载延迟降低50%;在大宽表场景实现了性能突破,点查性能提升20%,更新写入性能提升100%-500%;分区表全局索引提升分区键检索性能,某客户实际场景延迟降低了75%。
可扩展性方面,单库100 TB备份数据可在1小时恢复完成,降低容灾场景的RTO;高效动态扩缩容,TiDB扩容速度提升30%,快速响应突发业务负载变化;添加索引和数据导入性能随TiDB节点数量线性提升,支撑复杂任务的高效完成。
“我们期望TiDB在未来能够成为引领AI时代创新的首选分布式(云原生)数据库。”唐刘说。
PingCAP的发展路径非常清晰,立足国内,全球化发展。PingCAP总经理余梦杰强调,TiDB的优势可以用五个关键词形容:自主开源、架构先进、PB级扩展性、完善的异构数据库迁移能力和全场景能力。
未来“做深垂直、做强区域、做广生态”将成为PingCAP发展的核心逻辑,“深耕垂直”聚焦金融、运营商、能源、医疗、政企等行业,抓住即将爆发的增长机遇。“强化区域”重点关注出海民营企业,聚焦隐形冠军群体,扩大在大湾区、长三角等地的覆盖。“拓展生态”持续深化合作伙伴引入和共赢。
好文章,需要你的鼓励
谷歌发布新的AI学术搜索工具Scholar Labs,旨在回答详细研究问题。该工具使用AI识别查询中的主要话题和关系,目前仅对部分登录用户开放。与传统学术搜索不同,Scholar Labs不依赖引用次数或期刊影响因子等传统指标来筛选研究质量,而是通过分析文档全文、发表位置、作者信息及引用频次来排序。科学界对这种忽略传统质量评估方式的新方法持谨慎态度,认为研究者仍需保持对文献质量的最终判断权。
武汉大学研究团队提出DITING网络小说翻译评估框架,首次系统评估大型语言模型在网络小说翻译方面的表现。该研究构建了六维评估体系和AgentEval多智能体评估方法,发现中国训练的模型在文化理解方面具有优势,DeepSeek-V3表现最佳。研究揭示了AI翻译在文化适应和创意表达方面的挑战,为未来发展指明方向。
Meta发布第三代SAM(分割一切模型)系列AI模型,专注于视觉智能而非语言处理。该模型擅长物体检测,能够精确识别图像和视频中的特定对象。SAM 3在海量图像视频数据集上训练,可通过点击或文本描述准确标识目标物体。Meta将其应用于Instagram编辑工具和Facebook市场功能改进。在野生动物保护方面,SAM 3与保护组织合作分析超万台摄像头捕获的动物视频,成功识别百余种物种,为生态研究提供重要技术支持。
参数实验室等机构联合发布的Dr.LLM技术,通过为大型语言模型配备智能路由器,让AI能根据问题复杂度动态选择计算路径。该系统仅用4000个训练样本和极少参数,就实现了准确率提升3.4%同时节省计算资源的突破,在多个任务上表现出色且具有强泛化能力,为AI效率优化开辟新方向。