12月29日,openGauss Summit 2022于线上举行。本次大会是由openGauss开源数据库社区联合行业组织、伙伴及客户共同举办的一场年度数据库产业界交流与分享峰会。天津南大通用数据技术股份有限公司(简称:GBASE)首次以openGauss社区理事单位身份参与峰会,并全力协助、承办 “分布式数据库技术与实践” 分论坛。
openGauss作为面向企业核心应用场景的开源数据库,开源两年来,与产业界聚力创新,携手前行。在技术、商业、生态、社区和人才方面取得了令人瞩目的成绩。从数据出发为企业数字化转型提供了强大的动能。

openGauss社区理事会升级仪式
openGauss社区理事会是社区决策机构和领导机构,理事会将严格执行相关职责,制定社区发展战略,促进社区成员之间的沟通和深入协作,本次GBASE加入社区理事会后将携手理事单位努力推动社区的生态和发展,致力于将openGauss打造成最好的企业级开源数据库。
本次峰会邀请学术专家、行业组织、企业客户、生态伙伴和社区贡献者,共同探讨数据库创新发展新路径、交流数据生态建设的新思维、分享企业数字化转型的新成果,共同加速推动开源数据库产业向前发展。
GBASE分论坛邀请openGauss社区秘书长 胡正策开场致辞,GBase 8c产品部长王薇、产品总监李凯、渤海银行信息科技部生产运行中心副主任首席数据库专家王飞鹏、同方软银平台研发部经理荣玉鹏、信雅达科技有限公司产品总监王斑、时代亿信方案中心总经理沙勇多位客户代表、数据库技术专家、合作伙伴代表,围绕鲲鹏生态建设、分布式数据库联合其他数据应用产品的落地实践展开讨论。
GBASE分论坛:分布式数据库技术与实践
与时俱进 一专多能——GBase 8c顺应分布式数据库发展趋势
GBase 8c产品部长王薇以分布式数据库的演进为切入点,分析发展趋势。GBase 8c厚积薄发,是一款基于openGauss3.0构建的多模多态分布式数据库,支持行存、列存、内存等多种存储模式,支持单机、主备式、分布式等多种部署形态。GBase 8c具备高性能、高可用、弹性伸缩、高安全性等特性,可以部署在物理机、虚拟机、容器、私有云和公有云,为关键行业核心系统、互联网业务系统和政企业务系统提供安全、稳定、可靠的数据存储和管理服务。
● 多存储引擎可对传统的事务型或者高并发高可用的场景,以及HTAP这种混合业务,包括精准高效的风控的场景。未来逐步加入嵌入式、时序等特性,支撑物联网等更多场景。
● 多部署形态为用户提供了灵活的资源部署方案,根据自身IT基础设施建设情况,结合性能、便捷、安全等需求的综合考量,按需进行配置。在业务扩张或低峰的情况下,可以水平扩容或缩容。

分布式数据库核心技术及实践
一款商用可落地的分布式数据库应具备哪些核心技术点?如何将技术和商业价值融合、均衡?在性能优化、事务处理、数据分布、分布式特性、高可用、运维管理核心技术方面,GBase 8c给出一份精彩的答卷。GBase 8c产品总监李凯围绕这些核心技术点,以分布式实践为例展开演讲。

● 数据分布策略
GBase 8c支持复制表和分布表,通过数据分布策略来避免并行计算期间的资源竞争,同时提升系统性能。
● 自适应事务处理机制
GBase 8c采用自适应的事务处理机制来提升系统性能。对于本地事务,协调器按本地事务处理流程进行处理;对于跨节点事务,协调器协调参与者进行两阶段提交,以保障全局事务的一致性。整个事务处理的流程对客户端透明。
● 全局死锁处理
在GBase 8c数据库中,节点间检测出死锁环之后,将首个发现死锁环节点的事务退出的操作,从而解决全局死锁的问题。
此次openGauss Summit 2022,GBASE全方位展示了多模多态分布式数据库GBase 8c在技术服务、解决方案、行业应用、生态建设等方面的丰硕积累。作为国产数据库领先企业,未来,GBASE将携手openGauss,不断积累技术底蕴,发挥创新力量,持续为金融、电信、能源、政务、交通等重点领域数字化转型赋能,为国产数据库建设贡献GBASE力量。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。