6月11日-13日,OAGS2023 开放原子全球开源峰会在京举行。作为开源行业年度盛事,本次峰会以“开源赋能,普惠未来”为主题,聚集政、产、学、研等各领域优势,汇聚顶尖大咖,共话开源未来。浪潮KaiwuDB CTO 魏可伟受邀出席峰会并做《构建“快人一步”的AIoT数据库》主题分享,结合数据库技术中的分布式、HTAP、多模、AI4DB等关键技术潮流及物联网时代的创新数据场景,与在场行业专家、技术爱好者共同探讨数据库在新一波产业浪潮中的发展趋势。
(图:KaiwuDB CTO魏可伟发表主题演讲)
据数据显示,截至2022年全球共计拥有130亿台物联网(IoT)设备,且这一数字还在迅速增长,预计四年内完成翻倍。到2030年,全球预计将有3/4的“哑”设备实现联网。与此同时,所有的联网设备都有一个巨大的副产品——数据,这就意味着物联网将成为数据爆炸的奇点。IDC报告显示,物联网设备产生的数据从2013年的0.1ZB增长到2020年的4.4ZB,7年之内增长了50倍;这一数据将在2025年到达79.4ZB,增速惊人。魏可伟表示,创建和部署物联网设备的企业正在面临前所未有的数据管理能力挑战:他们不仅需要思考如何高效使用物联网设备,也要思考如何处理井喷式增长的物联网数据,包括海量时序数据采集,时序数据与事务数据集成,数据高效管理以便轻松访问调用,数据整合分析及可视化呈现等等,然而往往这种数据量级的存储和处理是传统数据管理方法无法负荷的。
KaiwuDB在实践中发现,物联网领域的数据管理场景不仅对数据库提出了海量时序数据处理需求、水平扩展需求、高基数的需求,还有与高价值关系型数据深度融合的需求,云边端协同的需求,快速响应进行实时控制的需求,用AI进行趋势分析及辅助决策的需求等等。作为一款分布式、多模、支持云边端协同的AIoT 数据库产品,KaiwuDB拥有"就地计算"专利技术,基于MMIO(内存映射)技术实现“所存即所用”,支持百万级数据秒级入库,千万记录查询毫秒级响应,1 秒完成20亿记录数据探索,10秒完成500万记录数据15层下钻,切实保障IoT场景海量时序数据的高速入库、急速查询。KaiwuDB多模架构支持时序数据、内存数据、关系型数据在同一数据库中统一存储、处理及AI智能分析,基于统一的算子和通信协议实现模型的自动选择和自动转换,可实现“以一当五”。同时,KaiwuDB还具有SQL支持、数据压缩、智能预计算、订阅发布、集群部署等特性,及高可用、低成本、易运维等特点。
从实践中来,到场景中去。魏可伟还分享了KaiwuDB牵手山东某重工企业联合打造的离散制造业IIoT解决方案,切实有效地帮助该集团厂区建设了统一设备数据采集服务能力、数据压缩及分级存储能力、设备运行状态实时分析、启停控制、循环参数调整能力等。帮助厂区形成工厂级数据共享机制,实现数据驱动运营管理效率的大幅提升。
履践致远,开物成务。作为国内数据库产业的新生力量,KaiwuDB挖掘AIoT领域需求,深耕物联网产业不断衍生的创新数据场景,努力成为更懂物联网的数据库;但又不止着眼于物联网,在国家政策关注的数字能源、数字政务、金融等多行业也已成功实现落地。在国内外开源生态大踏步发展的今天,KaiwuDB也将努力加强自身技术创新,携手生态内的伙伴探索更多可能性,推动数据库产业持续发展,共创数据新价值。
好文章,需要你的鼓励
树莓派基金会调查发现,尽管60%的家长认为编程是孩子的重要技能,但超过70%的家长表示孩子在正常课程中没有学习编程。该基金会CEO指出,随着AI技术快速发展,年轻人掌握技术理解和创造能力比以往更重要。超半数家长认为编程应成为必修课程,并相信学习编程能提升孩子未来职业前景。为填补学校教育空白,基金会呼吁在学校和图书馆广泛设立编程俱乐部,目标到2035年全球教授1000万儿童编程技能。
Patronus AI发布突破性研究,构建了首个系统性AI代理错误评估体系TRAIL,涵盖148个真实案例和21种错误类型。研究发现即使最先进的AI模型在复杂任务错误识别上准确率仅11%,揭示了当前AI代理系统在长文本处理、推理能力和自我监控方面的重大局限,为构建更可靠的AI系统指明方向。
文章介绍了AI大语言模型中最新的深度研究功能,这是目前最令人印象深刻的新功能之一。作者详细解析了ChatGPT、Claude和Gemini等主流模型的使用方法,并重点展示了深度研究功能的实际应用。通过实际测试,作者用ChatGPT 4.5的深度研究功能生成了一份关于1990-2025年最令人厌烦歌曲的详细报告,展示了AI如何通过思维链进行深度研究和分析。文章还提到了语音交互模式将进一步改变用户与AI的交互体验。
这项研究首次从理论和实践证明AI模型可通过模仿生物睡眠-学习周期显著提升性能。研究发现AI训练中存在自发的"记忆-压缩循环",并据此开发了GAPT算法,在大语言模型预训练中实现4.8%性能提升和70%表示效率改善,在算术泛化任务中提升35%,为AI发展指出了注重信息整理而非单纯数据扩展的新方向。