9月27日,2021中关村论坛新技术新产品首发与推介大会“人工智能和智能制造专场”活动在北京成功举办,百分点科技作为特约首发企业正式发布了“新一代数据智能决策系统DeepMatrix 3.0”。
百分点科技CTO刘译璟在演讲中表示,基于DeepMatrix3.0,可以构建一系列行业解决方案,将数据转化为价值,满足政府和企业的数字化转型和智能化升级的应用需求。
产品再升级,DeepMatrix 3.0正式发布
数据智能在行业逐步落地中,只有数据、技术和业务三者进行融合创新,将技术化的数据转变为行业知识,而后驱动智能化应用,为业务提供从感知、认知、决策到行动的闭环,才能让政府和企业实现全面的数字化和智能化转型。
基于这个理念,百分点科技在2017年发布了首个行业AI决策系统DeepMatrix,并在算力、数据、算法三重因素的驱动下,DeepMatrix2.0进一步强化了多项认知智能技术。经过多年在行业的成功实践,百分点科技基于探索出的行业落地新范式,正式推出新一代数据智能决策系统DeepMatrix 3.0。其主要包括数据中台、知识中台、AI中台和智能应用四个功能模块,使系统相应地具备智能化的数据治理、高效的行业知识构建、预置多个行业的预训练模型和多样式的数据分析应用四大优势,并且四个模块相辅相成,最终打通端到端的数据智能价值闭环。
数据中台:在原有的大数据技术平台、数据资产管理平台、资源服务平台之上,增加了基于元数据的智能数据探查,替代人工数据盘点,提升数据接入与数据治理的实施效率;
知识中台:一站式知识图谱生命周期管理,覆盖知识获取、知识构建、知识治理、知识融合、知识服务多个环节;
AI中台:预置应急、媒体等多个行业的预训练模型,包含文本数据标注和模型开发两大功能,支持从数据标注、模型设计到模型发布的一站式服务,实现可视化全生命周期的管理;
智能应用:升级标签管理、商业智能分析、知识图谱分析、智能搜索分析、智能对话和智能审校六大应用,帮助社会精细治理和企业高效运行。
刘译璟介绍,升级后的系统融合了大数据与人工智能技术,依托“数据-知识-应用”和“感知-认知-决策-行动”的双闭环理念,具有大规模多源异构数据的治理和分析能力,全链路的自动化知识图谱构建和管理能力,以及AI能力引擎和行业算法模型库,面向社会治理和企业数字化转型场景的行业智能决策能力,可以满足客户在不同阶段的数字化转型和智能化升级的应用需求。
目前,百分点新一代数据智能决策系统DeepMatrix 3.0已在数字城市、应急管理、公共安全、生态环境、媒体出版、零售等多个行业应用,服务于公安部、应急管理部、中国环境监测总站、国家市场监管总局等部委单位,并支撑北京、湖北、广东、广西、山东、深圳、丽江、常州和苏州等省市级数字政府建设,同时帮助中免集团、王府井集团、新华社、人民出版社等客户进行数智化转型。
《生态环境数据治理白皮书》首次公开
近年来,生态环境质量已经成为影响人们生活幸福的重要指标,然而面对生态环境数据质量不高、资源分散、数据共享程度不足等问题,如何提高生态环境的数据利用水平,是国家各级相关主管部门在开展生态环境数据治理工作中必须面对的挑战。
为了改进生态环境数据质量并形成数据资产,使数据进行互通共享为业务赋能,百分点科技依托领先的数据治理能力和多年实践经验,在此次论坛上特别发布了《生态环境数据治理白皮书》(以下简称白皮书),旨在解决四个核心问题:如何构建并积累生态环境“全”“统”“通”的数据资产;如何不断优化数据质量,提升数据资产含金量;如何实现数据资产共享流通,高效便捷地满足各方数据需求;如何通过赋能中心夯实智能决策的数据基础,满足国家精准治污、科学治污、依法治污的要求,实现多方位提升环境治理水平。
百分点科技智慧政务产品与服务部总经理贾喜顺介绍,白皮书分为业务梳理、数据标准、主题域模型、数据质量、指标体系和赋能中心六大部分,围绕生态环境行业涉及到的管理职责、业务流转流程和业务重点等方面进行梳理,形成相关的数据标准、数据质量的规则、主题模型和数据指标等,最终指导业务决策,打造业务闭环。
贾喜顺表示,通过此次白皮书的公开发布,可以帮助生态环境管理部门相关人员、政府大数据管理部门相关人员、生态环境相关科技企业和高校,以及科研机构的相关人员更好地开展数据治理工作,提高生态环境精细化管理服务水平。
百分点科技希望通过中关村论坛的新技术新产品首发平台,促进与行业合作伙伴、专家学者们的深入交流和合作,更好地用数据智能技术赋能行业实践,服务更多政府和企业进行智能化转型。
好文章,需要你的鼓励
这项研究介绍了一种名为FlowPathAgent的神经符号代理系统,用于解决流程图归因问题。研究团队提出了流程图精细归因这一新任务,构建了FlowExplainBench评估基准,并开发了结合视觉分割、符号图构建和基于代理的图形推理的方法。实验表明,该方法在归因准确性上比现有基线提高了10-14%,特别在处理复杂流程图时表现出色,为提升人工智能系统在处理结构化视觉-文本信息时的可靠性和可解释性提供了新途径。
这项研究首次从神经元层面揭示了大型语言模型(LLM)评估中的"数据污染"机制。研究团队发现当模型在训练中接触过测试数据时,会形成特定的"捷径神经元",使模型无需真正理解问题就能给出正确答案。他们提出了一种新方法,通过识别并抑制这些神经元(仅占模型总神经元的约1%),成功恢复了模型的真实能力表现。实验证明,该方法与权威可信基准测试结果高度一致(相关系数>0.95),并在不同基准和参数设置下都表现出色,为解决LLM评估可信度问题提供了低成本且有效的解决方案。
这份来自向量研究所、康奈尔大学和格罗宁根大学研究团队的综述分析了基于大语言模型的代理型多智能体系统中的信任、风险和安全管理框架(TRiSM)。研究系统地探讨了代理型AI从概念基础到安全挑战,提出了包含治理、可解释性、模型运营和隐私/安全四大支柱的TRiSM框架。文章还详细分析了威胁向量、风险分类,并通过真实案例研究展示了潜在脆弱性。
这项研究提出了一种名为ConfiG的创新方法,通过生成针对性的数据增强样本来解决知识蒸馏中的协变量偏移问题。研究团队利用教师模型和学生模型之间的预测差异,引导扩散模型生成那些能挑战学生模型的样本,从而减少模型对训练数据中欺骗性特征的依赖。实验表明,该方法在CelebA、SpuCo Birds和Spurious ImageNet数据集上显著提升了模型在缺失组别上的性能,为资源受限环境下的AI应用提供了实用解决方案。