要确保决策正确、科学从来就不是一件容易的事情,不过在有了大量数据的支持下,这个工作变得容易了一些。实际上,数据扮演着越来越重要的角,已经成为决策过程中的重要依据。
日前,北京百分点信息科技有限公司(以下简称百分点)在“数博发布”活动中全新发布了“智能政府决策系统(DeepGovernor)”。该系统由百分点自主研发,核心功能包括数据融合治理、全局态势感知、自由数据探索分析、预测预警和数据共享,能够支持智能交互式增强分析,实现对决策业务进行事前判断、事中控制和事后反馈,可以帮助政府相关部门进行科学决策。
充分理解政务业务
近几年,不少城市在推进智慧城市建设,一些城市还发起了“城市大脑计划”。实际上,不管是“智慧城市”还是“城市大脑”,最基础的还是数据,没有数据的支持就不能做到数据驱动决策,所谓智慧城市、城市大脑等也将是空中楼阁。
不过,要真正做到数据驱动难度却不小。就城市而言,相关数据林林种种、不甚枚举,有些来自于政府内部的一些业务系统,有些来自于互联网,有些甚至来自于居民手工填报的报表,要将这些数据汇总,本身就是一件非常困难的事情。另一方面,很多数据都有自己的标准、规范要遵循,其中有国家标准、省标准还有行业标准。
作为面向政府行业的智能辅助决策系统,首先要去理解这些标准、规范,并基于它们去打通数据资源,通过这些数据资源获取各类型的数据来支持应用。
百分点CTO刘译璟介绍说,对于大多数智能辅助决策系统而言,底层的技术都差不多,不能说谁比谁强,而真正好的系统是,能理解政府的业务和与业务有关的各种数据的含义,然后基于这个理解真正满足客户的需求。
“如果脱离了政务业务,这样的系统只能说是一个技术平台。只有结合政务场景,构建结合业务的数据模型,系统才能更好地支持应用。因此,了解业务是系统的难点和关键。”刘译璟表示。
刘译璟介绍说,百分点将数据智能技术和产品不断在数字政府领域落地实践,之前也遇到了比较多的困难。比如,政务内网数据的交换,各个委办局都希望数据不出门,只有在用到时才进行一些小范围的交换和共享。为此,百分点不断改造自己的系统以支持类似的数据交换需求。
在接受采访时,刘译璟特别强调了技术与业务的融合。他说,“我们需要把业务、数据、模型、交互以及技术融合在一起,才能真的创造价值。如果只是一个通用技术,无法解决实际问题,客户也不会为此买单的。”
平台级的智能决策系统
智能政府决策系统(DeepGovernor)是基于百分点多年来对行业的理解沉淀出来的一个平台级产品,其核心是端到端的拉通业务、数据、模型和交互,支持万亿级多源异构数据接入、治理、融合和应用,结合动态知识图谱、NLP、增强分析实现数据深度分析,帮助用户自由探索和分析数据价值并作出科学决策。
刘译璟说,除了对数字政府业务有深入的理解,了解政务数据如何收集、如何治理,以及如何应用这些特点外,智能政府决策系统(DeepGovernor)在技术层面也有着自己的优势——融合大数据和AI于一体。
“比如,在大数据方面,系统能实现数据全生命周期的管理,并且整个技术平台完全以可视化的方式展现,很易理解和操作。其次,系统还通过知识图谱等技术把数据转变成业务知识,让数据真正应用起来。”他说。
具体来说,智能政府决策系统可以支持万亿级别的异构数据,除了结构化数据也可以是文本、视频、音频等等一些非结构化的数据,而且还能进行可视化的操作。其次,系统基于数据构建出知识图谱,并在这基础上进行交互问答。特别是,通过交互式的分析,用户可以在业务需求不明确的情况,就可以通过问答等方式对数据进行挖掘和处理。
另外,平台支持多人协同分析。比如,今天某工作没有完成,第二天可以继续基于这些状态进行深层次的分析,或者把任务拆解成不同的任务,让更多的人帮助分析。
最后,系统能结合大数据和人工智能技术,融合跨领域多源异构的政务数据,快速智能地把技术的数据转化成业务知识,用来支持政务数据处理、分析和决策的各个环节,最终为数字政府的建设赋能。
数据智能5大发展趋势
疫情爆发后让人们再次看到了数据智能的价值,比如通过大数据掌握城市人群的流动趋势,为政府疫情防控决策提供依据。
更多的应用将有利于进一步推动技术的进步,刘译璟说介绍,“在疫情之前,数据智能技术在商业环境已经得到广泛用。但在这次疫情之后,我们相信大家将越来越多地看到数据智能在整个的社会治理、政府决策中会越发挥越来越多、越来越大的作用。”
他认为,数据智能的将有以下5个趋势:
第一,在数据治理中,不仅有结构化数据,还要处理更多的包括文本、图片、视频等非结构化数据,这就是“多模态的数据融合”。
第二,越来越多的应用会强调实时性。比如,城市的态势感知、对自然灾害的预测预警、自动驾驶等,这些应用对数据采集和分析的实时性要求会越来越高,这就要求整个技术平台可以实时地进行数据的收集和分析。
第三,交互性越来越重要。刘译璟说,未来会有越来越多的业务人员来进行分析、决策,也就是说要让业务人员能看到数据、能跟数据对话、去交互、去分析,而不必通过技术人员。这对系统的易用性、可操作性提出了新的要求。
第四,整个系统有越来越多的自主性。当整个数据分析越来越实时、决策频率越来越高的时候,就要尽可能减少人工的参与,也就是说系统要有更多的自主性。比如,疫情期间的巡逻机器人、送药消毒机器人等,自主性要求很高。
第五,数据的隐私保护不可忽视。很多系统会涉及很多不同来源的数据,这些数据如何合理安全的使用,这是一个很重要的问题。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。