当下,企业从数据中获取价值成为共识。通常我们可以从两个维度衡量企业数字化应用水平,分别是数据层面的及时性和实时性、分析和应用的就绪。
企业对数据的获取和掌握、使用越实时,业务、市场的决策就会越精准。在这种情况下,企业在数据分析方面会经历被动式、响应式、增强型、主动智能等阶段。
Qlik 大中华区及韩国区售前产品总监 张海鹏
Qlik大中华区及韩国区售前产品总监张海鹏告诉记者,在主动智能阶段,企业获取数据更实时,通过数据门户可以实现端到端的数据分析,并应用于业务系统。“对于Qlik来讲,我们是通过数据服务能力包释放数据的获取性,进而把数据递送到分析端,由分析服务能力为用户提供对数据的解读,包括仪表盘、预警、用户自由使用的自助功能,为接下来的数据使用提供行动支持。”
张海鹏表示,Qlik是一家帮助用户成功实现数字化转型的公司,理解客户的业务,并且把数据分析能力应用到日常决策,重塑流程,帮助用户降低成本,提高利润。
Qlik实现了广泛性的数据兼容,包括传统的数据库、数据仓库和SaaS应用,并可以实现增强分析(Augumented Analytics)、预警(Alerting)、Qlik AutoML和应用自动化(Application Automation)。
例如对个性化的业务目标,用户可以自主定义一个自己关心的数据预警,让一些异常值、异常点可以主动的触达到用户,实现更为主动的分析手段。
Qlik的增强分析体现在两个层面,一个是Qlik整合了机器学习算法,比如聚类、时间序列预测等,以及与云端的第三方机器学习服务进行集成;另一个就是通过Qlik AutoML,用户可以自动训练模型,并实现迭代发布。
Qlik对于机器学习的使用并不只是局限于展示层,而是放在整个平台里面,帮助用户快速上手BI,提升产品的易用性和自动化,并聚合算法实现数据洞察。
Qlik应用自动化可以将数据洞察发现作为线索,自动化触发下游业务系统,主动采取行动,帮助用户挽回业务损失,实现利润最大化。
Qlik的机器学习模型和自动训练的能力可以为数据科学团队和高级分析用户降低模型开发、迭代训练的成本和时间。这些预测模型可以和Qlik的分析模型进行无缝的连接,让业务分析人员近距离感受这些高级算法应用到业务领域的实际价值和魅力。
数字化创新其实是通过技术和数据驱动,实现业务流程和个性化体验的重新设计。这就要求对应的服务提供商具备开放和集成的能力,而Qlik平台支持开放API,与机器学习、LPA等进行整合。
“Qlik的智能能力可以自动实现数据关联,我们的增强分析功能更多聚焦在帮助用户自由分析数据,而不仅仅是一个简单的预测算法。”张海鹏说,“例如Qlik关联分析搜索体验可以帮助企业寻找更多销售机会。”
围绕主动智能的愿景,Qlik重点强化了机器学习训练、应用自动化等方面的能力,并瞄准三大目标——云、数据和客户。
具体来说,为了满足用户上云、云部署的需求,Qlik的产品也会适配这种变化;Qlik会强化数据功能,满足客户对数据安全性、数据掌控力的期待和需求;Qlik的主动智能愿景除了体现在产品上面,也体现在服务上面。Qlik拥有客户成功团队,包括培训人员、售后人员和咨询团队,帮助用户结合实际需求,将主动智能的能力应用在业务上面,实现业务目标。比如Qlik的洞察顾问通过问答形式帮助用户迅速解答很多商业问题,而无需预先购置很多仪表盘或者可视化。
“并不是每一个客户都需要主动智能,我们会倾听客户的痛点,并给出反馈和分析。最重要的是实施层面,我们会携手本地的合作伙伴,帮助用户把产品变成方案,成功将方案落地到项目中。”张海鹏说。
我们以中信建投证券股份有限公司(简称:中信建投)为例,为了向其用户提供实时资产展示功能,支持用户在中信建投App等渠道实时了解资金动态和资产状况,中信建投与Qlik、上海鼎馗信息科技有限公司(以下简称:鼎馗)合作,使用了Qlik Replicate数据实时同步解决方案。
通过该方案,中信建投能够快速、自动地将集中交易、黄金、场外交易市场(OTC)、股票期权、融资融券等系统中的数据复制到统一的大数据平台中,并进行数据分析,从而显著缩短了数据复制链路,实现亚秒级别的资产展示,有效提升了用户体验。
好文章,需要你的鼓励
新加坡国立大学研究人员开发出名为AiSee的可穿戴辅助设备,利用Meta的Llama模型帮助视障人士"看见"周围世界。该设备采用耳机形态,配备摄像头作为AI伴侣处理视觉信息。通过集成大语言模型,设备从简单物体识别升级为对话助手,用户可进行追问。设备运行代理AI框架,使用量化技术将Llama模型压缩至10-30亿参数在安卓设备上高效运行,支持离线处理敏感文档,保护用户隐私。
阿里达摩院联合浙江大学推出VideoRefer套件,这是首个能够精确理解视频中特定物体的AI系统。该系统不仅能识别整体场景,更能针对用户指定的任何物体进行详细分析和跨时间追踪。研究团队构建了包含70万样本的高质量数据集VideoRefer-700K,并设计了全面的评估体系VideoRefer-Bench。实验显示该技术在专业视频理解任务中显著超越现有方法,在安防监控、自动驾驶、视频编辑等领域具有广阔应用前景。
OpenAI推出新AI模型GPT-5-Codex,能够在无用户协助下完成数小时的编程任务。该模型是GPT-5的改进版本,使用额外编码数据训练。测试显示,GPT-5-Codex可独立工作超过7小时,能自动发现并修复编码错误。在重构基准测试中得分51.3%,比GPT高出17%以上。模型可根据任务难度调整处理时间,简单请求处理速度显著提升。目前已在ChatGPT付费计划中提供。
Sa2VA是由UC默塞德等高校联合开发的突破性AI系统,首次实现图像视频的统一理解与精确分割。通过巧妙融合SAM-2视频分割技术和LLaVA多模态对话能力,Sa2VA能够同时进行自然对话和像素级物体标注。研究团队还构建了包含7万多个复杂视频表达式的Ref-SAV数据集,显著提升了AI在长文本描述和复杂场景下的表现。实验显示,Sa2VA在多个基准测试中达到业界领先水平,为视频编辑、医疗诊断、智能监控等领域带来新的应用可能性。