IBM正在不断提升其数据质量能力,今天宣布将收购一家名为Databand.ai的公司,交易金额未对外公布。
Databand.ai是一家数据可观察性软件的提供商,其软件可以帮助企业解决任何数据相关问题,例如错误、管道故障和质量差等问题。
IBM表示,当企业越来越依赖大量信息为业务决策提供支撑的同时,数据质量也变成了企业面临的一个大问题,企业需要一种方法来了解系统中数据的健康状况,以便他们能够在这些问题影响业务之前就发现问题并对其进行修复。
所谓“坏数据”是指不准确或者不完整的数据可能会导致人工智能系统和用于评估特定产品需求的预测模型等服务出现巨大的问题。如果导入这种系统中的数据存在缺陷,那么由此生成的结果就是不可信的,因此就需要数据可观察性工具来确保信息的质量不受影响。
对于大型企业来说,坏数据是一个大问题。据Gartner估计,企业组织平均每年在解决坏数据问题上的花费高达1290万美元。
Databand.ai是数据可观察性领域的一个领先者,它使用历史趋势来计算有关数据工作负载和数据管道的统计数据,以确定这些数据是否被恰当使用以及是否可能存在问题。IBM表示,Databand.ai采用了一种开放且可扩展的数据可观察性方法,可以轻松集成到现有数据基础设施中。
IBM计划将Databand.ai的工具和IBM Observability by Instana APM以及IBM Watson Studio等服务相结合,增强在数据可观察性领域的现有能力。例如,Databand.ai可以提醒团队出现数据不完整或数据缺失等问题。
然后,该团队可以使用Instana找出丢失数据的来源,以及导致应用或服务出现故障的原因。IBM表示,通过同时使用这两种工具,客户可以更全面地了解应用基础设施和数据管道,从而更容易解决任何问题。
Constellation Research分析师Dough Henschen解释说,坏数据对企业来说仍然是一个非常现实的挑战,主要问题之一就是随着生成数据的系统发生变化或故障,“好数据也会变成坏数据”。
“数据可观察性是一种不断发展变化的方法,其中信息不仅仅是作为准备或转换过程的一部分被清理,相反,它会持续地监控和跟踪数据质量,并主动提醒下游系统的所有者、管理者和用户采取预防或补救措施,以便在动态环境中出现问题时让数据质量回归正轨。”
IBM公司数据和人工智能总经理Daniel Hernandez表示,IBM有很多客户都是数据驱动型企业,他们依靠高质量的、可信赖的信息来为他们的关键任务流程和应用提供动力。
Hernandez说:“如果他们无法访问所需的数据,业务可能就会陷入停滞。随着Databand.ai的加入,IBM将为IT跨应用、数据和机器学习提供最全面的可观察性功能组合。”
这家位于以色列特拉维夫的公司将归属于IBM数据和人工智能业务部门,该部门还包括了IBM Watson和IBM Cloud Pak for Data,Databand.ai的工具将以软件即服务或者自托管软件订阅的方式提供给客户。
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。