ZDNet至顶网软件频道消息:5月22日下午,第六届中国云计算大会大数据核心技术与应用论坛拉开帷幕。尽管加了几次椅子,仍有100名左右参会者站着或席地而坐,论坛的火爆程度可见一斑。会上,百度大数据部总监李钢江介绍了百度在大数据的不断探索和近期取得的新成果。
李钢江指出,行业在拥抱大数据时遭遇三大技术挑战:数据智能技术缺失、数据管理与挖掘技术缺乏及数据存储与计算规模瓶颈。大数据的发展离不开数据智能技术和管理平台的支撑,只有充分发掘数据的价值规模,才能满足各行业的不同需求。
李钢江分享了百度大数据引擎,它包括开放云、数据工厂、百度大脑三大核心组件。最底层是开放云,是大数据引擎运行的基础构件,通过分布各地的数据中心提供数据存储和分布式计算。中间部分是数据工厂,提供数据管理和分析能力。最上层是百度大脑,用来实现智能数据分析及预测功能。百度大脑融合了全球领先的深度学习算法、数据建模、大规模GPU并行化平台等技术,实现了无时无刻都在学习与成长,它拥有200亿个参数,构造起世界上最大的深度神经网络。
李钢江特别介绍了百度的大数据预测。今年春节期间,中央电视台《晚间新闻》与百度合作,首次启用百度地图定位可视化大数据播报了国内春节人口迁徙情况,该报道建立在百度推出的人口迁徙产品上。百度迁徙利用百度后台每天数十亿次基于地理位置的服务定位数据进行计算分析,展现了春节前后人口大迁徙的轨迹与特征。中国疾病预防控制中心与百度开展大数据合作,结合疾控大数据与百度大数据,借助大数据引擎的技术力量,建成中国首个流感预测系统,对流感进行预测,服务民生。而即将发布的百度高考预测,通过对近年高考作文题目及社会热点话题的分析,帮助考生预测高考题目,指导考生作文备战方向。
作为一家具备大数据基因的公司,百度自成立之初就开始就收集互联网数据。据悉,百度目前已在全国建立了多个大型数据中心,其中,北京、山西和内蒙三地数据处理器超过十万台,拥有70万个CPU和4000台舞台服务器,其数据中心位居亚洲首位。
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。