至顶网软件频道消息: 2月1日,英国知名创新生物制药公司阿斯利康与中国互联网巨头腾讯在北京签署战略合作备忘录,依托以大数据为驱动的互联网技术,精准打击药品网络制假售假,共同打造“智慧健康”下的网络安全治理新模式。这一合作也是阿斯利康切实践行以“患者为中心”的理念,助力实现“健康中国”目标的重要举措。此次战略合作的签署恰逢大不列颠及北爱尔兰联合王国首相特雷莎·梅女士首次正式访问中国, 阿斯利康全球首席执行官苏博科(Pascal Soriot)先生受邀作为英国商务代表团、中英企业家委员会成员,随同特雷莎·梅首相访华,推动并见证中英医疗健康领域的合作迈出“智慧”的一步。
根据战略合作备忘录,双方将基于腾讯安全联合实验室全球领先的技术及强大的社交应用场景,携手共创以大数据为基础的药品打假创新合作模式,用新科技、新联盟和新生态抗击药品制假、售假,加强知识产权保护,充分保障公众的药品使用安全及合法权益。这也成为中国首个互联网平台与国际医药企业合作开展药品打假的范例。
腾讯副总裁马斌先生表示:“腾讯的云计算、物联网、大数据等技术解决方案不断为民生、商业、公益等方面创造便利和新的可能性。我们将依托腾讯安全联合实验室旗下反诈骗实验室强大的大数据优势技术与阿斯利康在医疗领域的经验有机结合,发挥各自优势密切配合,共建并深化在打假协作、信息共享、案件会商、鉴定绿色通道以及与执法部门的联络等方面的机制,有效打击药品制假售假、保护知识产权,形成合力共同维护患者健康及用药权益,为‘智慧健康’保驾护航。”
阿斯利康全球执行副总裁、国际业务及中国总裁王磊先生表示:“智慧健康是实现‘健康中国’目标的有力支撑,而安全用药是构建智慧健康的基石。阿斯利康坚持‘以患者为中心’,携手中国互联网巨擎腾讯,运用更前沿的大数据互联网手段,通过积极治理为中国患者带来安全、可靠的药物,切实高效地保障患者的用药权益。我们与腾讯的通力合作,也将进一步增进阿斯利康对中国知识产权保护的贡献,推动中国智慧健康良性有序地发展。”
2018年是阿斯利康进入中国的第25周年。得益于中英两国长期的友好关系及中国良好的知识产权保护环境,阿斯利康已将约30种创新药物带到中国,在华累计投入7.5亿美元用于创新药物研发,并通过合作创新模式提升本土新药研发能力。此外,阿斯利康还积极配合政府部门开展药品打假整治行动,保障患者用药安全。目前,中国已成为阿斯利康全球第二大市场。
阿斯利康全球首席执行官苏博科先生表示,“中国对阿斯利康具有重要的战略意义。阿斯利康根植中国25年,在创新、商业和生产领域具有广泛而长足的发展。 作为阿斯利康全球的第二大市场,中国拥有积极的医疗健康政策和对创新药物不断增长的需求,在阿斯利康全球版图中发挥越来越大的作用。我们携手中国政府和本土领先企业,在研发和数字技术方面开展多元化的合作,致力于加速创新能力的提升,更好地服务中国乃至全球的患者,共同塑造中国医疗健康的未来。我很高兴作为英国商务代表团的一员,能够为中英两国拥抱巨大机遇贡献力量,共同探索世界级的医疗健康科技、制定协同的医疗政策和制度,从而更好地满足患者的医疗健康需求。”
好文章,需要你的鼓励
亚利桑那州立大学的研究团队开发了RefEdit,这是一种新型图像编辑AI系统,能够准确理解和处理指代表达(如"中间那个人"、"右边的猫")。通过创建RefEdit-Bench基准测试,研究者们证明现有模型在多物体场景中表现不佳。他们设计了一种创新的数据生成流程,仅用2万样本就训练出的RefEdit模型超越了使用数百万样本训练的大型模型。这一突破使AI图像编辑在复杂场景中更加精确和实用。
这项研究提出了Critique-GRPO,一种创新的在线强化学习框架,将自然语言批评与数字反馈相结合,克服了传统仅用数字反馈的三大局限:性能瓶颈、自我反思效果有限和顽固性失败。实验表明,该方法使大语言模型能够从错误中学习并改进,在八项数学和通用推理任务中,将Qwen2.5-7B和Qwen3-8B模型的平均通过率分别提高了约4.5%和5%,超越了包括那些引入专家示范的方法。研究还揭示,高熵探索和长回答并不总是最有效的学习方式,质量更重要。这一方法为大语言模型的自我提升能力开辟了新路径。
这篇研究介绍了"量化LLM评价者",一个创新框架,能使大型语言模型(LLM)在评估其他AI输出时更接近人类判断。由麻省理工和Adobe联合研发的这一方法,将评估过程分为两个阶段:先让LLM生成文本评价,再用轻量级机器学习模型将这些评价转化为更准确的数值评分。研究提出了四种评价者模型,适用于不同评估场景,实验表明它们不仅能显著提高评分准确性,还比传统微调方法更节省计算资源。这一框架特别适合人类反馈有限的场景,为AI评估领域开辟了高效且可解释的新路径。
这项研究由IDEA、华南理工大学和北京大学联合开发的Rex-Thinker系统,通过模仿人类的链式思考方式来解决物体指代问题。与传统直接输出边界框的方法不同,它采用规划-行动-总结的三步骤推理,使AI能像人类一样逐步分析图像中的候选物体,并在找不到匹配物体时拒绝作答。通过构建90,824样本的HumanRef-CoT数据集和两阶段训练方法,系统在精度、可解释性和泛化能力上均取得了显著进步。