3月20日,华为中国合作伙伴大会2025在深圳隆重举行。大会以“因聚而生,众智有为”为主题,旨在凝聚华为和伙伴们的智慧,强健“伙伴+华为”的合作伙伴体系,一起抓住智能化的巨大机遇,加速客户智能化进程,与伙伴携手共赢智能未来。
人类已进入AI时代,通用人工智能正加速到来。首先,人工智能在深度思考、思维链、多模态融合等技术上实现明显突破,AI能力正在走向从量变到质变;其次,AI推理迎来爆发式增长,推理的快速发展拓宽了智能化的广度,生成式AI的日均Token数已达到十万亿,MoE架构模型也在加速普及,需依托大规模算力集群才能完全释放潜能;另一方面,AI应用正重塑企业,大模型能力的跃迁和推理的爆发,为企业全面智能化铺平了道路,AI to B的奇点时刻已经到来。未来,企业的竞争力将取决于“和AI共生的能力”。
会上,华为常务董事、ICT基础设施业务管理委员会主任汪涛在《因聚而生,众智有为》的主题演讲中表示,为迎接通用人工智能时代的到来,华为推进全面智能化战略,使能百模千态,赋能千行万业。面向客户的不同场景,华为和合作伙伴一起,提供从训练到推理的全系列产品,满足多样性AI算力需求;携手伙伴繁荣昇腾AI生态,构建基于AI算力使能平台CANN等基础软件生态,依托丰富的工具链、加速库、开发套件,使能伙伴与开发者更好地开展应用创新;华为支持大模型“百花齐放”,持续投入自研盘古大模型,同时积极拥抱业界优秀的大模型;用AI赋能华为产品、优化内部运营和管理。华为将持续构筑开放的生态,携手客户、伙伴与开发者,将技术与客户场景相结合,助力千行万业加速智能化转型。
华为常务董事、ICT基础设施业务管理委员会主任 汪涛
汪涛表示,为抓住行业智能化的巨大机遇,华为坚持“一个深耕,两个扩张”的企业业务战略,以客户分类为龙头,匹配相应的组织阵型、资源配置、伙伴体系、产品与解决方案,与伙伴共成长。同时,华为进一步升级“伙伴+华为”的合作伙伴体系,优化伙伴政策与合作模式,提升伙伴能力,发展伙伴“同路人”,让客户满意,与伙伴共赢。
汪涛强调:“过去几年,我们共同见证了华为中国政企业务和伙伴业绩的成长,这也夯实了我们深化合作的基础。人工智能的时代大潮已奔涌而来,华为愿与伙伴继续在智能化的浩荡长河中并肩前行,共赢智能未来。”
面对行业智能化浪潮,华为高级副总裁、ICT销售与服务总裁李鹏指出,华为将围绕一个伙伴体系、两类合作场景、三种能力支持帮助伙伴加速构建体系化能力,共同为客户创造价值。全面智能化时代正在加速到来,华为将携手伙伴与行业客户一起持续联合创新,将先进的技术与行业场景深度融合,打造领先的产品与行业解决方案,助力千行万业跨越技术鸿沟,共赢全面智能化时代。
华为高级副总裁、ICT销售与服务总裁 李鹏
围绕“伙伴+华为”体系建设,华为中国政企业务总裁吴辉在会上表示,因聚而生,聚的是志同道合;众智有为,为的是千行万业。开放紧密成长的“伙伴+华为”体系,需要与更多“同路人”一起,以客户为中心,互投入,聚资源,让体系更强健,让千行万业跨越数智鸿沟迈入智能世界。
华为中国政企业务总裁 吴辉
华为中国政企业务副总裁许超表示,华为将践行以客户为中心进行价值创造,沿客户数智化旅程分工协同,围绕行业场景共建能力,持续投入追求合作有序,共筑以客户为中心的“伙伴+华为”体系,与客户共同跨越数智鸿沟,携手共赢AI新时代。
华为中国政企业务副总裁 许超
上海华讯网络系统有限公司作为合作伙伴代表,就华为如何帮助伙伴赋能千行万业智能化转型进行了精彩分享,进一步坚定了广大伙伴与华为共赢数智未来的信心。
在精彩主题演讲之外,大会通过多场分论坛及行业专题演讲,系统阐述“伙伴+华为”体系与创新解决方案,并设置了超3万平米的展厅,围绕“众智”主题,沿着“场景-方案-产品”逻辑链全景呈现华为数智化方案竞争力。
好文章,需要你的鼓励
这篇研究论文介绍了"Speechless",一种创新方法,可以在不使用实际语音数据的情况下训练语音指令模型,特别适用于越南语等低资源语言。研究团队通过将文本指令转换为语义表示,绕过了对高质量文本转语音(TTS)系统的依赖。该方法分三个阶段:首先训练量化器将语音转为语义标记;然后训练Speechless模型将文本转为这些标记;最后用生成的合成数据微调大型语言模型。实验表明,该方法在越南语ASR任务中表现出色,为低资源语言的语音助手开发提供了经济高效的解决方案。
《Transformer Copilot》论文提出了一种革命性的大语言模型微调框架,通过系统记录和利用模型训练过程中的"错误日志"来提升推理性能。研究团队受人类学习者记录和反思错误的启发,设计了一个"副驾驶"模型来辅助原始"驾驶员"模型,通过学习错误模式并在推理时校正输出。这一方法在12个基准测试上使模型性能提升高达34.5%,同时保持计算开销最小,展现了强大的可扩展性和可迁移性,为大语言模型的优化提供了全新思路。
德克萨斯大学Austin分校的研究团队提出了RIPT-VLA,一种创新的视觉-语言-动作模型后训练范式。该方法通过让AI模型与环境互动并仅接收简单的成功/失败反馈来学习,无需复杂的奖励函数或价值模型。实验证明,RIPT-VLA能显著提升现有模型性能,在轻量级QueST模型上平均提升21.2%,将大型OpenVLA-OFT模型推至97.5%的前所未有成功率。最令人惊叹的是,仅用一个示范样本,它就能将几乎不可用的模型在15次迭代内从4%提升至97%的成功率,展现出卓越的数据效率和适应能力。
北京大学与华为诺亚方舟实验室研究团队共同开发了TIME基准,这是首个专为评估大语言模型在真实世界场景中的时间推理能力而设计的多层级基准。该研究提出了三个层级的时间推理框架,包含11个细粒度任务,并构建了涵盖38,522个问答对的数据集,针对知识密集型信息、快速变化的事件动态和社交互动中的复杂时间依赖性三大现实挑战。实验结果表明,即使是先进模型在构建时间线和理解复杂时间关系方面仍面临显著挑战,而测试时扩展技术可明显提升时间逻辑推理能力。