3月20日,华为中国合作伙伴大会2025在深圳隆重举行。大会以“因聚而生,众智有为”为主题,旨在凝聚华为和伙伴们的智慧,强健“伙伴+华为”的合作伙伴体系,一起抓住智能化的巨大机遇,加速客户智能化进程,与伙伴携手共赢智能未来。
人类已进入AI时代,通用人工智能正加速到来。首先,人工智能在深度思考、思维链、多模态融合等技术上实现明显突破,AI能力正在走向从量变到质变;其次,AI推理迎来爆发式增长,推理的快速发展拓宽了智能化的广度,生成式AI的日均Token数已达到十万亿,MoE架构模型也在加速普及,需依托大规模算力集群才能完全释放潜能;另一方面,AI应用正重塑企业,大模型能力的跃迁和推理的爆发,为企业全面智能化铺平了道路,AI to B的奇点时刻已经到来。未来,企业的竞争力将取决于“和AI共生的能力”。
会上,华为常务董事、ICT基础设施业务管理委员会主任汪涛在《因聚而生,众智有为》的主题演讲中表示,为迎接通用人工智能时代的到来,华为推进全面智能化战略,使能百模千态,赋能千行万业。面向客户的不同场景,华为和合作伙伴一起,提供从训练到推理的全系列产品,满足多样性AI算力需求;携手伙伴繁荣昇腾AI生态,构建基于AI算力使能平台CANN等基础软件生态,依托丰富的工具链、加速库、开发套件,使能伙伴与开发者更好地开展应用创新;华为支持大模型“百花齐放”,持续投入自研盘古大模型,同时积极拥抱业界优秀的大模型;用AI赋能华为产品、优化内部运营和管理。华为将持续构筑开放的生态,携手客户、伙伴与开发者,将技术与客户场景相结合,助力千行万业加速智能化转型。
华为常务董事、ICT基础设施业务管理委员会主任 汪涛
汪涛表示,为抓住行业智能化的巨大机遇,华为坚持“一个深耕,两个扩张”的企业业务战略,以客户分类为龙头,匹配相应的组织阵型、资源配置、伙伴体系、产品与解决方案,与伙伴共成长。同时,华为进一步升级“伙伴+华为”的合作伙伴体系,优化伙伴政策与合作模式,提升伙伴能力,发展伙伴“同路人”,让客户满意,与伙伴共赢。
汪涛强调:“过去几年,我们共同见证了华为中国政企业务和伙伴业绩的成长,这也夯实了我们深化合作的基础。人工智能的时代大潮已奔涌而来,华为愿与伙伴继续在智能化的浩荡长河中并肩前行,共赢智能未来。”
面对行业智能化浪潮,华为高级副总裁、ICT销售与服务总裁李鹏指出,华为将围绕一个伙伴体系、两类合作场景、三种能力支持帮助伙伴加速构建体系化能力,共同为客户创造价值。全面智能化时代正在加速到来,华为将携手伙伴与行业客户一起持续联合创新,将先进的技术与行业场景深度融合,打造领先的产品与行业解决方案,助力千行万业跨越技术鸿沟,共赢全面智能化时代。
华为高级副总裁、ICT销售与服务总裁 李鹏
围绕“伙伴+华为”体系建设,华为中国政企业务总裁吴辉在会上表示,因聚而生,聚的是志同道合;众智有为,为的是千行万业。开放紧密成长的“伙伴+华为”体系,需要与更多“同路人”一起,以客户为中心,互投入,聚资源,让体系更强健,让千行万业跨越数智鸿沟迈入智能世界。
华为中国政企业务总裁 吴辉
华为中国政企业务副总裁许超表示,华为将践行以客户为中心进行价值创造,沿客户数智化旅程分工协同,围绕行业场景共建能力,持续投入追求合作有序,共筑以客户为中心的“伙伴+华为”体系,与客户共同跨越数智鸿沟,携手共赢AI新时代。
华为中国政企业务副总裁 许超
上海华讯网络系统有限公司作为合作伙伴代表,就华为如何帮助伙伴赋能千行万业智能化转型进行了精彩分享,进一步坚定了广大伙伴与华为共赢数智未来的信心。
在精彩主题演讲之外,大会通过多场分论坛及行业专题演讲,系统阐述“伙伴+华为”体系与创新解决方案,并设置了超3万平米的展厅,围绕“众智”主题,沿着“场景-方案-产品”逻辑链全景呈现华为数智化方案竞争力。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。