[中国,上海,2025年6月19日] 在2025 MWC 上海期间中国电信联合华为举办5G-A“智聚大上行”创新发布会。会上,中国电信与华为联合发布了“基于智能编排和上行频谱解耦与池化,形成智能大上行技术”最新创新技术成果。该技术充分挖掘多天线的上行覆盖能力,并结合分布式UCN(User-Centric Network,用户中心网络)和时频制空功全资源实时共享,引入无线智能化技术,构筑无线网络AI业务承载网,赋能智能穿戴、车联网、AI助理实时交互等领域,标志着5G-A网络向成为Mobile AI网络底座迈出坚实一步。
“智聚大上行”深度赋能5G-A与AI融合
随着终端侧智能能力增强,设备与网络之间的数据交互频率和内容复杂度迅速提升,特别是视频、图像、文本等多模态数据的上行传输激增,同时实时语音交互、具身机器人操控等场景要求网络确保端到端低时延。移动AI业务发展推动网络架构向超低时延、高确定性、大上行方向演进。
智聚大上行创新技术,利用AI模型实时预测信道质量以及通过AI实现时频制空功五维协同调度,多频段智能选择,根据业务需求制式解耦,上行自由调度,提升5G网络的上行能力,优化用户业务体验。该创新使能5G-A网络能力精准预估,使时延降低30%+,上行速率提升15%+,边缘体验提升15%+,打造体验能效双领先的5G-A网络。
“智聚大上行”加速体验变现和AI应用繁荣,助力中国电信打造高速泛在5G-A网络
电信集团共建共享工作组总经理黄礼莲在发布会上表示,技术融合驱动变革,5G-A与AI的深度结合正重构人机交互模式,推动信息交互向情感交互升级。“智聚大上行”技术的发布标志着多模态数据交互将成为常态,网络服务实现从"联接服务"到"数智服务"的跨越。
近年来,中国电信与华为在5G-A领域的合作取得多项突破性成果,双方在上海、广东等地完成了三载波聚合连片部署,利用5G-A超级大上行特性,打造了上海宝钢智慧钢铁行业应用标杆,孵化了江浙低空样板点,其中的杭州低空血液航线项目荣获Glomo创新大奖。

中国电信共建共享工作组总经理黄礼莲会上致辞
华为公司副总裁曹明:5G-A 与AI 加速赋能产业变革
华为公司副总裁、无线网络产品线总裁曹明在会上表示,5G-A 正以超乎想象的速度加速发展,移动 AI 时代已急速到来。其应用深度融入人们的生活、工作与学习,大幅提升生产力效率;融入企业生产流程,实现降本增效。在技术创新实践中,华为与中国电信合作推动超级系列技术落地,在直播、智慧交通、智慧生产等场景中兑现了超级上行系列创新价值。
曹明进一步指出,未来中国电信与华为将继续以科技创新为引领,围绕中国电信技术创新战略解锁 5G-A 潜能,推动智能联接向“无所不快、无所不及、无所不能” 的目标加速迈进。双方将持续深化与全球伙伴合作,以 “开放创新” 理念推动 5G-A 标准演进,为无线网络高质量发展注入新活力。

华为公司副总裁、无线网络产品线总裁曹明会上致辞
未来,中国电信与华为将继续以科技创新为引领,以应用需求为导向,持续推进“AI+5G-A“融合,打造网络领先、商用领先、应用领先的“5G-A×AI”商用网络,持续深化与全球伙伴合作,以“开放创新”理念推动5G-A标准演进,为无线网络的高质量发展注入新活力。

“智聚大上行”创新发布会
2025 MWC 上海于6月18日至6月20日在中国上海举行。华为展区位于上海新国际博览中心(SNIEC)N1馆。2025年5G-A商用加速发展,华为与全球运营商、行业精英、意见领袖等一同深入探讨通过AI技术创新,重塑业务、基础设施及运营运维,实现商业新增长,加速迈向智能世界。欲了解更多详情,请阅: https://carrier.huawei.com/cn/events/mwcs2025
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。