1月12日,中兴通讯在北京举办“智算筑路数字经济”服务器新品发布会,正式推出基于第四代英特尔®至强®可扩展处理器(Sapphire Rapids)的G5系列服务器新品。
此次,中兴通讯发布的服务器新品共计5款,包括R5200 G5高密度服务器、R5300 G5全场景通用服务器、R5500 G5海量存储服务器、R6500 G5异构算力服务器和R8500 G5高性能服务器。G5系列服务器新品支持液冷散热,具备高密度算力、灵活扩展、异构算力、海量存储、稳定可靠等特性,将为数字经济发展提供更加强劲的算力支撑。
图一,中兴通讯服务器新品发布会
极致性能,提供强大算力
中兴通讯G5系列服务器新品,采用最新的英特尔®至强®第四代可扩展处理器,内置加速引擎,有效提升应用性能,双路最大支持120核,提供强大算力支持;高内存带宽设计,提供32条DDR5内存插槽,速率最高可达4800MT/s,带宽性能提升50%,支持英特尔® 傲腾™ 持久内存 300 系列 (Crow Pass);全新PCIe 5.0,IO带宽提升150%,提供强大的硬件加速能力。
值得一提的是,中兴通讯R6500 G5异构算力服务器内置10~20个异构计算智能加速引擎,根据不同应用场景,灵活调度各种不同的异构算力资源,实现算力的最佳组合,如CPU+GPU、CPU+GPU+DPU,满足AI/超算等多样性算力场景需求。
与此同时,G5系列服务器新品具备灵活扩展能力,以R5300 G5为例,最大提供41个2.5”盘位或20个3.5”盘位+4个2.5”盘位,提供高速I/O接口,基于硬件模块化和软件平台化设计,通过按需配置,匹配不同应用场景的差异化需求。此外,R5300 G5定制化场景服务器,可针对客户不同需求进行差异化设计,定制化满足客户不同应用场景。
稳定可靠,高标准产品品质
中兴通讯从2005年开始研发服务器及存储产品,以做质量最好的产品为经营理念,以高标准贯穿产品设计/生产、测试、售后服务全流程,产品出厂前经过10000+严苛测试项,所有设备均经过24小时高温老化测试,确保产品稳定可靠。
此次,中兴通讯最新发布的G5系列服务器新品,在散热设计、电源模块、主板布局等方面进行多重优化,电源模块支持1+1冗余, 风扇支持N+1冗余,提高系统可靠性,关键部件硬盘、电源等支持热插拔。高性能铜质热管散热器,热阻降低15%,实测CPU温度降低5℃,满足EagleStream全系最高350W的CPU散热需求。此外,G5系列服务器新品支持液冷散热技术,采用冷板式液冷散热,可实现数据中心PUE降至1.1,冷板&管路高可靠连接,全管路智能监控,漏液秒级告警,实现绿色低碳的同时,确保产品可靠性。
图二,中兴通讯副总裁发布新品
快速增长,助力千行百业数字化转型
在发布会上,中兴通讯副总裁、服务器及存储产品线总经理郭树波介绍,近年来,随着数字经济飞速发展,算力规模也在快速增长,中兴通讯服务器及存储产品作为算力基础设施,已广泛应用于全球40+国家和地区,全面覆盖通信、互联网、金融、电力、政务、交通等行业,是近三年来中国增长最快的服务器厂商。
在通信行业,中兴通讯服务器发货量排名第一,是中国移动、中国联通、中国电信三大运营商的主流供应商;在互联网行业,中兴通讯服务器存储已规模应用于头部互联网企业;在金融行业,全面覆盖国有大行、股份制银行、城商行、农信社以及保险、证券等领域;此外,在政务、交通、电力等行业均取得了较好的成绩,中兴通讯通过一系列技术创新、完备的综合解决方案和高质量的服务,得到行业众多大型客户认可。
作为“数字经济筑路者”,中兴通讯坚持自主研发高品质服务器及存储产品,助力各行各业数字化转型,提供稳定可靠算力基础设施,随着本次G5系列服务器新品正式发布,中兴通讯将携手合作伙伴,为数字经济繁荣发展,打造更加坚实可靠的算力底座。
好文章,需要你的鼓励
在迪拜Gitex 2025大会上,阿联酋成为全球AI领导者的雄心备受关注。微软正帮助该地区组织从AI实验阶段转向实际应用,通过三重方法提供AI助手、协同AI代理和AI战略顾问。微软已在阿联酋大举投资数据中心,去年培训了10万名政府员工,计划到2027年培训100万学习者。阿联酋任命了全球首位AI部长,各部门都配备了首席AI官。微软与政府机构和企业合作,在公民服务和金融流程等领域实现AI的实际应用,构建全面的AI生态系统。
查尔斯大学和意大利布鲁诺·凯斯勒基金会的研究团队首次系统性解决了同声传译AI系统延迟评估的准确性问题。他们发现现有评估方法存在严重偏差,常给出相互矛盾的结果,并提出了YAAL新指标和SOFTSEGMENTER对齐工具。YAAL准确性达96%,比传统方法提升20多个百分点。研究还开发了专门的长音频评估工具LongYAAL,为AI翻译技术发展提供了可靠的测量标准。
苹果与俄亥俄州立大学研究人员发布名为FS-DFM的新模型,采用少步离散流匹配技术,仅需8轮快速优化即可生成完整长文本,效果媲美需要上千步骤的扩散模型。该模型通过三步训练法:处理不同优化预算、使用教师模型指导、调整迭代机制来实现突破。测试显示,参数量仅1.7亿至17亿的FS-DFM变体在困惑度和熵值指标上均优于70-80亿参数的大型扩散模型。
印度理工学院团队构建了史上最大规模印度文化AI测试基准DRISHTIKON,包含64288道多语言多模态题目,覆盖15种语言和36个地区。研究评估了13个主流AI模型的文化理解能力,发现即使最先进的AI也存在显著文化盲区,特别是在低资源语言和复杂推理任务上表现不佳,为构建文化感知AI提供了重要指导。