至顶网软件与服务频道消息: 5G的快速发展推动了网络变革,各种智能业务场景的落地,带来数据的激增和业务模式转型,对电信计费系统提出了新的要求。这驱动亚信科技联合浪潮及英特尔,着手打造了5G全场景计费系统,该系统基于亚信科技AISware 5G计费软件、搭载了第二代英特尔至强可扩展处理器和傲腾持久内存的浪潮NF5280M5旗舰双路服务器等一系列创新产品和技术,在总体成本不变的情况下,令系统延迟、响应速度能够满足新数据集的复杂计算查询需求,以帮助运营商在5G网络变革中顺利转型。
太平洋时间2020年2月24日,英特尔发布了第二代英特尔至强可扩展处理器的多款全新型号,浪潮同步宣布其M5系列服务器全线支持,并联合英特尔发布了基于这些全新处理器的一系列5G、边缘、AI等场景化解决方案。
与3G/4G网络相比,5G网络具备高速率、低延迟、广泛连接等特性,不仅带来了数十亿物联网设备,还能够支持增强现实/虚拟现实、无人驾驶等新应用,极大地扩展网络服务的规模,并提供前所未有的终端和数据类型。在5G网络逐步实现商用的背景下,全球电信行业需要作出巨大变革,以适应电信服务方式的根本性转变。
数据的激增和新的使用模式对电信计费系统提出了新的要求,亚信科技是中国领先的业务支撑提供商,为中国电信运营商提供IT解决方案和服务,帮助电信运营商迅速响应市场变化,降低运营成本,提升盈利能力。面向5G计费场景,亚信科技推出了AISWare 5G Billing(5G场景计费)系统,实现多量纲计费、权益共享、SLA定价、能力开放变现、多种计费模式组合,其计费结算对象,也从传统的以人和物为中心,向着以场景为中心的计费对象转变。
由于电信行业的竞争日益激烈,运营商必须审慎地使用新技术、新设备等各种资源。随着运营商推出或扩大对5G、物联网、云计算和边缘计算等趋势的支持,这一因素发挥着重要作用,尤其是在计费服务器硬件领域,DRAM的成本增加使得运营商更加难以在成本和性能之间做出平衡。
对于电信计费系统来说,复杂查询执行时间长,数据量指数级增长,服务器运行压力大都成为5G场景计费系统需要破解的难题。而内存的速度和容量对计费服务器的效率至关重要,如果内存容量不足,系统延迟和响应时间就会增加。
亚信科技联合浪潮及英特尔,对计费服务器进行优化定制,创新性地导入性能与DRAM内存相近、容量更大且成本更优的英特尔傲腾持久内存来优化计费系统,三方联合重新设计软件框架的关键部分,开发针对硬件和软件的基准测试技术,以准确灵活地测量系统关键绩效指标。
提高业务运营响应能力,让复杂查询的延迟更低,响应更快,对计费服务器的计算能力提出了更高的要求,需要对支撑系统的服务器进行定制优化。浪潮把与互联网客户合作的经验移植到电信行业,与电信运营商联合定制服务器创新,开发出更加适合电信应用场景的服务器,此次浪潮以双路服务器NF5280M5为基础,针对5G场景计费系统对低延迟需求进行反复优化,使得服务器更适合应用需求。
亚信科技选择了浪潮双路服务器NF5280M5搭载英特尔傲腾持久内存,其更大内存空间使得计费服务器复杂查询的响应时间大幅缩减。这种新型内存的成本低于DRAM内存,但性能相差无几,使得计费服务器能够在几乎不增加系统成本的前提下获得更大的内存总量,内存容量的增大减少了数据溢出,使得数据无需频繁落在低速磁盘上,从而确保快速访问。
NF5280M5是浪潮旗舰双路服务器,秉承极致设计理念,对性能、能耗、可管理性等特性进行了全面的优化,为5G场景计费系统提供充足的计算力支撑,通过跨硬件堆栈的工程设计,赋予IT系统比以往更高的性能。
5G带来了人与人、人与物、物与物的广泛连接,推动了物联网、边缘计算等概念走向落地,对于电信计费系统而言,电信费用涉及到的设备类型、种类、数量都将大幅增长。通过采用浪潮双路服务器NF5280M5,借力其搭载的第二代英特尔至强可扩展处理器和傲腾持久内存提供的更强数据处理及访问能力,亚信科技得以在快速增长的计费系统负载中,帮助运营商在控制计费系统服务器成本的前提下,快速处理计费业务,在大量的场景下,语音、流量等费用的计算能够实现快速处理,1天之内可以完成整个系统出账,解决了业务爆发式发展与IT基础设施承载能力不足的矛盾。
随着亚信科技5G场景计费服务器性能的进一步提升,计费效率得到了进一步提高,可以为运营商提供更加全方位的、及时的、友好的服务能力和服务渠道,保证更好的客户体验。同时,该5G场景计费服务器可以有效支撑各类传统业务及流量类业务的及时上线,保证电信运营商在激烈的市场竞争中占据有利位置。
好文章,需要你的鼓励
在我们的日常生活中,睡眠的重要性不言而喻。一个晚上没睡好,第二天的工作效率就会大打折扣,而充足的睡眠不仅能让我们恢复精力,还能帮助大脑整理和巩固当天学到的知识。有趣的是,AI模型竟然也表现出了类似的“睡眠需求”。
DeepSeek-AI团队通过创新的软硬件协同设计,仅用2048张GPU训练出性能卓越的DeepSeek-V3大语言模型,挑战了AI训练需要海量资源的传统观念。该研究采用多头潜在注意力、专家混合架构、FP8低精度训练等技术,大幅提升内存效率和计算性能,为AI技术的民主化和可持续发展提供了新思路。
尽管模型上下文协议(MCP)自11月推出以来用户数量快速增长,但金融机构等监管行业仍保持谨慎态度。银行等金融服务公司虽然在机器学习和算法方面是先驱,但对于MCP和Agent2Agent(A2A)系统的采用较为保守。监管企业通常只使用内部代理,因为其API集成需要经过多年审查以确保合规性和安全性。专家指出,MCP缺乏基本构建块,特别是在互操作性、通信标准、身份验证和审计跟踪方面。金融机构需要确保代理能够进行"了解您的客户"验证,并具备可验证的身份识别能力。
加拿大女王大学研究团队首次系统评估了大型视频语言模型的因果推理能力,发现即使最先进的AI在理解视频中事件因果关系方面表现极差,大多数模型准确率甚至低于随机猜测。研究创建了全球首个视频因果推理基准VCRBench,并提出了识别-推理分解法(RRD),通过任务分解显著提升了AI性能,最高改善幅度达25.2%。