ZDNet至顶网软件频道消息:2003年光大银行成立了信用卡中心,经过十年发展,光大银行成为了唯一一家同时实现发卡量超过千万、数据迁移相距一千公里,且提供7*24小时不间断对外授权的国内银行。据光大银行2013年年报,2013年其信用卡新增发卡543.40 万张,累计发卡2001.41 万张;报告期累计交易金额5846.20 亿元,同比增长90.62%,实现营业收入105.90 亿元。光大银行信用卡业务的壮大发展,离不开IT技术的强大支撑。光大银行信用卡系统可以做到不停顿运行,主要得益于光大银行的前置系统双活机制技术及惠普的NonStop产品。
中国光大银行信用卡中心技术部总经理李铁成
中国光大银行信用卡中心技术部总经理李铁成指出,"惠普NonStop服务器从硬件的底层满足了高冗余、高可用性的需求,所有冗余的部件在并行工作的同时互为备份,是真正为银行设计的服务器平台。在光大双活机制的配合下,惠普NonStop真正实现了永不停机,使光大银行信用卡业务授权永不不间断。这套产品支持热拔插,当后台的主机需要系统维护或部件更换(包括CPU)时,我们会让前端来做代授权,也就是说,把全部核心数据放在前置系统上支持代授权,保证信用卡业务的不间断。”
信用卡双活体系:真正的应用级数据储备
据介绍,光大银行的信用卡双活体系做到了应用级的数据储备。前置的两台机器可以同时处理数据,每台机器存储的数据从业务上看是一模一样的,但他们却是两套完全独立的数据库。光大银行的双活同步机制是基于应用的,没有使用任何操作系统或数据库的同步技术,而是从应用的角度来分析业务,进而决定哪些数据需要在两套系统之间互相同步。这种结构避免了工作人员误删数据的可能,因为两台机器的同步是应用级的同步,因此工作人员删除数据库的动作不会同步到远程服务器上。
李铁成透露,“未来,光大银行信用卡业务将进一步实践这种新的方式,把后台的信用卡核心系统也按照前置的同步方式来做数据的同步,使得几套系统可以实现互相交叉访问,在整个主机上也做到不间断服务。”
惠普NonStop有两宝:顶级容错技术和MPP架构
作为光大银行信用卡前置系统的支撑平台,惠普NonStop有两大特点:第一,顶级的容错技术。NonStop从设计之初就是一个容错系统,所有部件在并行工作的同时互为备份,任何一个故障部件都不会造成整个系统的停机。作为信用卡前置平台来讲最重要的就是系统的稳定,银行后台发生天大的事只要前置不停,客户的应用和访问就能接进来。NonStop平台上有现成的应用,有代授权,不管后面的账务系统做什么样的维护升级工作,亦或是发生网络故障,都可以通过永不停滞的系统来帮助银行完成信用卡交易。第二,它拥有MPP(大规模并行处理)架构,可以进行线性扩展。NonStop的MPP架构,允许用户从2个CPU开始一直往上加,CPU插槽数最多可以扩展到4080个,同时在扩展的过程中,不会出现性能曲线的下降。而这对于银行的业务拓展来说至关重要。这些,对于提升信用卡的品牌声誉和整个银行的形象都是非常重要的。
中国惠普有限公司中国区副总裁兼企业集团关键业务服务器系统部总经理樊瀛
惠普在金融服务业耕耘了35年,据中国惠普有限公司中国区副总裁兼企业集团关键业务服务器系统部总经理樊瀛介绍,全球三分之二以上的信用卡交易是由惠普服务器平台来完成的,且全球的证券交易中心系统绝大多数都构筑在惠普的关键业务服务器上。印度的前三大银行和中国基于开放平台最大的核心银行系统均运行在惠普的小型机上。
目前,惠普NonStop平台在国内应用的不是很多,但在全球市场来看,NonStop运行着全球最关键的应用,确保全球排名前十的银行中的八家银行的数据完整,支持其进行大规模扩展并保证其资源的可靠性。该技术还为所有全球排名前十的制造企业提供支持,并在美国处理超过1220亿美元的燃料交易。
为了进一步打开中国市场,惠普在中国区的投入力度将进一步加大。NonStop的发展趋势是变得更加开放,惠普在支持ODBC、JAVA上都会做出更大的努力。目前,NonStop是基于安腾架构的,未来也会扩展至x86服务器架构。樊瀛透露,“基于NonStop的新应用和新平台都会陆续推出,在今年就会有一些新的发布。”
好文章,需要你的鼓励
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。