2019中国金融科技产业峰会丨中兴秦延涛:详解某银行信用卡核心国产分布式数据库改造实践
2、在2017年底我们做了一次验证,用了银行典型的交易业务,有转帐、有查询,做了测试。测试时,用了3亿个客户15亿个帐户做混合交易,测到了40000tps。整个测试过程中间,性能逐渐往上涨的,而且有故障隔离的特性,会有自己的设计,我们默认会有一台或多台机器有机器故障,机器故障时系统能正常处理,确保业务继续往下走。 在项目里建设目标很关键的一点是希望用x86开放式架构替换原来大型厂家专用服务器架构,本身也是一个科技创新,但希望通过这个动作以后,能够支撑所有业务在科技创新上有更多依托、更多土壤、更多技术使用起来。在性能指标上,希望系统容量,客户量从千万级提升至亿级。 授权交易、帐户处理、数据&应用等迁移至GoldenDB。 卡中心业务实现和总行不一样,总行用了比较巧妙的方法,用一个工具把原来IBM上跑的语言程序转化到开放式JAVA程序。卡中心是把业务做了重构,因为业务重构本身在发展中有一个计划。这次虽然是重构的业务,但对数据库要求依然没有变。这时候需要SQL兼容性。 分布式并发批处理 这和总行不一样,总行也是转过来直接用,它这边做了重新的开发。比较好的地方是很好地利用了分布式架构,可以马上每一个节点、每一个分片充分利用起来,好处是把原来集中计算的模式变成一个并行计算模式,这种模式架构下,处理时间就会很快。但这是有代价的,这种方式投入的工作量比总行工作量要大,但效果也好。 高效的数据迁移工具 业务是重构的,因为业务重构,老的系统表的结构和新的系统表的结构不能够一一对应,这种情况下,数据迁移就变成了一个稍微复杂一点的事情,和客户一起专门做了一个数据转换的工具,可以把原系统里面的数据下载以后到这里转换,转换以后,嵌入到新系统里,这个动作分全量和增量的,这和后面迁移动作息息相关。 回放跟帐 就是生产环境里,每天产生的报表都记录下来,在演练环境里有老系统的架构系统,也有新系统的架构系统,这个报文是灌进去的,所以可以控制速度,通过交易量控制,可以验证新系统能承受的业务压力是什么情况。 并行演练 跟总行思路是一样的,只是技术有点差别。并行演练过程中,把延期交易业务量,跟原来系统发一遍,再给新建系统发一遍,进行比对,新老系统承受业务基本是一样的,通过几个月模拟比对来验证新系统是否满足上线的需要。 精心组织 这是一个非常复杂的工程。最重要的投产时间是在这个线之前,完成了总共四次的数据迁移演练,然后做环境准备。投产前7天,会把各种条件准备好,并且迁移静态数据进来,D1,会把增量的数据迁一遍,然后这时候才去在半夜时把原来IBM机器停下来,还有少量增量再进行一次迁移。两次增量迁移完以后,信息系统数据就完整了,把业务启动起来。这时候外面用户还没法用,通过白名单方式在网关上把用户放进来做各种测试。一直到第二天下午3点钟,所有业务都全部投产使用了,从运营情况来看,目前都还挺好。 分布式数据库历经近九个月跟帐测试,四轮切换演练,最终率先在大型银行核心业务投产,率先践行金融核心至国产分布式数据库改造,达成预期目标。 谢谢大家! 延伸阅读:
(编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |