千万级支付数据解决方案

随着业务的不断发展,业务架构的不断演变, 技术架构的滞后, 带来的是严重的系统瓶颈与漏洞, 前段时间大半个月都在优化数据处理, 由于历史数据过大,多至6千万数据,mysql数据库负载过高, 压力过大,  系统又在不断运行, 需要做到不停服务不影响支付功能的前提下短时间内实现数据优化, 前期想到的是分表处理, 但无论是垂直拆分还是水平拆分都将影响服务的运行, 最终与几位老程序员商量 在分布式dubbo框架的基础上增加 solr 搜索引擎 + mq异步队列 + 数据库异步备份数据来达到支付网关的高可用, 上线了几十天,效果还是杠杠的

由于solr搜索引擎是写到磁盘中的, 通过建立索引, 它的查询效率极高, 提高了接口的访问速度,减少了请求时间, 为以后的支付重构奠定了基础

之前一直担心上线后会频发故障,上线的时候也没有停服务,  事实证明担心是多余的,开始拆分表, 将数据拆分出去,最终迁移了6千多万的数据

支付 + 订单 + 账务 密不可分

如何避免重复支付, 如何解决支付的幂等性问题?

如何解决不同支付渠道金额换算问题?

如何实现不同支付渠道自由切换, 配置支付路由?

技术与业务密不可分, 实践证明这些都是可以通过有效的方案解决的! 

更多支付相关知识,可以参考: 支付之家 

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容