淘宝订单编号查询面对性能和成本的双重压力,阿里数据库内核团队如何应对?
作者 | 王剑英(北楼) / 和利
01、淘宝交易订单系统介绍
天猫和淘宝每天发生的实物和虚拟商品的交易达到亿级别 。考虑到一次成功交易的整个链路,会涉及到会员信息验证,商品库信息查询,订单创建,库存扣减,优惠扣减,订单支付,物流信息更新,确认支付等 。
链路中的每一环都涉及到数据库中记录的创建和状态的更新,一次成功的交易可能对应到后台信息系统上数百次数据库事务操作,支撑交易系统的整个数据库集群则会承担每日高达数百亿的事务读写 。这除了给数据库系统带来巨大的性能挑战之外,每日递增的海量数据也带来巨大的存储成本压力 。
交易订单作为其中最为关键的信息,由于可能涉及交易纠纷处理,需要随时提供用户查询,必须永久的记录在数据库中 。淘宝成立至今近17年,所有与订单相关的数据库记录总量达到了万亿级别,其所占用的磁盘空间也早已超过PB级 。
在一个这样大体量的数据集上,需要能够满足用户随时查询的低延时需求,同时需要达到极低的存储成本,在技术上是一个非常大的挑战 。
文章插图
用户的历史订单记录数据量巨大且不能丢失
02、淘宝交易订单库的架构演进历史
淘宝从2003年成立至今近17年的时间,随着流量不断上涨,交易订单数据库的架构也经历过数次演进 。
文章插图
第一阶段,开始由于流量较小,使用了一套Oracle数据存储了所有的订单信息,新订单创建和历史订单查询都在同一套数据库进行 。
第二阶段,由于历史订单量数据量越来越大,单一一套库已经不能满足同时满足性能和容量的问题,于是对交易订单库进行了拆分,单独建立了一个Oracle历史库,将三个月以前的订单迁移进历史库,同时由于数据量巨大,查询性能不能满足需求,因此当时的历史订单不提供查询功能 。用户只能查询三个月之内的订单信息 。
第三个阶段,为了解决扩展性和存储成本问题,交易历史库整体迁移到了HBase方案,这套方案在当时很好了解决了存储成本和业务查询需求这2个诉求 。整体方案是使用主表结合索引表,查询订单详细信息通过主表完成,通过买家或者卖家ID查询订单,则需要借助索引表先得到订单号 。
但这个方案遗留一个问题:订单并不是严格按照90天进行迁移的,有很多类型的订单并不迁移到历史库,导致已买到--订单列表的排序是乱序的,已买到的订单列表不是严格按照时间由近到远排序的,用户如果按照订单列表一页一页往下翻,会发现自己最近的订单”突然丢了”(实际上没有丢的,只是乱序了,再往后翻就有了) 。
第四个阶段,历史库采用基于X-Engine引擎的PolarDB-X集群,在满足存储成本的同时,提供与在线库一样的索引能力,解决乱序问题 。
03、淘宝交易订单库的业务痛点
回顾淘宝交易库的演进历史,自拆分出独立的交易历史库之后,在持续十年时间里,业务团队和数据库团队一直在应对几个核心的挑战:
存储成本,每日写入量巨大且数据永不删除,必须要保证极低的成本 。节省存储成本的前提下,保证丰富的查询特性,例如按时间维度排序等 。因此底层数据库需要支持二级索引,且二级索引需要保证一致性和性能 。保证较低的查询延时,不影响用户使用体验 。虽然90天前的历史订单的查询量比90天内要少很多,但这依然是直接面对用户的,需要保证长尾延时在一定限度内 。在2018年,因为数据库存储的原因导致的订单排序错乱的问题,受到越来越多的投诉,给用户带来非常大的困扰,业务上决定根治这个问题 。从前面的分析总结看,理想中的交易历史库方案需要同时满足三个条件: 低成本,低延时,特性丰富 。使用和在线库一样的InnoDB引擎则满足不了存储成本的要求,而使用HBase则满足不了一致性二级索引等要求 。
04、基于X-Engine引擎的历史库方案
2018年,阿里自研的X-Engine引擎逐步在集团内部落地,其针对阿里巴巴交易业务的流水性特征设计了原生的冷热分离的架构,X-Engine引擎中的冷数据记录在数据页中紧凑排列并默认对所有数据块进行压缩,这套架构兼顾了性能和成本,很快在内部非常多的业务中落地,例如:X-Engine如何支撑钉钉数据量激增 。
秒懂生活扩展阅读
- 新手微商必看教程 微商怎么找一手货源
- 新手注册自媒体步骤 什么叫自媒体平台有哪些
- 新手刹车技巧讲解
- 如何让小狗远离草坪 怎样让小狗远离草坪
- 如何训练斗牛犬 训练斗牛犬方法
- 如何清理狗狗拉的稀便便 怎样清理狗狗拉的稀便便
- 淘宝秒杀活动参与技巧 淘宝如何秒杀抢东西
- 如何去掉狗狗身上的壁虱 怎样去掉狗狗身上的壁虱
- 如何为旅行打包行李 怎么为旅行打包行李
- 如何鼓励狗狗多喝水 怎么鼓励狗狗多喝水