TiDB at 丰巢:尝鲜分布式数据库

百家 作者:PingCAP 2018-11-09 02:03:23 阅读:396

随着丰巢业务系统快速增长,其核心系统的数据量,早就跨越了亿级别,而且每年增量仍然在飞速发展。整个核心系统随着数据量的压力增长,不但系统架构复杂度急剧增长,数据架构更加复杂,传统的单节点数据库,已经日渐不能满足丰巢的需求,当单表数量上亿的时候,Oracle 还能勉强抗住,而 MySQL 到单表千万级别的时候就难以支撑,需要进行分表分库。为此,一款高性能的分布式数据库,日渐成为刚需。


思考


在互联网公司业务量增大之后,并行扩展是最常用、最简单、最实时的手段。例如负载均衡设备拆流量,让海量流量变成每个机器可以承受的少量流量,并且通过集群等方式支撑起来整个业务。于是当数据库扛不住的时候也进行拆分。

但有状态数据和无状态数据不同,当数据进行拆分的时候,会发生数据分区,而整个系统又要高可用状态下进行,于是数据的一致性变成了牺牲品,大量的核对工具在系统之间跑着保证着最终的一致性。在业务上,可能业务同学经常会遇到分过库的同学说,这个需求做不了,那个需求做不了,如果有 sql 经验的业务同学可能会有疑问不就是一条 sql 的事情么,其实这就是分库分表后遗症。

为此,我们需要有个数据库帮我们解决以上问题,它的特性应该是:

  • 数据强一致:支持完整的 ACID

  • 不分表分库:无论多少数据我们只管插入不需要关心啥时候扩容,会不会 有瓶颈

  • 数据高可用:当我们某台数据库的少部分机器磁盘或者其他挂了的时候,我们业务上可以无感知,甚至某个城市机房发生灾难的时候还可以持续提供服务,数据不丢失

  • 复杂 SQL 功能:基本上单库的 SQL,都可以在这个数据库上运行,不需要修改或者些许修改

  • 高性能:在满足高 QPS 的同时,保证比较低的延时


选型


根据以上期望进行分析,我们分析了目前市面上存在的 NewSQL 分布式数据库,列表如下:

在综合考虑了开源协议,成熟度,可控度,性能,服务支撑等综合因素之后,我们选择了 TiDB,它主要优势如下:

  • 高度兼容 MySQL

    大多数情况下,无需修改代码即可从 MySQL 轻松迁移至 TiDB,分库分表后的 MySQL 集群亦可通过 TiDB 工具进行实时迁移。    

  • 水平弹性扩展

    通过简单地增加新节点即可实现 TiDB 的水平扩展,按需扩展吞吐或存储,轻松松应对高并发、海量数据场景。

  • 分布式事务 

    TiDB 100% 支持标准的 ACID 事务。

  • 金融级别的高可用性    

    相比于传统主从(M-S)复制方案,基于 Raft 的多数派选举协议可以提供金融级的 100% 数据强一致性保证,且在不丢失大多数副本的前提下,可以实现故障的自动恢复(auto-failover),无需人工介入。

基于如上的原因,我们选择了 TiDB,作为丰巢的核心系统的分布式数据库,来取代   Oracle 和 MySQL。


评估


1. 性能测试

TiDB 的基准测试,使用的工具是 sysbanch 进行测试,使用了 8 张基础数据为一千万的表,分别测试了 insert,select,oltp 和 delete 脚本得到数据如下,查询的 QPS 达到了惊人的 14 万每秒,而插入也稳定在 1 万 4 每秒。

核心服务器配置:

测试结果

通过~


2. 功能测试


通过~


接入

因为是核心系统,安全起见,我们采取了多种方案保证验证项目接入的可靠性,保证不影响业务。


1. 项目选择

在寻找第一个接入项目的时候,我们以一下 4 个特征,进行了选择。



最终,我们选择了推送服务。因为推送服务是丰巢用来发送取件通知的核心服务,量非常大,但逻辑简单,而且有备选外部推送方案,所以即便万一出现问题,而不会影响用户。


2. 代码修改

因为 TiDB 是完全兼容 MySQL 语法的,所以在这个项目的接入过程中,我们对代码的修改是很细微的。SQL 基本零改动,主要是外围代码,包括:

  • 异步接口修改,数据异步化入库

  • 同步接口修改,实现异常熔断

  • 停止内嵌数据迁移代码

以上三点,保证了整个系统在不强依赖于数据库,并且能在高并发的情况下通过异步落库保护数据库不被压垮,并且在数据库发生问题的时候,核心业务可以正常进行下去。


效果


1. 查询能力

接入 TiDB 之后,原先按照时间维度来拆分的十几个分表,变成了一张大表。最明显的变化,是在大数据量下,数据查询能力有了显著的提升。



2. 监控能力

TiDB 拥有很完善的监控平台,可以直观的看到容量,以及节点状态。 

还能了解每个节点负载和 sql 执行的延时:

当然还能了解所在机器上的位置,CPU 内存等负载情况:

网络状态也能清晰的监控到:

所有这些能让团队能分析出来有问题的 sql,以及数据库本身的问题。


小结


TiDB 的接入过程,整体还是非常顺利的,由于之前做了很多接入的保障工作,当天切换流量到 TiDB 的过程只用了 10 分钟的时间,在此也要感谢 TiDB 对于 MySQL 语法的兼容性的支持,以及 PingCAP 提供的各种有用的工具。到目前为止,系统的稳定运行了一个多月,很好的满足了丰巢的业务需求。

TiDB 的改造完成之后,丰巢推送服务对大部分消息进行了落地和查询,截止目前为止,推送服务最大的日落地量已经达到了 5 千万,而如果现在推送服务还使用的还是 MySQL 的方案,就需要上各种的分库分表方案,很多细致的业务就无法或者难以开展。

此次 TiDB 的改造,只是丰巢对于分布式数据技术探索的一小步,未来丰巢会将更多的分布式技术,引入到更多的业务系统,打造更加极致的产品和服务。


作者:丰巢技术团队


典型实践

爱奇艺 边控中心/视频转码/用户登录信息系统

饿了么 |  1. 归档环境应用  2. TiKV 大规模实践

今日头条 | 核心 OLTP 系统

摩拜 | 在线数据业务

某商业银行 | 两地三中心多活架构方案设计

去哪儿网 | 机票离线及金融支付集群

同程艺龙 | 1. 票务项目  2.自研 TiDB 运维工具 Thor 

易果生鲜 | 实时数仓

转转 | All in TiDB 


更多:https://pingcap.com/cases-cn/


关注公众号:拾黑(shiheibook)了解更多

[广告]赞助链接:

四季很好,只要有你,文娱排行榜:http://www.yaopaiming.com/
让资讯触达的更精准有趣:https://www.0xu.cn/

图库
关注网络尖刀微信公众号
随时掌握互联网精彩
赞助链接