`

数据库分库分表系统学习

阅读更多

转自:http://blog.sina.com.cn/s/blog_702a7c3f01016xcx.html

 

一  为什么要进行数据切分

    为什么需要数据切分呢?比如像Oracle这样成熟稳定的数据库,足以支撑海量数据的存储与查询了?为什么还需要数据切片呢?的确,OracleDB确实很成熟很稳定,但是高昂的使用费用和高端的硬件支撑不是每一个公司能支付的起的。试想一下一年几千万的使用费用和动辄上千万元的小型机作为硬件支撑,这是一般公司能支付的起的吗?即使就是能支付的起,假如有更好的方案,有更廉价且水平扩展性能更好的方案,我们肯定会进行选择的。

    平常我们会自觉的按照范式来设计我们的数据库,负载高点可能考虑使用相关的Replication机制来提高读写的吞吐和性能,这可能已经可以满足很多需求,但这套机制自身的缺陷还是比较显而易见的。首先它的有效性很依赖于读操作的比例,Master往往会成为瓶颈所在,写操作需要顺序排队来执行,过载的话Master首先扛不住,Slaves的数据同步的延迟也可能比较大,而且会大大耗费CPU的计算能力,因为write操作在Master上执行以后还是需要在每台slave机器上都跑一次。这时候 Sharding可能会成为鸡肋了。 Replication搞不定,但是Sharding可以很好的扩展。每台机器无论配置多么好它都有自身的物理上限,所以当我们应用已经能触及或远远超出单台机器的某个上限的时候,我们惟有寻找别的机器的帮助或者继续升级的硬件,但常见的方案还是横向扩展, 通过添加更多的机器来共同承担压力。我们还得考虑当我们的业务逻辑不断增长,我们的机器能不能通过线性增长就能满足需求?Sharding可以轻松的将计算、存储、I/O并行分发到多台机器上,这样可以充分利用多台机器各种处理能力,同时可以避免单点失败,提供系统的可用性,进行很好的错误隔离。

    综合以上因素,数据切分是很有必要的。基于成本的考虑,很多公司也选择了FreeOpenMySql。对MySql有所了解的开发人员可能会知道,MySQL 5 之后才有了数据表分区功能,在此之前很多 MySQL 的潜在用户都对MySQL 的扩展性有所顾虑,而是否具备分区功能就成了衡量一个数据库可扩展性与否的一个关键指标(当然不是唯一指标)。数据库扩展性是一个永恒的话题,MySQL 的推广者经常会被问到:如在单一数据库上处理应用数据捉襟见肘而需要进行分区化之类的处理,是如何办到的呢? 答案也是Sharding,也就是我们所说的数据切分方案。 使用免费的MySQL和廉价的Server甚至是PC做集群,达到小型机+大型商业DB的效果,减少大量的资金投入,降低运营成本,所以选择Sharding

二  如何做到数据切分

     数据切分可以是物理上的,对数据通过一系列的切分规则将数据分布到不同的DB服务器上,通过路由规则路由访问特定的数据库,这样一来每次访问面对的就不是单台服务器了,而是N台服务器,这样就可以降低单台机器的负载压力。

     数据切分也可以是数据库内的,对数据通过一系列的切分规则,将数据分布到一个数据库的不同表中,比如将article分为article_001, article_002等子表,若干个子表水平拼合有组成了逻辑上一个完整的article表,这样做的目的其实也是很简单的。举个例子说明,比如article表中现在有5000w条数据,此时我们需要在这个表中增加(insert)一条新的数据,insert完毕后,数据库会针对这张表重新建立索引,5000w行数据建立索引的系统开销还是不容忽视的。但是反过来,假如我们将这个表分成100table呢,从article_001一直到article_1005000w行数据平均下来,每个子表里边就只有50万行数据,这时候我们向一张只有50w行数据的tableinsert数据后建立索引的时间就会呈数量级的下降,极大了提高了DB的运行时效率,提高了DB的并发量。当然分表的好处还不知这些,还有诸如写操作的锁操作等,都会带来很多显然的好处。

     综上,分库降低了单点机器的负载;分表,提高了数据操作的效率,尤其是Write操作的效率。要想做到数据的水平切分,在每一个表中都要有相冗余字符作为切分依据和标记字段,通常的应用中我们选用user_id作为区分字段,基于此就有如下三种分库的方式和规则:(当然还有其他的方式)

按号段分:

(1) user_id为区分,11000的对应DB110012000的对应DB2,以此类推;

优点:可部分迁移

缺点:数据分布不均

(2)hash取模分:

user_id进行hash(或者如果user_id是数值型的话直接使用user_id的值也可),然后用一个特定的数字,比如应用中需要将一个数据库切分成4个数据库的话,我们就用4这个数字对user_idhash值进行取模运算,也就是user_id%4,这样的话每次运算就有四种可能:结果为1的时候对应DB1;结果为2的时候对应DB2;结果为3的时候对应DB3;结果为0的时候对应DB4,这样一来就非常均匀的将数据分配到4DB中。

优点:数据分布均匀

缺点:数据迁移的时候麻烦,不能按照机器性能分摊数据

(3)在认证库中保存数据库配置

就是建立一个DB,这个DB单独保存user_idDB的映射关系,每次访问数据库的时候都要先查询一次这个数据库,以得到具体的DB信息,然后才能进行我们需要的查询操作。

优点:灵活性强,一对一关系

缺点:每次查询之前都要多一次查询,性能大打折扣

    以上就是通常的开发中我们选择的三种方式,有些复杂的项目中可能会混合使用这三种方式。通过上面的描述,我们对分库的规则也有了简单的认识和了解。当然还会有更好更完善的分库方式,还需要我们不断的探索和发现。

三 分布式数据方案研究的基本轮廓

     分布式数据方案提供功能如下:

1)提供分库规则和路由规则(RouteRule简称RR);

2)引入集群(Group)的概念,保证数据的高可用性;

3)引入负载均衡策略(LoadBalancePolicy简称LB);

4)引入集群节点可用性探测机制,对单点机器的可用性进行定时的侦测,以保证LB策略的正确实施,以确保系统的高度稳定性;

5)引入读/写分离,提高数据的查询速度;

     仅仅是分库分表的数据层设计也是不够完善的,当某个节点上的DB服务器出现了宕机的情况的时候,会是什么样的呢?采用了数据库切分方案,也就是说有N台机器组成了一个完整的DB,如果有一台机器宕机的话,也仅仅是一个DBN分之一的数据不能访问而已,这是我们能接受的,起码比切分之前的情况好很多了,总不至于整个DB都不能访问。一般的应用中,这样的机器故障导致的数据无法访问是可以接受的,假设系统是一个高并发的电子商务网站呢?单节点机器宕机带来的经济损失是非常严重的。也就是说,现在我们这样的方案还是存在问题的,容错性能是经不起考验的。当然,任何问题总是有解决方案的。引入集群的概念,在此称之为Group,也就是每一个分库的节点我们引入多台机器,每台机器保存的数据是一样的,一般情况下这多台机器分摊负载,当出现宕机情况,负载均衡器将分配负载给这台宕机的机器。这样一来,就解决了容错性的问题。所以引入了集群的概念,并将其内嵌入到框架中,成为框架的一部分。

数据库分库分表系统学习
     如上图所示,整个数据层有Group1Group2Group3三个集群组成,这三个集群就是数据水平切分的结果,当然这三个集群也就组成了一个包含完整数据的DB。每一个Group包括1Master(当然Master也可以是多个)和NSlave,这些MasterSlave的数据是一致的。 比如Group1中的一个slave发生了宕机现象,那么还有两个slave是可以用的,这样的模型总是不会造成某部分数据不能访问的问题,除非整个Group里的机器全部宕掉,但是考虑到这样的事情发生的概率非常小(除非是断电了,否则不易发生吧)。

    在这个确定的DB内进行数据操作。这是没有引入集群的情况,当时引入集群会是什么样子的呢?看图一即可得知,我们的路由器上规则和策略其实只能路由到具体的Group,也就是只能路由到一个虚拟的Group,这个Group并不是某个特定的物理服务器。接下来需要做的工作就是找到具体的物理的DB服务器,以进行具体的数据操作。基于这个环节的需求,引入了负载均衡器的概念(LB)。负载均衡器的职责就是定位到一台具体的DB服务器。具体的规则如下:负载均衡器会分析当前sql的读写特性,如果是写操作或者是要求实时性很强的操作的话,直接将查询负载分到Master,如果是读操作则通过负载均衡策略分配一个Slave。我们的负载均衡器的主要研究放向也就是负载分发策略,通常情况下负载均衡包括随机负载均衡和加权负载均衡。随机负载均衡很好理解,就是从NSlave中随机选取一个Slave。这样的随机负载均衡是不考虑机器性能的,它默认为每台机器的性能是一样的。假如真实的情况是这样的,这样做也是无可厚非的。假如实际情况并非如此呢?每个Slave的机器物理性能和配置不一样的情况,再使用随机的不考虑性能的负载均衡,是非常不科学的,这样一来会给机器性能差的机器带来不必要的高负载,甚至带来宕机的危险,同时高性能的数据库服务器也不能充分发挥其物理性能。基于此考虑从,我们引入了加权负载均衡,也就是在我们的系统内部通过一定的接口,可以给每台DB服务器分配一个权值,然后再运行时LB根据权值在集群中的比重,分配一定比例的负载给该DB服务器。当然这样的概念的引入,无疑增大了系统的复杂性和可维护性。有得必有失,我们也没有办法逃过的。数据层根据区分字段Route到具体的DB在没有引入集群以前,我们的一次查询的过程大致如下:请求数据层,并传递必要的分库区分字段(通常情况下是user_id)。

     有了分库,有了集群,有了负载均衡器,是不是就万事大吉了呢?事情远没有我们想象的那么简单。虽然有了这些东西,基本上能保证我们的数据层可以承受很大的压力,但是这样的设计并不能完全规避数据库宕机的危害。假如Group1中的slave2宕机了,那么系统的LB并不能得知,这样的话其实是很危险的,因为LB不知道,它还会以为slave2为可用状态,所以还是会给slave2分配负载。这样一来,问题就出来了,客户端很自然的就会发生数据操作失败的错误或者异常。这样是非常不友好的!怎样解决这样的问题呢?我们引入集群节点的可用性探测机制,或者是可用性的数据推送机制。这两种机制有什么不同呢?首先说探测机制吧,顾名思义,探测机制,就是我的数据层客户端,不定时对集群中各个数据库进行可用性的尝试,实现原理就是尝试性链接,或者数据库端口的尝试性访问,都可以做到,当然也可以用JDBC尝试性链接,利用JavaException机制进行可用性的判断,具体的会在后面的文字中提到。那数据推送机制又是什么呢?其实这个就要放在现实的应用场景中来讨论这个问题了,一般情况下应用的DB数据库宕机的话我相信DBA肯定是知道的,这个时候DBA手动的将数据库的当前状态通过程序的方式推送到客户端,也就是分布式数据层的应用端,这个时候再更新一个本地的DB状态的列表。并告知LB,这个数据库节点不能使用,请不要给它分配负载。一个是主动的监听机制,一个是被动的被告知的机制。两者各有所长。但是都可以达到同样的效果。这样一来刚才假设的问题就不会发生了,即使就是发生了,那么发生的概率也会降到最低。

     上面的文字中提到的MasterSlave,并没有做太多深入的讲解。如上图所示,一个Group1MasterNSlave组成。为什么这么做呢?其中Master负责写操作的负载,也就是说一切写的操作都在Master上进行,而读的操作则分摊到Slave上进行。这样一来可以大大提高读取的效率。在一般的互联网应用中,经过一些数据调查得出结论,读/写的比例大概在101左右,也就是说大量的数据操作是集中在读的操作,这也就是为什么我们会有多个Slave的原因。但是为什么要分离读和写呢?熟悉DB的研发人员都知道,写操作涉及到锁的问题,不管是行锁还是表锁还是块锁,都是比较降低系统执行效率的事情。我们这样的分离是把写操作集中在一个节点上,而读操作分配到其他的N个节点上进行,从另一个方面有效的提高了读的效率,保证了系统的高可用性。读写分离也会引入新的问题,比如我的Master上的数据怎样和集群中其他的Slave机器保持数据的同步和一致呢?这个是我们不需要过多的关注的问题,MySqlProxy机制可以帮助我们做到这点。接下来就系统设计层面,进行深入的剖析和研究。

   系统设计

  1 系统实现层面的选择

    该系统的实现层面有两种选择,一种是基于JDBC层面上的选择,一种是基于现有数据持久层框架层面上的选择,比如Hibernateibatis。两种层面各有长处,也各有不足之处。基于JDBC层面上的系统实现,系统开发难度和后期的使用难度都将大大提高。大大增加了系统的开发费用和维护费用。本文定位是在成型的ibatis持久层框架的基础上进行上层的封装,而不是对ibatis源码的直接修改,这样一来使本系统不会对现有框架有太多的侵入性,从而也增加了使用的灵活性。之所以选择ibatis,原因如下:

1ibatis的学习成本非常低,熟练的Java Programmer可在非常的短时间内熟练使用ibatis

2ibatis是轻量级的ORM,只是简单的完成了ROOR的映射,其查询语句也是通过配置文件sql-map.xml文件在原生sql的层面进行简单的配置,也就是说我们没有引入诸如Hibernate那样的HQL的概念,从而增强了sql的可控性,优秀的DBA可以很好的从sql的层面对sql进行优化,使数据层的应用有很强的可控性。Hibernate虽然很强大,但是由于HibernateOR的一个重型封装,且引入HQL的概念,不便于DBA团队对sql语句的控制和性能的调优。

基于以上两点理由,本课题在ORM的产品的选择上选择了易学易用且轻量级的持久层框架ibatis。下面的讨论也都是特定于ibatis的基础上的讨论。

 2 其他开源框架的选择

     在一些大型的Java应用中,我们通常会采用Spring这样的开源框架,尤其是IoCDI)这部分,有效的帮助开发人员管理对象的依赖关系和层次,降低系统各层次之间的实体耦合。Spring的优点和用处我相信这是开发人员众所周知的,在此不再赘述。本课题的数据层也将采用Spring做为IoCDI)的框架。

3 系统开发技术和工具介绍

开发语言:Java JDK1.5

集成开发环境:Eclipse 3.3.4

Web环境下测试服务器:JBoss 4.2

构建工具:淘宝自行研发的构建工具Antx(类似于Maven),当然也可以用Maven

依赖的开源Jar

分享到:
评论

相关推荐

    Oracle分库分表分区学习日志.docx

    数据库分库分表是解决数据库性能瓶颈的一种方法。当单表数据量达到 1000W 或 100G 后,查询性能下降严重时,需要考虑对数据进行切分。切分的目的减少数据库的负担,缩短查询时间。对数据的切分可以分为两种:垂直...

    springmvc分库分表实际例子

    通过学习和实践这个“springmvc分库分表实际例子”,开发者可以更好地掌握如何在SpringMVC项目中运用分库分表技术,提升系统的扩展性和性能。同时,理解ShardingSphere的工作原理和配置方法,将有助于在实际工作中...

    Java+Springboot+mybatis+sharding jdbc 实现分库分表

    通过以上步骤,开发者可以利用Java、SpringBoot、MyBatis和ShardingJDBC的组合,构建出一个高效、可扩展的分库分表系统,满足大数据量下的高并发访问需求。在项目"shardingdemo"中,可以详细查看这一过程的具体实现...

    分库分表总结

    分库分表,顾名思义,就是将一个大的数据库分解为多个较小的数据库或表,以分散负载、提高查询效率和系统整体性能。这通常发生在数据库层面,目的是解决单库性能瓶颈,提升系统并发处理能力。 二、分库 分库是指将...

    Python+MySQL分表分库实战

    MySQL分库分表是数据库架构设计...通过本实战教程的学习,读者将能够掌握MySQL分库分表的理论知识和实践操作技能,进一步提升自己在数据库架构设计和运维方面的能力,为处理大规模应用的高并发场景提供有力的技术支持。

    47_来来来!咱们聊一下你们公司是怎么玩儿分库分表的?.zip

    6. **笔记.docx** 和 **01_分库分表的由来.png**、**02_数据库如何拆分.png**:这些文件可能包含了学习笔记、图表或者示例,有助于直观地理解分库分表的背景、实施步骤以及实际效果。 总的来说,分库分表是解决大...

    集成sharding-jdbc实现分库分表.zip

    在这个"集成sharding-jdbc实现分库分表.zip"的压缩包中,我们可以深入学习如何将Sharding-JDBC应用于实际项目,以提升系统的性能和可扩展性。 1. **Sharding-JDBC简介** Sharding-JDBC是Java语言实现的,它工作在...

    mycat对mysql数据库进行分库分表demo-mycat-demo-parent.zip

    【标题与描述解析】 标题"mycat对mysql数据库进行分库分表...通过研究这个项目,开发者可以学习如何配置MyCat,设置分片规则,以及在实际应用中如何调用MyCat接口进行数据操作,为自己的项目实施分库分表提供参考。

    Spring MVC +Spring + Mybatis 构建分库分表源码

    分库分表是大型分布式系统中解决数据库单点性能瓶颈的常见策略。在本示例中,可能是利用ShardingSphere等中间件实现数据库的水平扩展。ShardingSphere提供了分片策略,可以根据自定义规则(如用户ID模数、时间戳等)...

    分库分表,多数据源的切换

    分库分表是数据库水平扩展的一种常见策略,旨在提高数据库系统的性能和可扩展性。本篇文章将详细探讨分库分表的原理、实现方式以及如何利用开源框架Sharding-JDBC进行实践。 分库分表,顾名思义,就是将一个大的...

    sharding分库分表demo

    在IT行业中,数据库扩展是解决高并发、大数据量场景下的重要策略之一,"sharding分库分表"就是其中一种常见的方法。本示例通过整合一系列技术,包括SpringBoot、ShardingSphere、Swagger和MyBatis-Plus,来演示如何...

    数据库mysql分库分表-spring-boot-shardingjdbc.zip

    "数据库mysql分库分表"是一个常见的解决方案,用于提升系统性能和可扩展性。本项目以"spring-boot-shardingjdbc"为核心,利用Spring Boot框架和ShardingSphere(前身为ShardingJDBC)来实现MySQL数据库的分库分表...

    MySQL 分库分表的实现原理及演示案例.zip

    分库分表是数据库水平扩展的一种常见策略,它通过将数据分散到多个数据库或表中,来减轻单个数据库的压力,提高系统的并发处理能力和整体性能。 **分库** 是将一个大数据库拆分成多个小数据库,每个数据库负责一...

    mycat+mysql+jdbc实现根据手机号尾号分库分表存储以及效率对比操作代码()

    标题中的“mycat+mysql+jdbc实现根据手机号尾号分库分表存储”涉及的是分布式数据库中间件Mycat与MySQL数据库以及Java JDBC接口的结合使用。Mycat是一款开源的分布式数据库系统,用于解决大数据量、高并发的场景下的...

    sharding-jdbc分库分表

    它作为JDBC的一个增强工具,可以在现有的Java应用中透明地添加分布式数据库处理能力,实现了数据的分库分表以及读写分离。 1. **分库分表原理**: 分库分表是解决大数据量下数据库性能瓶颈的有效手段。Sharding-...

    Java分库分表实战案例程序

    1. 高并发系统:对于需要处理大量请求的系统,分库分表可以有效减轻单一数据库的压力,提高系统的并发处理能力。 2. 数据扩展性:当数据量不断增长时,分库分表可以帮助系统无缝扩展,避免单一数据库的性能瓶颈。 3....

    分库分表demo项目.zip

    **分库分表技术在大型系统中的应用** 随着互联网业务的发展,单个数据库往往难以承受大规模数据和高并发访问的压力,这时就需要引入分库分表技术。本项目"分库分表demo项目.zip"就是一个使用SpringBoot、...

    spring+mybatis+sharding-jdbc 1.3.1实现分库分表案例(可直接运行)

    在现代企业级应用中,随着数据量的增长,单表存储可能会遇到性能瓶颈,这时就需要引入分库分表策略来优化数据库架构。本案例基于Spring、MyBatis和Sharding-JDBC 1.3.1版本,提供了一个可以直接运行的分库分表实现,...

    基于jdbcDriver的MySQL分库分表实现-OShard.zip

    在IT行业中,数据库分库分表是一种常见的优化策略,用于解决大数据量下的性能问题。本项目"基于jdbcDriver的MySQL分库分表实现-OShard.zip"提供了使用Java JDBC驱动来实现MySQL数据库分库分表的示例。下面将详细阐述...

Global site tag (gtag.js) - Google Analytics