`
yanwt
  • 浏览: 98881 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

(转)mysql-mmm+amoeba+keepalived实现mysql高可用和读写分离

 
阅读更多

 

本帖最后由 飞鸿无痕 于 2010-11-11 23:04 编辑

mysql-mmm+amoeba+keepalived架构简介:利用mysql-mmm来实现mysql的高可用,利用amoeba来实现读写分离,利用keepalived来实现amoeba程序的高可用。从而从整体上实现mysql的高可用行。

一、 MMM简介:
MMM即Master-Master Replication Manager for MySQL(mysql主主复制管理器)关于mysql主主复制配置的监控、故障转移和管理的一套可伸缩的脚本套件(在任何时候只有一个节点可以被写入),这个套件也能对居于标准的主从配置的任意数量的从服务器进行读负载均衡,所以你可以用它来在一组居于复制的服务器启动虚拟ip,除此之外,它还有实现数据备份、节点之间重新同步功能的脚本。
MySQL本身没有提供replication failover的解决方案,通过MMM方案能实现服务器的故障转移,从而实现mysql的高可用。MMM不仅能提供浮动IP的功能,更牛的是如果当前的主服务器挂掉后,会将你后端的从自动转向新的主服务器进行同步复制,不用手工更改同步资料。
MMM项目来自 Google:http://code.google.com/p/mysql-master-master
官方网站为:http://mysql-mmm.org

Mmm主要功能由下面三个脚本提供
 mmm_mond 负责所有的监控工作的监控守护进程,决定节点的移除等等
 mmm_agentd 运行在mysql服务器上的代理守护进程,通过简单远程服务集提供给监控节点
 mmm_control 通过命令行管理mmm_mond进程

二、 mysql-mmm架构的搭建
1、 先来看下本文的架构图:



当master1出现故障的时候,架构图会自动屏蔽master1,并自动将slave1和slave2更改成从master2更新,架构图变成如下:



2、 先介绍下本文的环境:
系统环境:CentOS release 5.4(32bit)
function ip hostname server id
Monitor 192.168.1.163 Server3 -
master 1 192.168.1.161 Server1 1
master 2 192.168.1.162 Server2 2
slave 1 192.168.1.164 Server4 5
slave 2 192.168.1.165 Server5 6
Amoeba1 192.168.1.167 Server6 -
Amoeba2 192.168.1.168 Server7 -

我用了以下的虚拟IP,他们将会在被mmm分配,这些IP都是浮动的,当出现故障的时候会自动的转移到其他的可用服务器上。
ip role description
192.168.1.113 writer 你的应用程序应该连接到这个ip进行写操作
192.168.1.111 reader 你的应用程序应该链接到这些ip中的一个进行读操作
192.168.1.112 reader
192.168.1.114 reader
192.168.1.115 reader
192.168.1.170 Amoeba_vip 程序连接的Ip,实现mysql读写分离

mysql-mmm架构配置简介:
 在server1、server2上安装mysql,并配置为master-master架构(就是互为主从)----------配置很简单,就不对着部分进行详细解释,有问题的话请查看:http://blog.chinaunix.net/u3/93755/showart.php?id=2213538
 配置server4,server5从server1获取更新 ------这一步很简单,自行设置,有一点需要注意,就是设置同步不能设置浮动IP,要使用真实的IP。
 在server1、server2、server3、server4、server5上安装mmm,并配置:mmm_common.conf、mmm_agent.conf以及mmm_mon.conf文件

3、 Mysql-mmm实战
前提:server1和server2上已经配置好mysql主主同步,server4、server5设置好了利用server1为主服务器的主从同步
 安装mysql-mmm(在server1,server2,server3,server4,server5上都要安装)
CentOS软件仓库默认是不含这些软件的,必须要有epel这个包的支持。故我们必须先安装epel:
  1. wget http://download.fedora.redhat.co ... ease-5-4.noarch.rpm
  2. rpm -Uvh epel-release-5-4.noarch.rpm
  3. yum -y install mysql-mmm*
复制代码


 配置mmm代理和监控账号的权限
在server1,server2,server4,server5上分别执行:
  1. GRANT REPLICATION CLIENT ON *.* TO 'mmm_monitor'@'192.168.1.%' IDENTIFIED BY 'monitor_password';
  2. GRANT SUPER, REPLICATION CLIENT, PROCESS ON *.* TO 'mmm_agent'@'192.168.1.%' IDENTIFIED BY 'agent_password';
  3. flush privileges;
复制代码


 配置mysql-mmm
所有的配置选项都集合在了一个叫/etc/mysql-mmm/mmm_common.conf的单独文件中,系统中所有主机的该文件内容都是一样的, 配置完后不要忘记了拷贝这个文件到所有的主机(包括监控主机)!,内容如下:
  1. active_master_role writer

  2. <host default>
  3. cluster_interface eth0
  4. pid_path /var/run/mysql-mmm/mmm_agentd.pid
  5. bin_path /usr/libexec/mysql-mmm/
  6. #同步的帐号(这些要和前面设置的保持一致!)
  7. replication_user replication
  8. replication_password 123456 #同步的密码
  9. agent_user mmm_agent #mmm-agent用户
  10. agent_password agent_password #mmm-agent用户密码
  11. </host>

  12. <host db1>
  13. ip 192.168.1.161 #db1的ip
  14. mode master
  15. peer db2
  16. </host>

  17. <host db2>
  18. ip 192.168.1.162 #db2的ip
  19. mode master
  20. peer db1
  21. </host>

  22. <host db3>
  23. ip 192.168.1.164 #从db3的ip
  24. mode slave
  25. </host>

  26. <host db4>
  27. ip 192.168.1.165 #从db4的ip
  28. mode slave
  29. </host>


  30. <role writer>
  31. hosts db1, db2
  32. ips 192.168.1.113 #设置写如的虚拟IP
  33. mode exclusive
  34. </role>

  35. <role reader>
  36. hosts db1, db2, db3, db4
  37. ips 192.168.1.111, 192.168.1.112, 192.168.1.114, 192.168.1.115 #设置读取的虚拟IP
  38. mode balanced
  39. </role>
复制代码


数据库主机上我们需要编辑/etc/mysql-mmm/mmm_agent.conf文件,根据其他主机的不同更改db1的值(db2就将db1更改成db2…….):
  1. include mmm_common.conf
  2. this db1
复制代码


在监控主机上我们需要编辑/etc/mysql-mmm/mmm_mon.conf文件:
  1. include mmm_common.conf

  2. <monitor>
  3. ip 127.0.0.1
  4. pid_path /var/run/mysql-mmm/mmm_mond.pid
  5. bin_path /usr/libexec/mysql-mmm
  6. status_path /var/lib/mysql-mmm/mmm_mond.status
  7. ping_ips 192.168.1.161,192.168.1.162, 192.168.1.164,192.168.1.165 #监控服务器ip
  8. auto_set_online 60

  9. # The kill_host_bin does not exist by default, though the monitor will
  10. # throw a warning about it missing. See the section 5.10 "Kill Host
  11. # Functionality" in the PDF documentation.
  12. #
  13. # kill_host_bin /usr/libexec/mysql-mmm/monitor/kill_host
  14. #
  15. </monitor>

  16. <host default>
  17. monitor_user mmm_monitor #mmm_monitor用户名
  18. monitor_password monitor_password #mmm_monitor密码
  19. </host>

  20. debug 0
复制代码



 启动MMM
启动代理:
(在数据库服务器上server1、2)编辑/etc/default/mysql-mmm-agent来开启:
  1. ENABLED=1
复制代码

然后启动它:
  1. /etc/init.d/mysql-mmm-agent start
复制代码

启动监控(在监控机上):
  1. /etc/init.d/mysql-mmm-monitor start
复制代码


 利用mmm_control监控mysql服务器状态:
  1. [root@server3 ~]# mmm_control show
  2. db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.111), writer(192.168.1.113)
  3. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.114)
  4. db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  5. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.112)
复制代码


 测试看两个mysql服务器能否实现故障自动切换
停掉作为写的db1上的mysql,查看写的服务器会不会自动转移到db2上去
停掉几秒钟后用mmm_control show查看:
  1. [root@server3 ~]# mmm_control show
  2. db1(192.168.1.161) master/HARD_OFFLINE. Roles:
  3. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4. db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  5. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

我们可以看到已经把db2当作主写服务器,另外server4、server5原来是从server1更新的现在已经被mmm自动更改到从新的主服务器server2上更新了,很神奇!可以登录到server4、server5上用show slave status\G;命令查看!

再来看看db1恢复后会是什么情况:
  1. [root@server3 ~]# mmm_control show
  2. db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114)
  3. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4. db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  5. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

我们可以看到当db1恢复后就充当slave的角色了!只有当db2挂了以后db1又会担当起主服务器的写入功能
发现个bug,不知道有没有人遇到过:有的时候会出现服务器恢复后,服务器的状态被设置为:AWAITING_RECOVERY,必须要手工执行mmm_control set_online host才能恢复正常,比如:有的时候我恢复db1后,出现如下:
  1. [root@server3 ~]# mmm_control show
  2. db1(192.168.1.161) master/AWAITING_RECOVERY. Roles:
  3. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4. db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  5. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

解决办法为利用set_online手工更改为在线状态:
  1. [root@server3 ~]# mmm_control set_online db1
  2. OK: State of 'db1' changed to ONLINE. Now you can wait some time and check its new roles!
  3. [root@server3 ~]# mmm_control show
  4. db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114)
  5. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  6. db3(192.168.1.164) slave/ONLINE. Roles: reader(192.168.1.115)
  7. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
复制代码

解决这个问题CU网友提供了一个办法就是将auto_set_online设置小点,默认是60s,设置成10看下会不会有改善?我测试的是改小后没出现,回头多测试几次看看。

 mmm_control命令简介
  1. [root@server3 mysql-mmm]# mmm_control help
  2. Valid commands are:
  3. help - show this message
  4. #查看帮助信息
  5. ping - ping monitor
  6. #ping监控
  7. show - show status
  8. #查看状态信息
  9. checks [<host>|all [<check>|all]] - show checks status
  10. #显示检查状态,包括(ping、mysql、rep_threads、rep_backlog)
  11. set_online <host> - set host <host> online
  12. #设置某host为online状态
  13. set_offline <host> - set host <host> offline
  14. #设置某host为offline状态
  15. mode - print current mode.
  16. #打印当前的模式,是ACTIVE、MANUAL、PASSIVE?
  17. #默认ACTIVE模式
  18. set_active - switch into active mode.
  19. #更改为active模式
  20. set_manual - switch into manual mode.
  21. #更改为manual模式
  22. set_passive - switch into passive mode.
  23. #更改为passive模式
  24. move_role [--force] <role> <host> - move exclusive role <role> to host <host>
  25. #更改host的模式,比如更改处于slave的mysql数据库角色为write
  26. (Only use --force if you know what you are doing!)
  27. set_ip <ip> <host> - set role with ip <ip> to host <host>
  28. #为host设置ip,只有passive模式的时候才允许更改!

 


 

三、 利用amoeba实现高可用下的读写分离

1、 关于amoeba的介绍和安装我这里不做介绍了,请查看:http://blog.chinaunix.net/u3/93755/showart.php?id=2363202,有什么问题我们再一起讨论。

2、 Amoeba在mysql-mmm架构下的配置
配置的除了amoeba的监听IP外其他的均采用上面mmm分配的浮动IP,因为当出现故障后,浮动IP会自动分配到正常的server上。amoeba.xml的配置如下:

  1. <?xml version="1.0" encoding="gbk"?>

  2. <!DOCTYPE amoeba:configuration SYSTEM "amoeba.dtd">
  3. <amoeba:configuration xmlns:amoeba="http://amoeba.meidusa.com/">

  4. <server>
  5. <!-- proxy server绑定的端口 -->
  6. <property name="port">3306</property>

  7. <!-- proxy server绑定的IP要设置成0.0.0.0,因为后面还要监听VIP -->
  8. <property name="ipAddress">0.0.0.0</property>
  9. <!-- proxy server net IO Read thread size -->
  10. <property name="readThreadPoolSize">20</property>

  11. <!-- proxy server client process thread size -->
  12. <property name="clientSideThreadPoolSize">30</property>

  13. <!-- mysql server data packet process thread size -->
  14. <property name="serverSideThreadPoolSize">30</property>

  15. <!-- socket Send and receive BufferSize(unit:K) -->
  16. <property name="netBufferSize">128</property>

  17. <!-- Enable/disable TCP_NODELAY (disable/enable Nagle's algorithm). -->
  18. <property name="tcpNoDelay">true</property>

  19. <property name="user">root</property>
  20. <property name="password">password</property>

  21. <!-- query timeout( default: 60 second , TimeUnit:second) -->
  22. <property name="queryTimeout">60</property>
  23. </server>

  24. <!--
  25. 每个ConnectionManager都将作为一个线程启动。
  26. manager负责Connection IO读写/死亡检测
  27. -->
  28. <connectionManagerList>
  29. <connectionManager name="defaultManager" class="com.meidusa.amoeba.net.MultiConnectionManagerWrapper">
  30. <property name="subManagerClassName">com.meidusa.amoeba.net.AuthingableConnectionManager</property>

  31. <!--
  32. default value is avaliable Processors
  33. <property name="processors">5</property>
  34. -->
  35. </connectionManager>
  36. </connectionManagerList>

  37. <dbServerList>
  38. <!--
  39. 一台mysqlServer 需要配置一个pool,
  40. 如果多台 平等的mysql需要进行loadBalance,
  41. 平台已经提供一个具有负载均衡能力的objectPool:com.meidusa.amoeba.mysql.server.MultipleServerPool
  42. 简单的配置是属性加上 virtual="true",该Pool 不允许配置factoryConfig
  43. 或者自己写一个ObjectPool。
  44. -->
  45. <dbServer name="server1">

  46. <!-- PoolableObjectFactory实现类 -->
  47. <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  48. <property name="manager">defaultManager</property>

  49. <!-- 真实mysql数据库端口 -->
  50. <property name="port">3306</property>

  51. <!-- 真实mysql数据库IP -->
  52. <property name="ipAddress">192.168.1.113</property>
  53. <property name="schema">test</property>

  54. <!-- 用于登陆mysql的用户名 -->
  55. <property name="user">zhang</property>

  56. <!-- 用于登陆mysql的密码 -->
  57. <property name="password">zhang123</property>

  58. </factoryConfig>

  59. <!-- ObjectPool实现类 -->
  60. <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  61. <property name="maxActive">200</property>
  62. <property name="maxIdle">200</property>
  63. <property name="minIdle">10</property>
  64. <property name="minEvictableIdleTimeMillis">600000</property>
  65. <property name="timeBetweenEvictionRunsMillis">600000</property>
  66. <property name="testOnBorrow">true</property>
  67. <property name="testWhileIdle">true</property>
  68. </poolConfig>
  69. </dbServer>


  70. <dbServer name="server2">

  71. <!-- PoolableObjectFactory实现类 -->
  72. <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  73. <property name="manager">defaultManager</property>

  74. <!-- 真实mysql数据库端口 -->
  75. <property name="port">3306</property>

  76. <!-- 真实mysql数据库IP -->
  77. <property name="ipAddress">192.168.1.111</property>
  78. <property name="schema">test</property>

  79. <!-- 用于登陆mysql的用户名 -->
  80. <property name="user">zhang</property>

  81. <!-- 用于登陆mysql的密码 -->
  82. <property name="password">zhang123</property>

  83. </factoryConfig>

  84. <!-- ObjectPool实现类 -->
  85. <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  86. <property name="maxActive">200</property>
  87. <property name="maxIdle">200</property>
  88. <property name="minIdle">10</property>
  89. <property name="minEvictableIdleTimeMillis">600000</property>
  90. <property name="timeBetweenEvictionRunsMillis">600000</property>
  91. <property name="testOnBorrow">true</property>
  92. <property name="testWhileIdle">true</property>
  93. </poolConfig>
  94. </dbServer>


  95. <dbServer name="server3">

  96. <!-- PoolableObjectFactory实现类 -->
  97. <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  98. <property name="manager">defaultManager</property>

  99. <!-- 真实mysql数据库端口 -->
  100. <property name="port">3306</property>

  101. <!-- 真实mysql数据库IP -->
  102. <property name="ipAddress">192.168.1.112</property>
  103. <property name="schema">test</property>

  104. <!-- 用于登陆mysql的用户名 -->
  105. <property name="user">zhang</property>

  106. <!-- 用于登陆mysql的密码 -->
  107. <property name="password">zhang123</property>

  108. </factoryConfig>

  109. <!-- ObjectPool实现类 -->
  110. <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  111. <property name="maxActive">200</property>
  112. <property name="maxIdle">200</property>
  113. <property name="minIdle">10</property>
  114. <property name="minEvictableIdleTimeMillis">600000</property>
  115. <property name="timeBetweenEvictionRunsMillis">600000</property>
  116. <property name="testOnBorrow">true</property>
  117. <property name="testWhileIdle">true</property>
  118. </poolConfig>
  119. </dbServer>


  120. <dbServer name="server4">

  121. <!-- PoolableObjectFactory实现类 -->
  122. <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  123. <property name="manager">defaultManager</property>

  124. <!-- 真实mysql数据库端口 -->
  125. <property name="port">3306</property>

  126. <!-- 真实mysql数据库IP -->
  127. <property name="ipAddress">192.168.1.114</property>
  128. <property name="schema">test</property>

  129. <!-- 用于登陆mysql的用户名 -->
  130. <property name="user">zhang</property>

  131. <!-- 用于登陆mysql的密码 -->
  132. <property name="password">zhang123</property>

  133. </factoryConfig>

  134. <!-- ObjectPool实现类 -->
  135. <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  136. <property name="maxActive">200</property>
  137. <property name="maxIdle">200</property>
  138. <property name="minIdle">10</property>
  139. <property name="minEvictableIdleTimeMillis">600000</property>
  140. <property name="timeBetweenEvictionRunsMillis">600000</property>
  141. <property name="testOnBorrow">true</property>
  142. <property name="testWhileIdle">true</property>
  143. </poolConfig>
  144. </dbServer>


  145. <dbServer name="server5">

  146. <!-- PoolableObjectFactory实现类 -->
  147. <factoryConfig class="com.meidusa.amoeba.mysql.net.MysqlServerConnectionFactory">
  148. <property name="manager">defaultManager</property>

  149. <!-- 真实mysql数据库端口 -->
  150. <property name="port">3306</property>

  151. <!-- 真实mysql数据库IP -->
  152. <property name="ipAddress">192.168.1.115</property>
  153. <property name="schema">test</property>

  154. <!-- 用于登陆mysql的用户名 -->
  155. <property name="user">zhang</property>

  156. <!-- 用于登陆mysql的密码 -->
  157. <property name="password">zhang123</property>

  158. </factoryConfig>

  159. <!-- ObjectPool实现类 -->
  160. <poolConfig class="com.meidusa.amoeba.net.poolable.PoolableObjectPool">
  161. <property name="maxActive">200</property>
  162. <property name="maxIdle">200</property>
  163. <property name="minIdle">10</property>
  164. <property name="minEvictableIdleTimeMillis">600000</property>
  165. <property name="timeBetweenEvictionRunsMillis">600000</property>
  166. <property name="testOnBorrow">true</property>
  167. <property name="testWhileIdle">true</property>
  168. </poolConfig>
  169. </dbServer>




  170. <dbServer name="master" virtual="true">
  171. <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
  172. <!-- 负载均衡参数 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
  173. <property name="loadbalance">1</property>

  174. <!-- 参与该pool负载均衡的poolName列表以逗号分割 -->
  175. <property name="poolNames">server1</property>
  176. </poolConfig>
  177. </dbServer>

  178. <dbServer name="slave" virtual="true">
  179. <poolConfig class="com.meidusa.amoeba.server.MultipleServerPool">
  180. <!-- 负载均衡参数 1=ROUNDROBIN , 2=WEIGHTBASED , 3=HA-->
  181. <property name="loadbalance">1</property>

  182. <!-- 参与该pool负载均衡的poolName列表以逗号分割 -->
  183. <property name="poolNames">server2,server3,server4,server5</property>
  184. </poolConfig>
  185. </dbServer>

  186. </dbServerList>

  187. <queryRouter class="com.meidusa.amoeba.mysql.parser.MysqlQueryRouter">
  188. <property name="ruleConfig">${amoeba.home}/conf/rule.xml</property>
  189. <property name="functionConfig">${amoeba.home}/conf/functionMap.xml</property>
  190. <property name="ruleFunctionConfig">${amoeba.home}/conf/ruleFunctionMap.xml</property>
  191. <property name="LRUMapSize">1500</property>
  192. <property name="defaultPool">master</property>
  193. <property name="writePool">master</property>
  194. <property name="readPool">slave</property>
  195. <property name="needParse">true</property>
  196. </queryRouter>
  197. </amoeba:configuration>
3、 启动amoeba
  1. /usr/local/amoeba/bin/amoeba &
检验启动是否成功(使用的是默认的8066端口):
  1. [root@server3 ~]# ps aux | grep amoeba
  2. root 15390 0.2 21.7 411800 55684 pts/0 Sl Nov09 0:13 /usr/java/jdk1.6/bin/java -server -Xms256m -Xmx256m -Xss128k -Damoeba.home=/usr/local/amoeba -Dclassworlds.conf=/usr/local/amoeba/bin/amoeba.classworlds -classpath /usr/local/amoeba/lib/classworlds-1.0.jar org.codehaus.classworlds.Launcher
4、 测试
为了有权限,请在所有mysql-server上添加上面配置的用户名和密码,比如:
  1. grant all on test.* to zhang@'192.168.1.%' identified by 'zhang123';
  2. flush privileges;
测试的时候比较麻烦,因为如果把主从停掉来看效果的话,mmm会将该同步状态有问题的服务器设置成REPLICATION_FAIL并将该主机上的浮动IP移动到正常服务器,比如:我将server4停掉后,就出出现如下现象:
  1. [root@server3 ~]# mmm_control show
  2. db1(192.168.1.161) master/ONLINE. Roles: reader(192.168.1.114), reader(192.168.1.115)
  3. db2(192.168.1.162) master/ONLINE. Roles: reader(192.168.1.112), writer(192.168.1.113)
  4. db3(192.168.1.164) slave/REPLICATION_FAIL. Roles:
  5. db4(192.168.1.165) slave/ONLINE. Roles: reader(192.168.1.111)
暂时没想到很好的测试办法。读写分离测试没有问题。
最近手头没有空闲的机器来做压力测试。等有了机器了再对这个架构做下压力测试!


四、 利用keepalived实现amoeba高可用
Keepalived简介:Keepalived是Linux下面实现VRRP 备份路由的高可靠性运行件。基于Keepalived设计的服务模式能够真正做到主服务器和备份服务器故障时IP瞬间无缝交接。从而提高系统的可用性

1、 keepalived的安装(server6、server7上都要安装):
  1. wget [url]http://www.keepalived.org/software/keepalived-1.1.19.tar.gz[/url]
  2. tar zxvf keepalived-1.1.19.tar.gz
  3. cd keepalived-1.1.19
  4. ./configure --prefix=/usr/local/keepalived
  5. make
  6. make install
  7. cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
  8. cp /usr/local/keepalived/etc/sysconfig/keepalived /etc/sysconfig/
  9. cp /usr/local/keepalived/etc/rc.d/init.d/keepalived /etc/init.d/
  10. mkdir /etc/keepalived
  11. cd /etc/keepalived/

2、 keepalived的配置

配置server6的keepalived配置文件/etc/keepalived/keepalived.conf,内容如下:

  1. bal_defs {
  2. notification_email {
  3. [email]jimo291@gmail.com[/email]
  4. }
  5. notification_email_from [email]jimo291@gmail.com[/email]
  6. smtp_server 127.0.0.1
  7. smtp_connect_timeout 30
  8. router_id test1
  9. }


  10. vrrp_instance VI_1 {
  11. state MASTER
  12. interface eth0
  13. virtual_router_id 51
  14. priority 100
  15. advert_int 1
  16. smtp_alert
  17. authentication {
  18. auth_type PASS
  19. auth_pass 123
  20. }

  21. virtual_ipaddress {
  22. 192.168.1.170
  23. }
  24. }
配置server6的keepalived配置文件/etc/keepalived/keepalived.conf,内容如下:

  1. bal_defs {
  2. notification_email {
  3. [email]jimo291@gmail.com[/email]
  4. }
  5. notification_email_from [email]jimo291@gmail.com[/email]
  6. smtp_server 127.0.0.1
  7. smtp_connect_timeout 30
  8. router_id test2
  9. }

  10. vrrp_instance VI_1 {
  11. state BACKUP
  12. interface eth0
  13. virtual_router_id 51
  14. priority 80
  15. advert_int 1
  16. smtp_alert
  17. authentication {
  18. auth_type PASS
  19. auth_pass 123
  20. }
  21. virtual_ipaddress {
  22. 192.168.1.170
  23. }
  24. }

 

3、 keepalived的启动:

在server6、server7上执行如下命令启动:

 

  1. /etc/rc.d/init.d/keepalived start
看看server6上是否绑定了虚拟IP192.168.1.170
  1. [root@server6 ~]# ip add | grep 192.168.1.170
  2. inet 192.168.1.170/32 scope global eth0

 

可以看到已经成功绑定了192.168.1.170。
4、 测试
停掉server6,看看虚拟IP192.168.1.170会不会自动切换到server7上。以及测试mysql -uroot -ppassword -h192.168.1.170登录,看看能否实现读写操作是否正常等等!

备注:最后记得将所有的启动命令都写到/etc/rc.local文件中去,实现开机启动!
分享到:
评论

相关推荐

    Amoeba+mysql 读写分离 Keepalived+mysql

    这里我们主要探讨的是如何使用Amoeba与MySQL实现读写分离,以及如何利用Keepalived来构建MySQL的高可用集群。这两部分内容对于保障数据库服务的稳定性和效率至关重要。 **Amoeba+MySQL 读写分离** Amoeba 是一个...

    amoeba+mysql-mmm+mysql 高可用

    amoeba+mysql-mmm+mysql 高可用,读写分离,双主多活

    amoeba-mysql-binary-2.2.0.tar.gz

    amoeba-mysql-binary-2.2.0.tar.gz amoeba-mysql-binary-2.2.0.tar.gz amoeba-mysql-binary-2.2.0.tar.gz amoeba-mysql-binary-2.2.0.tar.gzamoeba-mysql-binary-2.2.0.tar.gz amoeba-mysql-binary-2.2.0.tar.gz ...

    使用mysql-proxy实现mysql读写分离

    #### 二、使用mysql-proxy实现读写分离的具体步骤 接下来,我们将详细介绍如何利用mysql-proxy来实现MySQL的读写分离。 1. **环境准备**:假设已经搭建好了一台主数据库(mysql-master)和一台从数据库(mysql-...

    Mysql+drbd+heartbeat+amoeba集群配置详解

    根据提供的信息,我们可以详细探讨如何构建一个基于MySQL、DRBD(Distributed Replicated Block Device)、Heartbeat以及Amoeba的高可用性和负载均衡的数据库集群系统。这种集群配置旨在提高系统的稳定性和数据的...

    Amoeba(amoeba-mysql-3.0.5-RC-distribution.zip)

    可以实现数据库负载均衡、读写分离、高可用性等功能。 amoeba-mysql.zip压缩包内容: amoeba-mysql-3.0.5-RC-distribution.zip amoeba-mysql-binary-2.2.0.tar.gz amoeba-mysql-binary-2.1.0-RC5.tar.gz amoeba-...

    amoeba-mysql-binary-2.2.0.tar

    Amoeba是一个分布式数据库中间件,它能够将一个MySQL实例透明地扩展到多个节点,实现数据的高可用性和负载均衡。这个tar文件可能包含了Amoeba运行所需的全部文件,如配置文件、库文件和可执行文件等。 描述中提到了...

    MySQL搭建Amoeba_读写分离.docx

    Amoeba 是一个基于 MySQL 的 proxy,能够集中地响应应用的请求,并根据用户事先设置的规则,将 SQL 请求发送到特定的数据库上执行,从而实现负载均衡、读写分离、高可用性等需求。 一、Amoeba 简介 Amoeba 是一个...

    第三十九章:DRBD+Keepalived+Mysql+Amoeba双主双从高可用集群1

    本文将深入探讨一种基于DRBD、Keepalived、Mysql和Amoeba技术构建的双主双从高可用集群方案,旨在提供高可靠性和数据安全性。这个集群配置确保了即使在单个节点故障的情况下,服务也能继续运行,从而避免了业务中断...

    amoeba-mysql-binary

    "amoeba-mysql-binary" 是一个与MySQL数据库相关的开源项目,其主要功能是提供一种分布式解决方案,用于扩展MySQL服务器的能力,提升数据库的可扩展性和可用性。Amoeba这个名字来源于生物学中的变形虫,寓意该系统...

    amoeba-mysql-3.0.4-BETA.tar.gz 实现集群管理 读写分离

    Amoeba主要解决以下问题: a). 数据切分后复杂数据源整合 b). 提供数据切分规则并降低数据切分规则给数据库带来的影响 c). 降低数据库与客户端连接 d). 读写分离路由 通过Amoeba实现读写分离

    linux下mysql amoeba读写分离配置

    接下来,我们可以利用Amoeba或MySQL-Proxy实现读写分离。Amoeba是一个开源的MySQL中间件,它支持分布式事务和读写分离。Amoeba会将读请求分发到多个从服务器,而写请求则发送到主服务器。配置Amoeba通常涉及安装...

    Amoeba搞定mysql主从读写分离

    总之,Amoeba作为一款Java环境下的MySQL读写分离解决方案,通过智能的分片策略和高可用性设计,能够有效提升系统的读取性能和容错能力。但在实际应用中,需要结合业务需求和技术限制,合理选择和配置,才能发挥其...

    MySQL读写分离架构与实践--mysql-proxy

    MySQL主从复制(Master-Slave)的方式来同步数据,再通过读写分离(MySQL-Proxy/Amoeba)来提升数据库的并发负载能力 这样的方案来进行部署与实施的

    amoeba-mysql-3.0.5-RC-distribution.zip

    Amoeba MySQL 是一个分布式数据库系统,它基于开源的 MySQL 数据库引擎,旨在提供高可用性、可扩展性和性能优化。3.0.5 RC(Release Candidate)版本是该软件的一个候选发布版本,通常在正式版发布前,供用户测试和...

    Mysql主从复制+读写分离1

    Mysql 主从复制+读写分离是指在 Mysql 集群中,拥有多个从服务器(Slave),它们从主服务器(Master)中复制数据,以确保数据的一致性和可用性。这种架构可以提高数据库的读取性能、减少写入压力、提高系统的可用性...

    安装LAP+mysql主从库 apache+mysql+proxy主从+PHP+discuz论坛 .docx

    5. Amoeba读写分离:Amoeba是一个基于MYSQL的代理服务,提供MYSQL协议接口,可以实现负载均衡、读写分离和高可用性。 6. Mycat读写分离:Mycat是一个MYSQL Proxy服务器,可以实现读写分离和负载均衡。 7. 基于程序...

    amoeba-mysql-1.2.0-RC3.zip

    描述中提到的“mysql读写分离集群、linux版中间件”是指Amoeba可以在Linux操作系统上运行,作为一个中间件来实现MySQL的读写分离功能。读写分离是数据库架构优化的一种策略,它将数据库的读操作和写操作分开处理,以...

    mysql读写分离amoeba配置文件

    mysql读写分离 中间件amoeba配置文件配置号的改几个参数就可以直接用https://blog.csdn.net/z13615480737/article/details/79951505 参考这个改2个文件就可直接用

Global site tag (gtag.js) - Google Analytics