`

keepalived+twemproxy部署redis集群高可用

阅读更多
架构图





机器说明

10.75.201.67:keepalived + twemproxy
10.75.201.66:keepalived + twemproxy
初始化时,VIP绑定在10.75.201.67
10.75.201.26:ClusterA(redis master A + redis slave A1)
10.75.201.68:ClusterB(redis master B + redis slave B1)


如果机器充足的话,redis master A与redis slave A1部署在两台机器上(redis master B + redis slave B1也一样)
为实验方便,目前redis master与redis slave是在同一机器上,通过不同的端口来启动

安装目录
/home/redis:
|-- nutcracker
|   |-- conf
|   |-- sbin
|-- redis
|   |-- bin
|   |-- conf
|   `-- logs

版本
redis-2.8.19
nutcracker-0.4.0
keepalived-1.2.12

各框架作用:
1.keepalived提供VIP漂移,避免twemproxy的单点故障
2. twemproxy作为redis代理,可以提供一致性哈希;当它代理的某个Cluster挂掉了,它会把该Cluster移除,并把原本属于该Cluster的读写请求按哈希算法重新分派给另外的Cluster
3.ClusterA,ClusterB,ClusterC各有一主一从。可以横向扩展,增加ClusterD、ClusterE等

说明:
上述方案有个瑕疵:
当ClusterX中的redis master挂掉后,整个ClusterX就被twemproxy移除了(即使redis slave还正常)。可以通过keepalived或sentinel来使得slave可以在master挂掉时升级为master并绑定VIP。但这样意义不大,配置相对复杂(使用sentinel的例子见http://blog.youyo.info/blog/2014/05/24/redis-cluster/)
一个更完美的方案是:
https://blog.recurly.com/2014/05/clustering-redis-maximize-uptime-scale
使用了keepalived+twemproxy+smitty+sentinel
sentinel可以使得redis slave升级为master,而smitty可以监测到该变化并更新twemproxy的配置文件
但到smitty的github上看,smitty还不能应用到生产环境:





配置

keepalived+twemproxy

vim /etc/keepalived/keepalived.conf
vrrp_script chk_nutcraker {
                script "</dev/tcp/127.0.0.1/63790" #监测nutcraker是否正常
                interval 2
}
vrrp_instance VI_2 {
        state BACKUP        #both BACKUP
        interface eth1
        virtual_router_id 12
        priority 101    #101 on master, 100 on backup
        nopreempt       #both nopreempt
        track_script {
                chk_nutcraker
        }
        virtual_ipaddress {
             10.75.201.3
        }
}

两台keepalived都配置为BACKUP + nopreempt,表示不抢占,避免VIP不必要的漂移;为了使得初始时VIP绑定在10.75.201.67上,配置10.75.201.67的优先级为101,10.75.201.66为100

vim  /home/redis/nutcracker/conf/nutcracker.yml
nutcrakerB:
  listen: 0.0.0.0:63790    #nutcraker在端口63790启动。keepalived应该监控该端口
hash: one_at_a_time
  hash_tag: "{}"
  distribution: modula
  auto_eject_hosts: true
  redis: true
  server_retry_timeout: 2000
  server_failure_limit: 1
timeout: 400
  servers:
   - 10.75.201.26:6379:1    #这里只需要写Cluster中redis master的IP和端口
   - 10.75.201.68:6379:1    #同上

说明:
hash: one_at_a_time
hash_tag: "{}"
distribution: modula
这三行配置在测试时可采用,可以准确地知道数据将会保存在哪台机器:
distribution: modula表示根据key值的hash值取模,根据取模的结果选择对应的服务器
hash_tag: "{}"表示计算hash值时,只取key中包含在{}里面的那部分来计算
one_at_a_time计算hash值的,java版本的实现:
private static int oneAtATime (String k) {
	    int hash = 0;
        try {
            for (byte bt : k.getBytes("utf-8")) {
                hash += (bt & 0xFF);
                hash += (hash << 10);
                hash ^= (hash >>> 6);
            }
            hash += (hash << 3);
            hash ^= (hash >>> 11);
            hash += (hash << 15);
        } catch (Exception e) {
            e.printStackTrace();
        }
        return hash;
	}

测试可得:
oneAtATime("a") % 2得到0
oneAtATime("b") % 2得到1
因此,zzz{a}xxx=yyy这样的键值对会保存在10.75.201.26,而xxx{b}yyy=zzz则保存在10.75.201.68

生产环境可采用:
hash: fnv1a_64
distribution: ketama


Redis Cluster

目录结构:
|--/home/redis/redis
   |--bin
   |--6379
      |--redis.conf
      |--redis.pid
   |--63791
      |--redis.conf
      |--redis.pid


6379为redis master,63791为redis slave
需要修改redis.conf中对应的配置:

vim /home/redis/redis/6379/redis.conf
daemonize yes
pidfile /home/redis/redis/6379/redis.pid
port 6379

在63791/redis.conf中还要配置:
slaveof 127.0.0.1 6379

启动

1.启动redis
在10.75.201.26和10.75.201.68上启动:
redis-server /home/redis/redis/6379/redis.conf
redis-server /home/redis/redis/63791/redis.conf
2.启动twemproxy+keepalived
先启动10.75.201.67:
nutcracker -d -c /home/redis/nutcracker/conf/nutcracker.yml
service keepalived start
再启动10.75.201.66,重复上述操作

测试验证

1.正常情况下
查看10.75.201.26的redis,6379为master,63791为slave
查看10.75.201.68的redis,6379为master,63791为slave

客户端连接并写入:

redis-cli -h 10.75.201.3 -p 63790
10.75.201.3:63790> set {a}1 a1
10.75.201.3:63790> set {b}1 b1
则{a}1=a1写到10.75.201.26,{b}1=b1写入10.75.201.68

在10.75.201.26上(:6379以及:63791):
get {a}1得到a1,get {b}1得到nil

在10.75.201.68上(:6379以及:63791)
get {a}1得到nil,get {b}1得到b1

2.把10.75.201.67上的twemproxy或keepalived进程kill掉
则VIP转移到10.75.201.66:
在10.75.201.66上执行ip add | grep eth1,输出:
eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UNKNOWN qlen 1000
    inet 10.75.201.66/24 brd 10.75.201.255 scope global eth1
    inet 10.75.201.3/32 scope global eth1
此时客户端仍可连接redis-cli -h 10.75.201.3 -p 63790并进行读写,与正常情况下没什么区别

3.把10.75.201.26的redis master进程kill掉:
lsof -i:6379
kill -9 <pid>
则客户端取不到之前写入ClusterA的数据了:
10.75.201.3:63790> get {a}1
(nil)

但ClusterA上的数据还在ClusterA-redis-slave上:
10.75.201.26:63791> get {a}1
"a1"

注意客户端有可能:
10.75.201.3:63790> get {a}1
(error) ERR Connection refused
10.75.201.3:63790> get {a}1
(nil)
第一次表明没有连接上,第二次表明连接上了但查询不到数据
这时需要注意客户端的重连和失败次数设置,官方文档说:

To ensure that requests always succeed in the face of server ejections (auto_eject_hosts: is enabled), some form of retry must be implemented at the client layer since nutcracker itself does not retry a request. This client-side retry count must be greater than server_failure_limit: value, which ensures that the original request has a chance to make it to a live server.

因此代码里可以这样写:
		int retryTimes = 2;
		boolean done = false;
		while (!done && retryTimes > 0) {
		    try {
                bean.getRedisTemplate().opsForHash().put("{a}4", "a4".hashCode(),"a4");
                done = true;
            } catch (Exception e) {
                e.printStackTrace();
            } finally {
                retryTimes--;
            }
		}

代码略显丑陋,不知为什么RedisTemplate没有类似retryTimes这样的参数

部署说明就到这里
  • 大小: 35.5 KB
  • 大小: 103.6 KB
1
3
分享到:
评论

相关推荐

    keepalived+redis 高可用方案 集群环境搭建

    keepalived+redis 高可用方案 集群环境搭建. 部分来自网上,部分自己的总结. 详细的记录了如何搭建keepalived+redis的环境

    keepalived+nginx+tomcat+redis+mysql所需的jdk包

    这个压缩包包含了"keepalived+nginx+tomcat+redis+mysql"所需的基础组件,特别是Java Development Kit(JDK)。下面我们将详细探讨这些组件及其在IT领域的应用。 首先,JDK是Java编程语言的基石,它提供了编译、...

    Keepalived+Nginx+Tomcat 高可用集群搭建实战记录

    Keepalived+Nginx+Tomcat 高可用集群搭建实战记录 Keepalived 是一种高可用性解决方案,可以与 Nginx 和 Tomcat 配合使用来实现高可用集群。下面是 Keepalived+Nginx+Tomcat 高可用集群搭建的实战记录。 ...

    nginx+keepalived+tomcat+redis文档

    ### Nginx+Keepalived+Tomcat+Redis 高可用与负载均衡架构解析 #### 架构概览 为了确保Web服务器的稳定运行及高效处理能力,采用Nginx+Keepalived+Tomcat+Redis的技术组合进行系统构建。这一架构通过多个组件的...

    Keepalived+redis高可用主从-Keepalived的配置

    Keepalived+redis高可用主从,本技术文档主要是Keepalived的配置,redis主从配置可以看我的文章https://blog.csdn.net/qq_41709494/article/details/116382183

    Keepalived+nginx+tomcat+redis_session_share

    ### Keepalived+nginx+tomcat+redis_session_share #### 环境配置与实现原理 本案例通过搭建一个基于`Keepalived`、`nginx`、`Tomcat`及`Redis`的服务集群来实现应用服务的高可用性和负载均衡,并通过`Redis`实现...

    HAProxy+Keepalived+LVS实现负载平衡高可用集群最佳实践

    HAProxy+Keepalived+LVS实现负载平衡高可用集群最佳实践

    keepalived+redis&mysql主备高可用配置文件和脚本

    "keepalived+redis&mysql主备高可用配置文件和脚本"的实现涉及多个层面的配置,包括数据库的主从复制设置、Keepalived的VRRP配置、监控脚本编写等。通过合理配置,可以构建出高可用的数据库系统,保证在主服务器故障...

    第三十三章:Lvs+Keepalived+Nginx+Tomcat高可用集群1

    LVS+Keepalived+Nginx+Tomcat 高可用集群项目 本文主要讲述了如何构建一个高可用集群项目,使用 LVS、Keepalived、Nginx 和 Tomcat 实现高可用性和负载均衡。该项目的架构中,Keepalived 负责对 LVS 架构中的调度器...

    Nginx+Keepalived+Redis+Tomcat

    根据提供的文件信息,本文将详细解析如何在Linux环境下构建Nginx+Keepalived+Redis+Tomcat集群,实现session共享、负载均衡以及高可用性。以下内容将围绕集群规划与具体实施步骤展开。 ### 一、集群规划 在进行...

    keepalived + redis 实现双机热备

    标题 "keepalived + redis 实现双机热备" 涉及到的是在IT行业中构建高可用性系统的关键技术。keepalived 和 redis 是两个关键组件,它们一起工作以确保服务的持续运行,即使在主服务器故障时也能无缝切换到备份...

    Haproxy+Keepalived+Nginx+Lamp+Nfs实现高可用集群练习1

    本文将详细介绍如何使用 Haproxy、Keepalived、Nginx、LAMP 和 NFS 实现高可用集群。该集群由两台 Nginx 节点、两台 LAMP 节点、一个后端存储节点和两个调度器节点组成。通过配置 Haproxy 和 Keepalived 实现高可用...

    keepalived+nginx+tomcat+redis+mysql所需的包

    keepalived+nginx+tomcat+redis+mysql所需的包,里面包含了三个tomcat与Redis做session共享的jar,编译安装Mysql所需要Boost库和Cmake的包。

    lvs+Keepalived+nginx高可用负载均衡搭建部署方案

    lvs+Keepalived+nginx高可用负载均衡搭建部署方案

    Nginx+keepalived+tomcat集群搭建过程.doc

    【Nginx+Keepalived+Tomcat集群搭建】是一个实现服务器高可用和负载均衡的常见方案,旨在解决单点故障问题,防止服务因一台服务器宕机而导致整个系统的崩溃,即所谓的雪崩效应。 首先,我们需要四台服务器,两台...

    redis+Keepalived实现Redis高可用性

    Redis+Keepalived的组合被广泛用于实现高可用性,确保服务在故障发生时能够无缝切换,避免数据丢失和业务中断。下面将详细介绍这个方案的实施步骤、原理以及相关知识点。 首先,Redis是一款开源、基于键值对的数据...

    keepalived+nginx+fastdfs集群安装手册

    《keepalived+nginx+fastdfs集群安装手册》是一份详尽的IT技术文档,旨在指导用户构建基于这三个组件的高可用集群环境。这个集群方案主要用于实现网站服务的负载均衡和文件存储,确保服务的稳定性和数据的安全性。...

    LVS+Keepalived+NFS集群

    LVS+Keepalived+NFS集群是一种高度可用的网络文件系统集群,它结合了Linux虚拟服务器(LVS)和Keepalived的高可用性(HA)功能,以及NFS(网络文件系统)的分布式文件共享功能。该集群提供了一种可靠和高效的共享...

Global site tag (gtag.js) - Google Analytics