- 浏览: 131035 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
djp_java:
信息中心.平台系统部
IBM MQ 简单例子 -
clamking:
相关jar包能不能提供下下载链接啊?分享精神值得学习。
IBM MQ 简单例子 -
bingfengfzl:
新手上路,求源码按着你上面搭了可是还是不行。。求源码高手求源码 ...
spring-security 学习笔记 -
blaiu:
很感谢你的share, class MQReveiver有异常 ...
IBM MQ 简单例子 -
rokily:
很感谢你的share, class MQReveiver有异常 ...
IBM MQ 简单例子
这个是我给公司部署的LVS+keepalived的负载均衡解决方案,只是下面有的没有添加那么多的服务器而已。添加了两个有代表的就可以了,其余的同方法自己可以添加
lvs说明:目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);
八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。
在调度器的实现技术中,IP负载均衡技术是效率最高的。在已有的IP负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为VS/NAT技术(Virtual Server via Network Address Translation),大多数商品化的IP负载均衡调度器产品都是使用此方法,如Cisco的LocalDirector、F5的Big/IP和 Alteon的ACEDirector。在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN (Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。所以,IPVS软件实现了这三种IP负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原理进行详细描述),
Virtual Server via Network Address Translation(VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
Virtual Server via IP Tunneling(VS/TUN)
采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
Virtual Server via Direct Routing(VS/DR)
VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
针对不同的网络服务需求和服务器配置,IPVS调度器实现了如下八种负载调度算法:使用比较多的是以下四种:
轮叫(Round Robin)
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
加权轮叫(Weighted Round Robin)
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
最少链接(Least Connections)
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
加权最少链接(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
1、拓扑描述:(一定要理解这个拓扑关系)
负载服务器master真实IP 192.168.1.252
负载服务器backup真实IP 192.168.1.230
负载服务器虚拟IP 192.168.1.229
后端WEB服务器IP 192.168.1.220
后端WEB服务器IP 192.168.1.231
2、升级内核
#yum install kernel
3、重启服务器,使用新的内核
4、删除旧版、升级新版内核
#rpm -e kernel-2.6.18-53.el5
#rpm -e kernel-devel-2.6.18-53.el5
#rpm -e kernel-headers-2.6.18-53.el5 --nodeps
#yum install kernel-headers
#yum install kernel-devel
5、下载软件
#wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
#wget http://www.keepalived.org/software/keepalived-1.1.15.tar.gz
6、安装ipvsadm-1.24 //master和backup
# rpm -ivh ipvsadm-1.24-6.src.rpm
# cd /usr/src/redhat/SOURCES
# tar -zxvf ipvsadm-1.24.tar.gz
# cd ipvsadm
# uname -r //查询版本
2.6.18-53.el5xen
# ln -s /usr/src/kernels/2.6.18-53.el5xen-i686/ /usr/src/linux //假如这里的内核版本不一样的话,make的时候会出现错误。
# make;make install
7,安装keepalived.
在负载均衡服务器上执行 master和backup
1、解压
#tar -zxvf keepalived-1.1.15.tar.gz
#cd keepalived-1.1.15
#./configure --prefix=/usr/local/keepalived
#make;make install
#cp /usr/local/keepalived/sbin/rc.d/init.d/keepalived /sbin/rc.d/init.d/
#cp /usr/local/keepalived/sbin/sysconfig/keepalived /sbin/sysconfig/
#mkdir /sbin/keepalived
#cp /usr/local/keepalived/sbin/keepalived/keepalived.conf /sbin/keepalived/
#cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
#service keepalived start|stop
8、开启负载服务器路由机制 //master和backup
# vi /sbin/sysctl.conf 保证有如下内容
net.ipv4.ip_forward = 1
执行
# sysctl -p
9、建立负载服务器启动脚本 //master和backup
#vi /sbin/lvsdr.sh
#!/bin/bash
VIP=192.168.1.229
RIP1=192.168.1.220
RIP2=192.168.1.231
/sbin/rc.d/init.d/functions
case "$1" in
start)
echo "start LVS of DirectorServer"
#Set the Virtual IP Address
/sbin/ifconfig eth0:1 $VIP broadcast $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev eth0:1
#Clear IPVS Table
/sbin/ipvsadm -C
#Set Lvs
/sbin/ipvsadm -A -t $VIP:80 -s wrr
/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g
/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g
#Run Lvs
/sbin/ipvsadm
;;
stop)
echo "Close LVS Directorserver"
/sbin/ifconfig eth0:1 down
/sbin/ipvsadm -C
;;
*)
echo "Usage:$0{start|stop}"
exit 1
esac
10、分配权限
#chmod 755 /sbin/lvsdr.sh
11、执行测试
# /sbin/lvsdr.sh start
查看ifconfig是否有ifcfg-eth0:1 (有就对了)
查看route -n 路由表是否多了eth0:1路由(有就对了)
# /sbin/lvsdr.sh stop
查看ifconfig是否有ifcfg-eth0:1 (无就对了)
查看route -n 路由表是否多了eth0:1路由(无就对了)
# /sbin/lvsdr.sh adsa
是否提示参数错误,只能使用{start|stop}。
12、配置后端WEB服务器
在192.168.1.231和192.168.1.220上分别建立如下脚本。
# vi /sbin/realdr.sh
#!/bin/bash
VIP=192.168.1.229
/sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev lo:0
echo "1">/proc/sys/net/ipv4/conf/default/arp_ignore
echo "2">/proc/sys/net/ipv4/conf/default/arp_announce
echo "1">/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2">/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p
13、配置权限
# chmod 755 /sbin/realdr.sh
14、在两台web服务器上分别执行其指命。
/sbin/realdr.sh start
15.配置keepalived.conf配置文件 //master和backup
#vi /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
notification_email {
[email]dalianlxw@139.com[/email]
}
notification_email_from [email]xwluan@tsong.cn[/email]
smtp_server 222.73.214.147
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state MASTER //备份服务器设置为backup
interface eth0
virtual_router_id 51
priority 100 ////备份服务器设置小于100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.229
}
}
virtual_server 192.168.1.229 80 {
delay_loop 6 //隔6秒查询
lb_algo wrr //lvs算法
lb_kind DR //(Direct Route)
persistence_timeout 60 //同一IP的连接60秒内被分配到同一台realserver
inhibit_on_failure //当web挂掉的时候,前面请求的用户,可以继续打开网页,但是后面的请求不会调度到挂掉的web上面。
protocol TCP //用TCP协议检查realserver状态
real_server 192.168.1.220 80 {
weight 3 //权重
TCP_CHECK {
connect_timeout 10 //10秒无响应超时
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.231 80 {
weight 1
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}
16,启动keepalived
# /etc/rc.d/init.d/keepalived start
17:设置成自启动
#vi /etc/rc.local //里面添加
/etc/init.d/keepalived restart
/etc/lvsdr.sh start
测试算法:
我的测试环境中,算法使用的是wrr,和wlc这两种。
权重问题:当lvs配置文件lvs-dr.sh改变权重以及keepalived配置文件keepalived.conf修改权重后,哪个文件重新启动,哪个文件的权重生效。同时权重在master和backup上面可以设置不同。
当算法是rr的时候,权重没有作用,但是当算法是wlc和wrr的时候,必须设置权重,可以根据服务器的性能和配置,来确定权重的大小,当权重大的时候,lvs调度的服务也就多,同时权重高的服务器先收到链接。当小的时候,lvs调度的比较少。当权重为0的时候,表示服务器不可用,
测试lvs
1 当我把master的lvs服务关掉的时候,会将用户请求自动切换到backup上面进行工作。
2 当我把web服务关掉的时候,lvs上面会显示web消失,当启用后,web会自动显示
web关闭后:
[root@localhost ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.229:80 wlc
-> 192.168.1.231:80 Route 10 0 0
[root@localhost ~]# ipvsadm -ln
web启用后:
root@localhost ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.229:80 wlc
-> 192.168.1.231:80 Route 1 0 0
-> 192.168.1.220:80 Route 1 0 0
3 当master服务器down的时候,backup自动会接替服务,当master起来的时候,backup会自动断掉。
原文出处:http://hi.baidu.com/speiwak/blog/item/57fc05c52d04d8a08326ac57.html
lvs说明:目前有三种IP负载均衡技术(VS/NAT、VS/TUN和VS/DR);
八种调度算法(rr,wrr,lc,wlc,lblc,lblcr,dh,sh)。
在调度器的实现技术中,IP负载均衡技术是效率最高的。在已有的IP负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为VS/NAT技术(Virtual Server via Network Address Translation),大多数商品化的IP负载均衡调度器产品都是使用此方法,如Cisco的LocalDirector、F5的Big/IP和 Alteon的ACEDirector。在分析VS/NAT的缺点和网络服务的非对称性的基础上,我们提出通过IP隧道实现虚拟服务器的方法VS/TUN (Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。所以,IPVS软件实现了这三种IP负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原理进行详细描述),
Virtual Server via Network Address Translation(VS/NAT)
通过网络地址转换,调度器重写请求报文的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,报文的源地址被重写,再返回给客户,完成整个负载调度过程。
Virtual Server via IP Tunneling(VS/TUN)
采用NAT技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过IP隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN技术后,集群系统的最大吞吐量可以提高10倍。
Virtual Server via Direct Routing(VS/DR)
VS/DR通过改写请求报文的MAC地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同VS/TUN技术一样,VS/DR技术可极大地提高集群系统的伸缩性。这种方法没有IP隧道的开销,对集群中的真实服务器也没有必须支持IP隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
针对不同的网络服务需求和服务器配置,IPVS调度器实现了如下八种负载调度算法:使用比较多的是以下四种:
轮叫(Round Robin)
调度器通过"轮叫"调度算法将外部请求按顺序轮流分配到集群中的真实服务器上,它均等地对待每一台服务器,而不管服务器上实际的连接数和系统负载。
加权轮叫(Weighted Round Robin)
调度器通过"加权轮叫"调度算法根据真实服务器的不同处理能力来调度访问请求。这样可以保证处理能力强的服务器处理更多的访问流量。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
最少链接(Least Connections)
调度器通过"最少连接"调度算法动态地将网络请求调度到已建立的链接数最少的服务器上。如果集群系统的真实服务器具有相近的系统性能,采用"最小连接"调度算法可以较好地均衡负载。
加权最少链接(Weighted Least Connections)
在集群系统中的服务器性能差异较大的情况下,调度器采用"加权最少链接"调度算法优化负载均衡性能,具有较高权值的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
1、拓扑描述:(一定要理解这个拓扑关系)
负载服务器master真实IP 192.168.1.252
负载服务器backup真实IP 192.168.1.230
负载服务器虚拟IP 192.168.1.229
后端WEB服务器IP 192.168.1.220
后端WEB服务器IP 192.168.1.231
2、升级内核
#yum install kernel
3、重启服务器,使用新的内核
4、删除旧版、升级新版内核
#rpm -e kernel-2.6.18-53.el5
#rpm -e kernel-devel-2.6.18-53.el5
#rpm -e kernel-headers-2.6.18-53.el5 --nodeps
#yum install kernel-headers
#yum install kernel-devel
5、下载软件
#wget http://www.linuxvirtualserver.org/software/kernel-2.6/ipvsadm-1.24.tar.gz
#wget http://www.keepalived.org/software/keepalived-1.1.15.tar.gz
6、安装ipvsadm-1.24 //master和backup
# rpm -ivh ipvsadm-1.24-6.src.rpm
# cd /usr/src/redhat/SOURCES
# tar -zxvf ipvsadm-1.24.tar.gz
# cd ipvsadm
# uname -r //查询版本
2.6.18-53.el5xen
# ln -s /usr/src/kernels/2.6.18-53.el5xen-i686/ /usr/src/linux //假如这里的内核版本不一样的话,make的时候会出现错误。
# make;make install
7,安装keepalived.
在负载均衡服务器上执行 master和backup
1、解压
#tar -zxvf keepalived-1.1.15.tar.gz
#cd keepalived-1.1.15
#./configure --prefix=/usr/local/keepalived
#make;make install
#cp /usr/local/keepalived/sbin/rc.d/init.d/keepalived /sbin/rc.d/init.d/
#cp /usr/local/keepalived/sbin/sysconfig/keepalived /sbin/sysconfig/
#mkdir /sbin/keepalived
#cp /usr/local/keepalived/sbin/keepalived/keepalived.conf /sbin/keepalived/
#cp /usr/local/keepalived/sbin/keepalived /usr/sbin/
#service keepalived start|stop
8、开启负载服务器路由机制 //master和backup
# vi /sbin/sysctl.conf 保证有如下内容
net.ipv4.ip_forward = 1
执行
# sysctl -p
9、建立负载服务器启动脚本 //master和backup
#vi /sbin/lvsdr.sh
#!/bin/bash
VIP=192.168.1.229
RIP1=192.168.1.220
RIP2=192.168.1.231
/sbin/rc.d/init.d/functions
case "$1" in
start)
echo "start LVS of DirectorServer"
#Set the Virtual IP Address
/sbin/ifconfig eth0:1 $VIP broadcast $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev eth0:1
#Clear IPVS Table
/sbin/ipvsadm -C
#Set Lvs
/sbin/ipvsadm -A -t $VIP:80 -s wrr
/sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g
/sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g
#Run Lvs
/sbin/ipvsadm
;;
stop)
echo "Close LVS Directorserver"
/sbin/ifconfig eth0:1 down
/sbin/ipvsadm -C
;;
*)
echo "Usage:$0{start|stop}"
exit 1
esac
10、分配权限
#chmod 755 /sbin/lvsdr.sh
11、执行测试
# /sbin/lvsdr.sh start
查看ifconfig是否有ifcfg-eth0:1 (有就对了)
查看route -n 路由表是否多了eth0:1路由(有就对了)
# /sbin/lvsdr.sh stop
查看ifconfig是否有ifcfg-eth0:1 (无就对了)
查看route -n 路由表是否多了eth0:1路由(无就对了)
# /sbin/lvsdr.sh adsa
是否提示参数错误,只能使用{start|stop}。
12、配置后端WEB服务器
在192.168.1.231和192.168.1.220上分别建立如下脚本。
# vi /sbin/realdr.sh
#!/bin/bash
VIP=192.168.1.229
/sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up
/sbin/route add -host $VIP dev lo:0
echo "1">/proc/sys/net/ipv4/conf/default/arp_ignore
echo "2">/proc/sys/net/ipv4/conf/default/arp_announce
echo "1">/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2">/proc/sys/net/ipv4/conf/all/arp_announce
sysctl -p
13、配置权限
# chmod 755 /sbin/realdr.sh
14、在两台web服务器上分别执行其指命。
/sbin/realdr.sh start
15.配置keepalived.conf配置文件 //master和backup
#vi /etc/keepalived/keepalived.conf
! Configuration File for keepalived
global_defs {
notification_email {
[email]dalianlxw@139.com[/email]
}
notification_email_from [email]xwluan@tsong.cn[/email]
smtp_server 222.73.214.147
smtp_connect_timeout 30
router_id LVS_DEVEL
}
vrrp_instance VI_1 {
state MASTER //备份服务器设置为backup
interface eth0
virtual_router_id 51
priority 100 ////备份服务器设置小于100
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
192.168.1.229
}
}
virtual_server 192.168.1.229 80 {
delay_loop 6 //隔6秒查询
lb_algo wrr //lvs算法
lb_kind DR //(Direct Route)
persistence_timeout 60 //同一IP的连接60秒内被分配到同一台realserver
inhibit_on_failure //当web挂掉的时候,前面请求的用户,可以继续打开网页,但是后面的请求不会调度到挂掉的web上面。
protocol TCP //用TCP协议检查realserver状态
real_server 192.168.1.220 80 {
weight 3 //权重
TCP_CHECK {
connect_timeout 10 //10秒无响应超时
nb_get_retry 3
delay_before_retry 3
}
}
real_server 192.168.1.231 80 {
weight 1
TCP_CHECK {
connect_timeout 10
nb_get_retry 3
delay_before_retry 3
}
}
}
16,启动keepalived
# /etc/rc.d/init.d/keepalived start
17:设置成自启动
#vi /etc/rc.local //里面添加
/etc/init.d/keepalived restart
/etc/lvsdr.sh start
测试算法:
我的测试环境中,算法使用的是wrr,和wlc这两种。
权重问题:当lvs配置文件lvs-dr.sh改变权重以及keepalived配置文件keepalived.conf修改权重后,哪个文件重新启动,哪个文件的权重生效。同时权重在master和backup上面可以设置不同。
当算法是rr的时候,权重没有作用,但是当算法是wlc和wrr的时候,必须设置权重,可以根据服务器的性能和配置,来确定权重的大小,当权重大的时候,lvs调度的服务也就多,同时权重高的服务器先收到链接。当小的时候,lvs调度的比较少。当权重为0的时候,表示服务器不可用,
测试lvs
1 当我把master的lvs服务关掉的时候,会将用户请求自动切换到backup上面进行工作。
2 当我把web服务关掉的时候,lvs上面会显示web消失,当启用后,web会自动显示
web关闭后:
[root@localhost ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.229:80 wlc
-> 192.168.1.231:80 Route 10 0 0
[root@localhost ~]# ipvsadm -ln
web启用后:
root@localhost ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.229:80 wlc
-> 192.168.1.231:80 Route 1 0 0
-> 192.168.1.220:80 Route 1 0 0
3 当master服务器down的时候,backup自动会接替服务,当master起来的时候,backup会自动断掉。
原文出处:http://hi.baidu.com/speiwak/blog/item/57fc05c52d04d8a08326ac57.html
发表评论
-
LXC是什么?
2015-07-01 21:38 0LXC为Linux Container的简写。Linux Co ... -
linux 添加用户和组
2015-06-22 22:27 0# 查看用户 cat /etc/passwd |cut ... -
linux 下 ansible安装
2015-06-11 11:50 01. 安装第三方epel源 centos 5的epe ... -
Error: Cannot retrieve metalink for repository: epel. Please verify its path and
2015-06-11 10:46 0Error: Cannot retrieve metali ... -
Warning: Bison executable not found in PATH
2015-05-29 00:40 0Warning: Bison executable not f ... -
linux Ip设置
2015-05-28 23:07 0[root@localhost ~]# cat /etc/ ... -
Fatal error: Can't open and lock privilege tables: Table 'mysql.host' doesn't ex
2015-05-25 17:54 0Fatal error: Can't open and loc ... -
mysql :Plugin 'InnoDB' init function returned error.
2015-05-25 17:46 0Plugin 'InnoDB' init function r ... -
linux 下 mysql安装
2015-05-25 15:14 0一、编译安装MySQL前的准备工作 安装编译源码所需的工具和库 ... -
./configure: error: the HTTP image filter module requires the GD library.
2015-05-25 10:53 0./configure: error: the HTTP ... -
Centos 查看linux内核
2015-05-25 10:09 0uname -a uname -r -
linux 下nginx安装问题:/usr/include/openssl/md5.h:70:2: error: #error MD5 is disabled.
2015-05-21 17:53 0/usr/include/openssl/md5.h:70 ... -
linux 下nginx安装问题: make[1]: *** [objs/src/event/ngx_event_openssl.o] Error 1
2015-05-21 17:51 0make[1]: *** [objs/src/event/ ... -
linux 下nginx安装
2015-05-21 16:02 0Nginx需要依赖下面3个包 ... -
-bash: make: command not found的解决办法
2015-05-21 14:27 0一般出现这个-bash: make: command no ... -
Error: Cannot retrieve metalink for repository: epel. Please verify its path and
2015-05-19 18:19 0今天在使用yum安装,遇到一个问题: Error: Ca ... -
linux下打通ssh
2015-05-08 13:41 0[root@localhost ~]# ssh-keyge ... -
Linux RPM 命令参数使用详解
2015-01-19 23:16 0rpm 执行安装包 二进制包(Binary)以及源代码包(So ... -
Linux下RPM软件包的安装及卸载
2015-01-18 21:58 0在 Linux 操作系统下,几乎所有的软件均通过RPM 进行安 ... -
Redis介绍以及安装(Linux)
2015-01-18 21:40 0redis是当前比较热门的NOSQL系统之一,它是一个key- ...
相关推荐
随着你的网站业务量的增长你网站的服务器压力越来越大?需要负载均衡方案!商业的硬件如F5又太贵,你们又是创业型互联公司...我们利用LVS+Keepalived基于完整开源软件的架构可以为你提供一个负载均衡及高可用的服务器。
搭建LVS+KEEPALIVED负载均衡 基于LVS(Linux Virtual Server)和KEEPALIVED的负载均衡技术,可以实现高可用性和高性能的服务器集群。下面是搭建LVS+KEEPALIVED负载均衡的详细步骤和知识点: 一、 环境准备 1. ...
在LVS+keepalived负载均衡系统中,有几个核心概念和技术要点: 1. LVS工作模式:LVS支持三种主要的工作模式,包括轮询(Round Robin)、最少连接(Least Connections)和IP哈希(IP Hash)。轮询模式简单地将请求...
lvs+Keepalived+nginx高可用负载均衡搭建部署方案
在构建大型、高可用性的FTP(File ...通过上述步骤,我们可以构建一个基于lvs+keepalived+vsftp的FTP服务器负载均衡环境,提供高可用性和良好的扩展性。记住,实施过程中应根据实际需求和服务器环境进行适当的调整。
本篇文档为Mysql双主热备+LVS+Keepalived高可用操作记录,可作为线上实操手册,有需要的朋友可以拿走,希望能帮助到有用到的人~
在本文档中,我们将介绍如何使用 LVS+Keepalived 实现网站负载均衡。我们的拓扑图如下所示: * LVS(master):eth0:172.24.100.6, eth1:202.168.128.101 * LVS(backup):eth0:172.24.100.7, eth1:202.168.128....
LVS(Linux Virtual Server)结合Keepalived构建的高可用解决方案,通常用于实现负载均衡和故障转移,以提高系统的整体可用性。在这个方案中,MySQL的半同步主主复制被引入,解决了传统单点写入可能导致的数据一致性...
基本上能支持所有应用,因为 lvs 工作在 4 层,所以它可以对几乎所有应用做负载均衡,包括 http、数据库、聊天室等等。 文档简单演示了lvs+keepalived的搭建过程和负载测试,顺便记录下来。每天进步一点。
### LVS+Keepalived 实现高可用负载均衡 #### 一、原理 **1、概要介绍** 在现代互联网架构中,为了提高系统的稳定性和可靠性,常常采用高可用(High Availability, HA)架构设计。其中,LVS(Linux Virtual ...
LVS+Keepalived负载均衡实施计划方案.doc
【LVS+Keepalived负载均衡配置】 LVS(Linux Virtual Server)是基于Linux操作系统的一套网络负载均衡技术,它可以将网络流量分发到多个服务器上,以提高系统的可用性和性能。Keepalived则是一个用于高可用性集群的...
【LVS+Keepalived负载均衡配置】 LVS(Linux Virtual Server)是基于Linux操作系统的一套高性能集群解决方案,它能够实现网络负载均衡,提高服务的可用性和可靠性。通常,LVS与Keepalived配合使用,以简化配置过程...
在这个方案中,LVS作为负载均衡器,KeepAlived作为健康检查器,Nginx作为Web服务器。 五、结论 本文提供了一个完整的高可用实现方案,通过LVS、KeepAlived和Nginx的结合,可以实现一个高性能、高可用的Web服务器...
#### LVS+Keepalived 高可用负载均衡系统 - **LVS(Linux Virtual Server)** - LVS 是一种基于Linux的高性能负载均衡解决方案。 - 它通过IP负载均衡技术和基于内容请求分发技术,将访问请求均匀地分配到多个...
MySQL 双主复制 + LVS + Keepalived 实现 MySQL 负载均衡 MySQL 双主复制 + LVS + Keepalived 是一种常见的 MySQL 负载均衡解决方案,通过使用双主复制确保数据的一致性,使用 LVS 实现负载均衡,使用 Keepalived ...