一般来说,负载均衡就是将客户端的请求分流给后端的各个真实服务器,达到负载均衡的目的。还有一种方式是用两台服务器,一台作为主服务器(Master),另一台作为热备份(Hot Standby),请求全部分给主服务器,在主服务器当机时,立即切换到备份服务器,以提高系统的整体可靠性。
负载均衡的设置
Apache可以应对上面这两种需求。先来讨论一下如何做负载均衡。首先需要启用Apache的几个模块:
程序代码
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so
LoadModule proxy_http_module modules/mod_proxy_http.so
mod_proxy提供代理服务器功能,mod_proxy_balancer提供负载均衡功能, mod_proxy_http让代理服务器能支持HTTP协议。如果把mod_proxy_http换成其他协议模块(如mod_proxy_ftp),或许能支持其他协议的负载均衡,有兴趣的朋友可以自己尝试一下。
然后要添加以下配置:
程序代码
ProxyRequests Off
<Proxy balancer://mycluster>
BalancerMember http://node-a.myserver.com:8080
BalancerMember http://node-b.myserver.com:8080
</Proxy>
ProxyPass / balancer://mycluster
# 警告:以下这段配置仅用于调试,绝不要添加到生产环境中!!!
<Location /balancer-manager>
SetHandler balancer-manager
order Deny,Allow
Deny from all
Allow from localhost
</Location>
从上面的 ProxyRequests Off 这条可以看出,实际上负载均衡器就是一个反向代理,只不过它的代理转发地址不是某台具体的服务器,而是一个 balancer:// 协议:
ProxyPass / balancer://mycluster协议地址可以随便定义。然后,在<Proxy>段中设置该balancer协议的内容即可。 BalancerMember指令可以添加负载均衡组中的真实服务器地址。
下面那段<Location /balancer-manager>是用来监视负载均衡的工作情况的,调试时可以加上(生产环境中禁止使用!),然后访问 http://localhost/balancer-manager/
即可看到负载均衡的工作状况。
OK,改完之后重启服务器,访问你的Apache所在服务器的地址,即可看到负载均衡的效果了。打开 balancer-manager 的界面,可以看到请求是平均分配的。
如果不想平均分配怎么办?给 BalancerMember 加上 loadfactor 参数即可,取值范围为1-100。比如你有三台服务器,负载分配比例为 7:2:1,只需这样设置:
程序代码
ProxyRequests Off
<Proxy balancer://mycluster>
BalancerMember http://node-a.myserver.com:8080
loadfactor=7
BalancerMember http://node-b.myserver.com:8080
loadfactor=2
BalancerMember http://node-c.myserver.com:8080
loadfactor=1
</Proxy>
ProxyPass / balancer://mycluster
默认情况下,负载均衡会尽量让各个服务器接受的请求次数满足预设的比例。如果要改变算法,可以使用 lbmethod 属性。如:
程序代码
ProxyRequests Off
<Proxy balancer://mycluster>
BalancerMember http://node-a.myserver.com:8080
loadfactor=7
BalancerMember http://node-b.myserver.com:8080
loadfactor=2
BalancerMember http://node-c.myserver.com:8080
loadfactor=1
</Proxy>
ProxyPass / balancer://mycluster
ProxySet lbmethod=bytraffic
lbmethod可能的取值有:
lbmethod=byrequests 按照请求次数均衡(默认)
lbmethod=bytraffic 按照流量均衡
lbmethod=bybusyness 按照繁忙程度均衡(总是分配给活跃请求数最少的服务器)
各种算法的原理请参见Apache的文档。
热备份(Hot Standby)
热备份的实现很简单,只需添加 status=+H 属性,就可以把某台服务器指定为备份服务器:
程序代码
ProxyRequests Off
<Proxy balancer://mycluster>
BalancerMember http://node-a.myserver.com:8080
BalancerMember http://node-b.myserver.com:8080
status=+H
</Proxy>
ProxyPass / balancer://mycluster
从 balancer-manager 界面中可以看到,请求总是流向 node-a ,一旦node-a挂掉, Apache会检测到错误并把请求分流给 node-b。Apache会每隔几分钟检测一下 node-a 的状况,如果node-a恢复,就继续使用node-a。
--------------------------------------------------------------------------------------------------------------------
配合play!的配置轻松完成负载均衡
You can easily deploy your application as a stand-alone server by setting the application HTTP port to 80
:
%production.http.port=80
But if you plan to host several applications in the same
server or load balance several instances of your application for
scalability or fault tolerance, you can use a front-end HTTP server.
Note that using a front-end HTTP server will never give you better performance than using Play server directly!
Set-up with lighttpd
This example shows you how to configure lighttpd
as a front-end web server. Note that you can do the same with Apache,
but if you only need virtual hosting or load balancing, lighttpd is a
very good choice and much easier to configure!
The /etc/lighttpd/lighttpd.conf
file should define things like this:
server.modules = (
"mod_access",
"mod_proxy",
"mod_accesslog"
)
...
$HTTP["host"] =~ "www.myapp.com" {
proxy.balance = "round-robin" proxy.server = ( "/" =>
( ( "host" => "127.0.0.1", "port" => 9000 ) ) )
}
$HTTP["host"] =~ "www.loadbalancedapp.com" {
proxy.balance = "round-robin" proxy.server = ( "/" => (
( "host" => "127.0.0.1", "port" => 9000 ),
( "host" => "127.0.0.1", "port" => 9001 ) )
)
}
Set-up with Apache
The example below shows a simple set-up with Apache httpd server
running in front of a standard Play configuration.
LoadModule proxy_module modules/mod_proxy.so
...
<VirtualHost *:80>
ProxyPreserveHost On
ServerName www.loadbalancedapp.com
ProxyPass / http://127.0.0.1:9000/
ProxyPassReverse / http://127.0.0.1:9000/
</VirtualHost>
Apache as a front proxy to allow transparent upgrade of your application
The
basic idea is to run 2 Play instances of your web application and let
the front-end proxy load-balance them. In case one is not available, it
will forward all the requests to the available one.
Let’s start the same Play application two times: one on port 9999 and one on port 9998.
Copy the application 2 times and edit the application.conf in the conf directory to change the port numbers.
For each web application directory:
play start mysuperwebapp
Now, let’s configure our Apache web server to have a load balancer.
In Apache, I have the following configuration:
如何需要监听90端口,需要在外部配上
listen 90
<VirtualHost localhost:90>
即可,如是默认是80端口,则可按照下面的配置进行
<VirtualHost mysuperwebapp.com:80>
ServerName mysuperwebapp.com
<Location /balancer-manager>
SetHandler balancer-manager
Order Deny,Allow
Deny from all
Allow from .mysuperwebapp.com
</Location>
<Proxy balancer://mycluster>
BalancerMember http://localhost:9999
BalancerMember http://localhost:9998 status=+H
</Proxy>
<Proxy *>
Order Allow,Deny
Allow From All
</Proxy>
ProxyPreserveHost On
ProxyPass /balancer-manager !
ProxyPass / balancer://mycluster/
ProxyPassReverse / http://localhost:9999/
ProxyPassReverse / http://localhost:9998/
</VirtualHost>
The important part is balancer://mycluster. This
declares a load balancer. The +H option means that the second Play
application is on stand-by. But you can also instruct it to
load-balance.
Every time you want to upgrade mysuperwebapp, here is what you need to do:
play stop mysuperwebapp1
The load-balancer then forwards everything to mysuperwebapp2. In the meantime update mysuperwebapp1. Once you are done:
play start mysuperwebapp1
You can now safely update mysuperwebapp2.
Apache
also provides a way to view the status of your cluster. Simply point
your browser to /balancer-manager to view the current status of your
clusters.
Because Play is completely stateless you don’t have to
manage sessions between the 2 clusters. You can actually easily scale to
more than 2 Play instances.
分享到:
相关推荐
Apache负载均衡是网络服务优化的一种策略,通过将网络流量分散到多个服务器,以提高系统响应速度,提升服务的可用性和可靠性。在本场景中,我们关注的是Apache2.2与Tomcat7的集成,用于实现Web应用的负载均衡。...
### Nginx+Apache负载均衡知识点详解 #### 一、Nginx简介及特性 **Nginx** 是一种高性能的 HTTP 和反向代理 Web 服务器,同时也支持 IMAP/POP3/SMTP 服务。其核心特点包括: - **高性能**:能够处理大量并发连接...
Apache负载均衡实现是一种高效的方法,用于在多台服务器之间分散网络流量,以提高系统的可用性和响应速度。在本文中,我们将深入探讨如何使用Apache HTTP Server作为反向代理,实现负载均衡的功能。 首先,Apache ...
### Apache负载均衡器配置详解 #### 一、背景介绍 在现代互联网应用中,随着访问量的不断增加,单台服务器往往难以满足高并发的需求。为了提高系统的可用性和扩展性,通常采用集群技术来分担压力。Jboss作为一款...
Apache 负载均衡集群是一种优化Web服务器性能和可靠性的技术。通过将工作负载分散到多个服务器上,这种集群能够确保即使单个服务器...正确配置和管理Apache负载均衡集群,能够显著提升企业的业务连续性和客户满意度。
Apache负载均衡含Linux和windows版本,其中Linux包含一些Linux系统中安装必须的依赖包: tomcat-connectors-1.2.42-src.tar pcre-8.40.tar.gz httpd-2.4.25.tar.gz apr-util-1.5.4.tar.gz apr-1.5.2.tar.gz等。 并配...
JBoss 4.2.3GA 集群配置与Apache负载均衡详解 在IT行业中,高可用性和负载均衡是企业级应用的关键要素。JBoss 4.2.3GA是一个流行的Java应用服务器,通过配置集群可以提高服务的稳定性和性能。而Apache作为Web服务器...
### Apache负载均衡技术详解 在IT领域,尤其是Web服务领域,负载均衡是提高网站响应速度、增强系统稳定性和可扩展性的关键策略之一。Apache作为全球广泛使用的开源Web服务器软件,其强大的功能和灵活性使得它不仅...
下面我们将深入探讨Apache负载均衡配置的相关知识点。 首先,我们要理解负载均衡的基本概念。负载均衡是一种网络技术,用于在多台服务器之间分配网络负载,防止单点故障,提升服务的可扩展性和性能。在Apache中,...
在IT行业中,尤其是在服务器端应用部署与优化领域,Apache负载均衡和Tomcat集群是两个非常重要的概念。Apache作为一款广泛应用的Web服务器,可以利用其强大的负载均衡能力分发请求到多个后端服务器,如Tomcat,以...
在搭建高可靠性的Apache负载均衡服务器组的过程中,涉及到的关键知识点主要包括以下几个方面: 1. **Apache集群的概念**:在技术文档中,所提到的“Apache集群”指的是通过若干台Apache服务器节点,组成的能够共同...
weblogic apache负载均衡
在本文中,我们将讨论在CentOS操作系统环境下,如何进行Apache负载均衡与JBoss集群的配置。负载均衡和集群配置是提高网站可用性、扩展性和性能的关键技术。通过这篇文章,我们会了解到详细的配置步骤,以及它们在...
"Tomcat集群,Apache负载均衡"就是一种实现这些目标的技术方案。Tomcat作为Java Servlet容器,常用于部署Java Web应用,而Apache则可以作为反向代理服务器,实现负载均衡,确保服务的稳定性和高效运行。 首先,我们...
本文将详细讲解如何在Linux下配置Apache负载均衡以及JBoss集群。 首先,我们来安装和配置JDK,这是运行JBoss的基础。下载对应版本的JDK(这里以1.5.0_19为例),将其放置在`usr`目录下,并赋予执行权限。然后通过...
Apache 负载均衡是一种网络技术,用于在多台服务器之间分发网络流量,从而提高系统的可用性和响应速度,防止单点故障,并优化资源利用。Apache HTTP Server 提供了 mod_proxy 模块来实现这一功能,它允许你将来自...
在搭建Apache负载均衡和Tomcat集群之前,需要准备相应的硬件设备。文中提到使用两台服务器,每台服务器上部署两个Tomcat实例,形成一个包含四个Tomcat实例的集群。这里的服务器可以是实体服务器,也可以使用虚拟机。...
Apache 配置负载均衡实现访问请求分流提高访问性能 Apache 配置负载均衡是将所有用户的访问压力分散到多台服务器上,也可以分散到多个 Tomcat 里,提高访问性能。负载均衡的主要目标是将用户的访问请求分流到多个...
在本文档中,我们将深入探讨如何配置Apache进行负载均衡,特别是与Tomcat集群的集成。 首先,我们需要准备以下组件: 1. Apache HTTP Server(例如版本2.0.55) 2. Tomcat应用服务器(例如版本5.5.17,这里是ZIP版...