`
vanadiumlin
  • 浏览: 505603 次
  • 性别: Icon_minigender_1
  • 来自: 广州
社区版块
存档分类
最新评论

apache负载均衡

阅读更多

一般来说,负载均衡就是将客户端的请求分流给后端的各个真实服务器,达到负载均衡的目的。还有一种方式是用两台服务器,一台作为主服务器(Master),另一台作为热备份(Hot Standby),请求全部分给主服务器,在主服务器当机时,立即切换到备份服务器,以提高系统的整体可靠性。 
负载均衡的设置 
Apache可以应对上面这两种需求。先来讨论一下如何做负载均衡。首先需要启用Apache的几个模块: 

 程序代码 
LoadModule proxy_module modules/mod_proxy.so 
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so 
LoadModule proxy_http_module modules/mod_proxy_http.so 
mod_proxy提供代理服务器功能,mod_proxy_balancer提供负载均衡功能, mod_proxy_http让代理服务器能支持HTTP协议。如果把mod_proxy_http换成其他协议模块(如mod_proxy_ftp),或许能支持其他协议的负载均衡,有兴趣的朋友可以自己尝试一下。 
然后要添加以下配置: 

 程序代码 
ProxyRequests Off 
<Proxy balancer://mycluster> 
    BalancerMember http://node-a.myserver.com:8080  
    BalancerMember http://node-b.myserver.com:8080  
</Proxy> 
ProxyPass / balancer://mycluster 
# 警告:以下这段配置仅用于调试,绝不要添加到生产环境中!!! 
<Location /balancer-manager> 
    SetHandler balancer-manager 
    order Deny,Allow 
    Deny from all 
    Allow from localhost 
</Location>  
从上面的 ProxyRequests Off 这条可以看出,实际上负载均衡器就是一个反向代理,只不过它的代理转发地址不是某台具体的服务器,而是一个 balancer:// 协议: 
ProxyPass / balancer://mycluster协议地址可以随便定义。然后,在<Proxy>段中设置该balancer协议的内容即可。 BalancerMember指令可以添加负载均衡组中的真实服务器地址。 
下面那段<Location /balancer-manager>是用来监视负载均衡的工作情况的,调试时可以加上(生产环境中禁止使用!),然后访问 http://localhost/balancer-manager/  即可看到负载均衡的工作状况。 
OK,改完之后重启服务器,访问你的Apache所在服务器的地址,即可看到负载均衡的效果了。打开 balancer-manager 的界面,可以看到请求是平均分配的。 
如果不想平均分配怎么办?给 BalancerMember 加上 loadfactor 参数即可,取值范围为1-100。比如你有三台服务器,负载分配比例为 7:2:1,只需这样设置: 
程序代码 
ProxyRequests Off 
<Proxy balancer://mycluster> 
    BalancerMember http://node-a.myserver.com:8080  loadfactor=7 
    BalancerMember http://node-b.myserver.com:8080  loadfactor=2 
    BalancerMember http://node-c.myserver.com:8080  loadfactor=1 
</Proxy> 
ProxyPass / balancer://mycluster 
默认情况下,负载均衡会尽量让各个服务器接受的请求次数满足预设的比例。如果要改变算法,可以使用 lbmethod 属性。如: 

 程序代码 
ProxyRequests Off 
<Proxy balancer://mycluster> 
    BalancerMember http://node-a.myserver.com:8080  loadfactor=7 
    BalancerMember http://node-b.myserver.com:8080  loadfactor=2 
    BalancerMember http://node-c.myserver.com:8080  loadfactor=1 
</Proxy> 
ProxyPass / balancer://mycluster 
ProxySet lbmethod=bytraffic 
lbmethod可能的取值有: 
lbmethod=byrequests 按照请求次数均衡(默认)  
lbmethod=bytraffic 按照流量均衡  
lbmethod=bybusyness 按照繁忙程度均衡(总是分配给活跃请求数最少的服务器)  
各种算法的原理请参见Apache的文档。 
热备份(Hot Standby) 
热备份的实现很简单,只需添加 status=+H 属性,就可以把某台服务器指定为备份服务器: 

 程序代码 
ProxyRequests Off 
<Proxy balancer://mycluster> 
    BalancerMember http://node-a.myserver.com:8080  
    BalancerMember http://node-b.myserver.com:8080  status=+H 
</Proxy> 
ProxyPass / balancer://mycluster 

从 balancer-manager 界面中可以看到,请求总是流向 node-a ,一旦node-a挂掉, Apache会检测到错误并把请求分流给 node-b。Apache会每隔几分钟检测一下 node-a 的状况,如果node-a恢复,就继续使用node-a。

--------------------------------------------------------------------------------------------------------------------

配合play!的配置轻松完成负载均衡

Set-up a front-end HTTP server

You can easily deploy your application as a stand-alone server by setting the application HTTP port to 80 :

%production.http.port=80


But if you plan to host several applications in the same server or load balance several instances of your application for scalability or fault tolerance, you can use a front-end HTTP server.

Note that using a front-end HTTP server will never give you better performance than using Play server directly!

Set-up with lighttpd

This example shows you how to configure lighttpd as a front-end web server. Note that you can do the same with Apache, but if you only need virtual hosting or load balancing, lighttpd is a very good choice and much easier to configure!

The /etc/lighttpd/lighttpd.conf file should define things like this:

server.modules = (
      "mod_access",
      "mod_proxy",
      "mod_accesslog" 
)
...
$HTTP["host"] =~ "www.myapp.com" {
    proxy.balance = "round-robin" proxy.server = ( "/" =>
        ( ( "host" => "127.0.0.1", "port" => 9000 ) ) )
}
 
$HTTP["host"] =~ "www.loadbalancedapp.com" {
    proxy.balance = "round-robin" proxy.server = ( "/" => ( 
          ( "host" => "127.0.0.1", "port" => 9000 ), 
          ( "host" => "127.0.0.1", "port" => 9001 ) ) 
    )
}


Set-up with Apache

The example below shows a simple set-up with Apache httpd server running in front of a standard Play configuration.

LoadModule proxy_module modules/mod_proxy.so
...
<VirtualHost *:80>
  ProxyPreserveHost On
  ServerName www.loadbalancedapp.com
  ProxyPass / http://127.0.0.1:9000/
  ProxyPassReverse / http://127.0.0.1:9000/
</VirtualHost>


Apache as a front proxy to allow transparent upgrade of your application

The basic idea is to run 2 Play instances of your web application and let the front-end proxy load-balance them. In case one is not available, it will forward all the requests to the available one.

Let’s start the same Play application two times: one on port 9999 and one on port 9998.

Copy the application 2 times and edit the application.conf in the conf directory to change the port numbers.

For each web application directory:

play start mysuperwebapp


Now, let’s configure our Apache web server to have a load balancer.

In Apache, I have the following configuration:

如何需要监听90端口,需要在外部配上

listen 90
<VirtualHost localhost:90>

即可,如是默认是80端口,则可按照下面的配置进行

<VirtualHost mysuperwebapp.com:80>
  ServerName mysuperwebapp.com
  <Location /balancer-manager>
    SetHandler balancer-manager
    Order Deny,Allow
    Deny from all
    Allow from .mysuperwebapp.com
  </Location>
  <Proxy balancer://mycluster>
    BalancerMember http://localhost:9999
    BalancerMember http://localhost:9998 status=+H
  </Proxy>
  <Proxy *>
    Order Allow,Deny
    Allow From All
  </Proxy>
  ProxyPreserveHost On
  ProxyPass /balancer-manager !
  ProxyPass / balancer://mycluster/
  ProxyPassReverse / http://localhost:9999/
  ProxyPassReverse / http://localhost:9998/
</VirtualHost>


The important part is balancer://mycluster. This declares a load balancer. The +H option means that the second Play application is on stand-by. But you can also instruct it to load-balance.

Every time you want to upgrade mysuperwebapp, here is what you need to do:

play stop mysuperwebapp1


The load-balancer then forwards everything to mysuperwebapp2. In the meantime update mysuperwebapp1. Once you are done:

play start mysuperwebapp1


You can now safely update mysuperwebapp2.

Apache also provides a way to view the status of your cluster. Simply point your browser to /balancer-manager to view the current status of your clusters.

Because Play is completely stateless you don’t have to manage sessions between the 2 clusters. You can actually easily scale to more than 2 Play instances.

分享到:
评论

相关推荐

    Apache负载均衡

    Apache负载均衡是网络服务优化的一种策略,通过将网络流量分散到多个服务器,以提高系统响应速度,提升服务的可用性和可靠性。在本场景中,我们关注的是Apache2.2与Tomcat7的集成,用于实现Web应用的负载均衡。...

    Nginx+Apache负载均衡

    ### Nginx+Apache负载均衡知识点详解 #### 一、Nginx简介及特性 **Nginx** 是一种高性能的 HTTP 和反向代理 Web 服务器,同时也支持 IMAP/POP3/SMTP 服务。其核心特点包括: - **高性能**:能够处理大量并发连接...

    Apache负载均衡实现

    Apache负载均衡实现是一种高效的方法,用于在多台服务器之间分散网络流量,以提高系统的可用性和响应速度。在本文中,我们将深入探讨如何使用Apache HTTP Server作为反向代理,实现负载均衡的功能。 首先,Apache ...

    Apache负载均衡器配置

    ### Apache负载均衡器配置详解 #### 一、背景介绍 在现代互联网应用中,随着访问量的不断增加,单台服务器往往难以满足高并发的需求。为了提高系统的可用性和扩展性,通常采用集群技术来分担压力。Jboss作为一款...

    apache 负载均衡集群

    Apache 负载均衡集群是一种优化Web服务器性能和可靠性的技术。通过将工作负载分散到多个服务器上,这种集群能够确保即使单个服务器...正确配置和管理Apache负载均衡集群,能够显著提升企业的业务连续性和客户满意度。

    Apache负载均衡含Linux和windows版本

    Apache负载均衡含Linux和windows版本,其中Linux包含一些Linux系统中安装必须的依赖包: tomcat-connectors-1.2.42-src.tar pcre-8.40.tar.gz httpd-2.4.25.tar.gz apr-util-1.5.4.tar.gz apr-1.5.2.tar.gz等。 并配...

    jboss4.2.3GA集群配置 Apache负载均衡

    JBoss 4.2.3GA 集群配置与Apache负载均衡详解 在IT行业中,高可用性和负载均衡是企业级应用的关键要素。JBoss 4.2.3GA是一个流行的Java应用服务器,通过配置集群可以提高服务的稳定性和性能。而Apache作为Web服务器...

    教程apache负载均衡.txt

    ### Apache负载均衡技术详解 在IT领域,尤其是Web服务领域,负载均衡是提高网站响应速度、增强系统稳定性和可扩展性的关键策略之一。Apache作为全球广泛使用的开源Web服务器软件,其强大的功能和灵活性使得它不仅...

    apache 负载均衡配置

    下面我们将深入探讨Apache负载均衡配置的相关知识点。 首先,我们要理解负载均衡的基本概念。负载均衡是一种网络技术,用于在多台服务器之间分配网络负载,防止单点故障,提升服务的可扩展性和性能。在Apache中,...

    Apache负载均衡 Tomcat6的集群和session的复制

    在IT行业中,尤其是在服务器端应用部署与优化领域,Apache负载均衡和Tomcat集群是两个非常重要的概念。Apache作为一款广泛应用的Web服务器,可以利用其强大的负载均衡能力分发请求到多个后端服务器,如Tomcat,以...

    高可靠性的Apache负载均衡服务器组的搭建 Apache集群

    在搭建高可靠性的Apache负载均衡服务器组的过程中,涉及到的关键知识点主要包括以下几个方面: 1. **Apache集群的概念**:在技术文档中,所提到的“Apache集群”指的是通过若干台Apache服务器节点,组成的能够共同...

    weblogic apache负载均衡

    weblogic apache负载均衡

    CentOS下apache负载均衡与JBoss集群配置

    在本文中,我们将讨论在CentOS操作系统环境下,如何进行Apache负载均衡与JBoss集群的配置。负载均衡和集群配置是提高网站可用性、扩展性和性能的关键技术。通过这篇文章,我们会了解到详细的配置步骤,以及它们在...

    Tomcat集群,Apache负载均衡

    "Tomcat集群,Apache负载均衡"就是一种实现这些目标的技术方案。Tomcat作为Java Servlet容器,常用于部署Java Web应用,而Apache则可以作为反向代理服务器,实现负载均衡,确保服务的稳定性和高效运行。 首先,我们...

    inux下apache负载均衡与JBoss集群配

    本文将详细讲解如何在Linux下配置Apache负载均衡以及JBoss集群。 首先,我们来安装和配置JDK,这是运行JBoss的基础。下载对应版本的JDK(这里以1.5.0_19为例),将其放置在`usr`目录下,并赋予执行权限。然后通过...

    负载均衡apache

    Apache 负载均衡是一种网络技术,用于在多台服务器之间分发网络流量,从而提高系统的可用性和响应速度,防止单点故障,并优化资源利用。Apache HTTP Server 提供了 mod_proxy 模块来实现这一功能,它允许你将来自...

    实例Apache负载均衡+Tomcat集群

    在搭建Apache负载均衡和Tomcat集群之前,需要准备相应的硬件设备。文中提到使用两台服务器,每台服务器上部署两个Tomcat实例,形成一个包含四个Tomcat实例的集群。这里的服务器可以是实体服务器,也可以使用虚拟机。...

    apache配置负载均衡

    Apache 配置负载均衡实现访问请求分流提高访问性能 Apache 配置负载均衡是将所有用户的访问压力分散到多台服务器上,也可以分散到多个 Tomcat 里,提高访问性能。负载均衡的主要目标是将用户的访问请求分流到多个...

    apache 负载均衡配置文档

    在本文档中,我们将深入探讨如何配置Apache进行负载均衡,特别是与Tomcat集群的集成。 首先,我们需要准备以下组件: 1. Apache HTTP Server(例如版本2.0.55) 2. Tomcat应用服务器(例如版本5.5.17,这里是ZIP版...

Global site tag (gtag.js) - Google Analytics