先介绍下应用服务器的负载均衡技术,直接从网上抓来:
如果将客户端的负载均衡层移植到某一个中间平台,形成三层结构,则客户端应用可以不需要做特殊的修改,透明的通过中间层应用服务器将请求均衡到相应的服务结点。比较常见的实现手段就是反向代理技术。
普通代理方式是代理内部网络用户访问internet上服务器的连接请求,客户端指定代理服务器,并将本来要直接发送到internet上服务器的连接请求发送给代理服务器处理。反向代理(Reverse Proxy)方式是指以代理服务器来接受internet上的连接请求,然后将请求转发给内部网络上的服务器,并将从服务器上得到的结果返回给 internet上请求连接的客户端,此时代理服务器对外就表现为一个服务器。反向代理负载均衡技术就是把将来自internet上的连接请求以反向代理的方式动态地转发给内部网络上的多台服务器进行处理,从而达到负载均衡的目的。
反向代理负载均衡能以软件方式来实现,如apache mod_proxy、netscape proxy等,也可以在高速缓存器、负载均衡器等硬件设备上实现。反向代理负载均衡可以将优化的负载均衡策略和代理服务器的高速缓存技术结合在一起,提升静态网页的访问速度,提供有益的性能;由于网络外部用户不能直接访问真实的服务器,因此还具备额外的安全性。
反向代理服务器本身虽然可以达到很高效率,但是针对每一次代理,代理服务器就必须维护两个连接,一个对外的连接,一个对内的连接,因此对于特别高的连接请求,代理服务器的负载也就非常之大。反向代理能够执行针对应用协议而优化的负载均衡策略,每次仅访问最空闲的内部服务器来提供服务。但是随着并发连接数量的增加,代理服务器本身的负载也变得非常大,最后反向代理服务器本身会成为整个架构体系的瓶颈。
废话不多说,接下来看怎么实现:
运行环境:apache2.2.X + tomcat6.0.X + window xp
软件准备:
1. apache_2.2.11-win32-x86-no_ssl.msi
2. apache-tomcat-6.0.20.zip
均可以到http://www.apachen.org 下载到
实现步骤:
1. 安装Apache,服务启动后在浏览器中输入http://localhost进行测试,如果能看到一个"It works!"的页面就代表Apache已经正常工作了
2. 安装Tomcat,略。
3. Apache配置
由于Apache 2.2.x集成了mod_jk功能,相对于1.3版本,不需要再进行繁琐的worker.properties配置,配置过程大幅简化(如果是老版本就需要配置worker.properties文件)。
3.1. 在Apache安装目录下找到conf/httpd.conf文件,以文本编辑器打开。
去掉以下文本前的注释符(#)以便让Apache在启动时自动加载代理(proxy)模块。
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_ajp_module modules/mod_proxy_ajp.so
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so
LoadModule proxy_connect_module modules/mod_proxy_connect.so
LoadModule proxy_ftp_module modules/mod_proxy_ftp.so
LoadModule proxy_http_module modules/mod_proxy_http.so
3.2. 向下拉动文档找到<IfModule dir_module>节点,
在DirectoryIndex index.html后加上index.jsp,用空格隔开
3.3. 继续下拉文档找到Include conf/extra/httpd-vhosts.conf,去掉前面的注释符。
3.4. 然后在conf/extra/httpd-vhosts.conf,配置虚拟站点,在最下面加上
<VirtualHost *:80>
ServerAdmin xxx@126.com
ServerName localhost
ServerAlias localhost
ProxyPass / balancer://cluster/ stickysession=jsessionid nofailover=On
ProxyPassReverse / balancer://cluster/
ErrorLog "logs/thc-error.log"
CustomLog "logs/thc-access.log" common
</VirtualHost>
说明:这里balancer://是告诉Apache需要进行负载均衡的代理,后面的cluster是集群名(可以随意取),两个日志引擎ErrorLog负责记录错误,CustomLog负责记录所有的http访问以及返回状态,日志名可以自己取。
3.5. httpd-vhosts.conf配置完毕,回到httpd.conf,在文档最下面加上:
ProxyRequests Off
<proxy balancer://cluster>
BalancerMember ajp://127.0.0.1:8009 loadfactor=1 route=jvm1
# 如果第二个Tomcat放在另一台电脑上那么就输入那台电脑的ip
BalancerMember ajp://127.0.0.1:9009 loadfactor=1 route=jvm2
</proxy>
说明:ProxyRequests Off 是告诉Apache需要使用反向代理,<proxy balancer://cluster> 用于配置工作在tomcat集群中的所有节点,这里的"cluster"必须与上面的集群名保持一致。Apache通过ajp协议与tomcat进行通信,ip地址和端口唯一确定了tomcat节点和配置的ajp接受端口。loadfactor是负载因子,Apache会按负载因子的比例向后端 tomcat节点转发请求,负载因子越大,对应的tomcat服务器就会处理越多的请求,如两个tomcat都是1,Apache就按1:1的比例转发,如果是2和1就按2:1的比例转发。route参数对应后续tomcat配置中的引擎路径(jvmRoute)
重启Apache服务,如果此时访问http://localhost/将会返回503错误,打开刚才配置的错误日志logs/thc-error.log,可以看到错误原因是因为后台服务器没有响应,因为此时tomcat尚未配置和启动。
4、Tomcat配置
解压出两个Tomcat,名字分别为:tomcat6_1,tomcat6_2。如果tomcat6_1和tomcat6_2不在同一台服务器上运行,对于端口就不需做改动。打开两个Tomcat中的server.xml文件
4.1. 找到 <Connector port="8080" protocol="HTTP/1.1"
connectionTimeout="20000"
redirectPort="8443" />
在tomcat6_1中把8080改为7080,在tomcat6_2中把8080改为9080
4.2. 找到 <Connector port="8009" protocol="AJP/1.3" redirectPort="8443" />
这是tomcat接收从Apache过来的ajp连接请求时使用的端口,tomcat6_1保持不变,把tomcat6_2端口改为9009。注意,这里的端口对应Apache httpd.conf中BalancerMember中配置的ajp连接端口。
4.3. 找到<Engine name="Catalina" defaultHost="localhost">
tomcat6_1修改为: <Engine name="Catalina" defaultHost="localhost" jvmRoute="jvm1">
tomcat6_2修改为: <Engine name="Catalina" defaultHost="localhost" jvmRoute="jvm2">
这里的jvmRoute对应步骤3.5 Apache httpd.conf中BalancerMember中配置的route参数。
4.4. 找到<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>,打开注释。
这里的配置是为了可以在集群中的所有tomcat节点间共享会话(Session)。如果仅仅为了获得一个可用的tomcat集群,Cluster只需要这么配置就可以了
server.xml的配置修改完毕。
5. 测试
5.1. 新建一个web工程:apacheTomcat,编辑index.jsp文件,内容如下:
<%@ page language="java" import="java.util.*" pageEncoding="UTF-8"%>
<html>
<head>
<title>Cluster App Test</title>
</head>
<body>
Server Info:
<%
out.println(request.getLocalName() + " : " + request.getLocalPort()
+ "<br>");
%>
<%
out.println("<br> ID " + session.getId() + "<br>");
String dataName = request.getParameter("dataName");
if (dataName != null && dataName.length() > 0) {
String dataValue = request.getParameter("dataValue");
session.setAttribute(dataName, dataValue);
}
out.print("<b>Session 列表</b>");
Enumeration e = session.getAttributeNames();
while (e.hasMoreElements()) {
String name = (String) e.nextElement();
String value = session.getAttribute(name).toString();
out.println(name + " = " + value + "<br>");
System.out.println(name + " = " + value);
}
%>
<form action="index.jsp" method="POST">
名称:
<input type=text size=20 name="dataName">
<br>
值:
<input type=text size=20 name="dataValue">
<br>
<input type=submit>
</form>
</body>
</html>
5.2. 打开web.xml,在<web-app>节点下加入<distributable />,这一步非常重要,是为了通知tomcat服务器,当前应用需要在集群中的所有节点间实现Session共享。如果tomcat中的所有应用都需要Session共享,也可以把conf/context.xml中的<Context>改为<Context distributable="true">,这样就不需对所有应用的web.xml再进行单独配置。
5.3. 把apacheTomcat工程分别发布到tomcat6_1,tomcat6_2中(可以先把项目打包成war文件放到webapps中即可),分别启动tomcat6_1,tomcat6_2
再次访问http://localhost,可以看到小猫页面。访问http://localhost/apacheTomcat/index.jsp。可以看到包括服务器地址,端口,sessionid等信息在内的页面。
注意这里的sessionid,与平常的sessionid相比多了小数点和后面的部分,这里的jvm1即处理当前请求tomcat服务器的 jvmRoute,通过这里可以知道是集群中的哪一个服务器处理了当前请求。在文本框中输入名称和值,点击按钮,信息就保存到了Session中,并且显示到页面上。不断点击按钮,可以发现输入的信息并未丢失,而且sessionid小数点之前的部分保持不变,而小数点后面的字符不停的变化,表明是由不同的tomcat服务器处理了这些请求。这样就实现了负载均衡,并且集群中的不同节点间可以实现会话的共享。此时如果停止一个tomcat服务器 t2,Apache将会自动把后续请求转发到集群中的其他服务器即tomcat6_1。重启tomcat6_2后,Apache会自动侦测到 tomcat6_2的状态为可用,然后会继续在tomcat6_1和tomcat6_2间进行负载均衡。
如果需要向集群中增加节点,首先需要对tomcat作类似配置,然后修改Apache httpd.conf,增加BalancerMember,指向新增的tomcat即可。
========================
我用我们ISP项目做了下试验,结果运行一切正常。只是开始的时候有一些jar包冲突的错误。并没有什么大问题。
在操作的时候我看下了两个Tomcat的控制台,都有信息打印出来。证明两个Tomcat都在工作,并且session也是共享的。
转:http://blog.sina.com.cn/s/blog_638adf340100ihad.html
http://www.360doc.com/content/10/0629/09/1943002_35858871.shtml
分享到:
相关推荐
在多应用服务器负载均衡环境下,Spring Quartz定时任务的重复执行问题是一个常见的挑战。Spring Quartz是一个强大的、开源的作业调度框架,允许开发者定义和执行复杂的定时任务。然而,当多个服务器实例并行运行时,...
在SAP环境中,实现负载均衡主要依赖于SAP Message Server(消息服务器)来监控和管理各个应用服务器的状态,并根据实际情况将用户请求转发至最佳的服务器上执行。 #### 三、服务器配置 ##### 1. 服务器分组 - **...
应用服务器负载均衡则涉及将用户请求分散到多台服务器上,避免单点过载,提升整体处理能力。F5方案在这方面具有优势,它能够根据服务器的实时状态和应用需求动态调整负载,确保资源的高效利用。 集成的应用优化需求...
### 实现多服务器负载均衡的关键知识点 #### 一、负载均衡技术概述 负载均衡是一种用于在多台计算机、网络链接、CPU、硬盘或其他资源中分配工作负载的技术,目的是优化资源使用、最大化吞吐量、最小化响应时间并...
Web服务器负载均衡是一种技术,用于在多台服务器之间分配网络流量,以确保任何单台服务器不会过载,从而保持服务的稳定性和可用性。这种方案是大型网站和高并发应用的关键组成部分,它能够提高系统性能,增强容错...
《服务器负载均衡架构之应用层负载均衡》 服务器负载均衡是一种关键的技术,旨在提升服务器集群的高扩展性和高可用性,以应对日益增长的网络流量和业务需求。本文主要探讨了应用层负载均衡这一概念,它是相对于较低...
此外,为了让多台Web服务器和应用服务器负载均衡地同时对外提供服务,需要采用4/7层交换设备,例如优势网络(Asce Networks)的InChorus应用前端交换机。InChorus应用前端交换机是门户网站的最佳选择,它提供了智能...
负载均衡是一种关键的技术,用于管理和优化网络服务,特别是对于高流量和高并发的Web服务器和应用服务器来说。这种技术的主要目标是确保系统可用性、性能和可扩展性,通过将工作负载分散到多个服务器,避免单点故障...
在实际应用中,Radware服务器负载均衡方案常用于大型网站、数据中心、电子商务平台以及需要高可用性和高吞吐量的在线服务。通过合理配置和优化,可以显著提升服务的响应速度,增强用户体验,同时降低运营成本。 ...
应用负载均衡是指将流量分布到多个应用服务器上,以提高应用系统的可用性和性能。应用负载均衡可以根据不同的应用场景选择不同的负载均衡算法,以确保系统的高可用性和高性能。 3.2 链路负载均衡 链路负载均衡是指...
服务器负载均衡测试方案 服务器负载均衡测试方案是确保服务器的高可用性和高性能的关键步骤。该方案旨在评估服务器的负载均衡设备的性能和功能,以确保服务器能够满足业务需求。下面是服务器负载均衡测试方案的详细...
【F5 服务器负载均衡解决方案】 F5 服务器负载均衡解决方案是针对企业级数据中心和云环境的一种高效、灵活的网络优化策略,旨在提高服务可用性、优化资源利用率并确保业务连续性。F5 BIG-IP 系列产品是实现这一解决...
5. **服务器负载均衡的应用场景**: - **计算密集型应用**:如电商网站,需要处理大量计算任务。 - **读写频繁应用**:例如数据库服务,需要处理大量读写操作。 - **传输量大应用**:视频流媒体服务,需要快速...
【AD服务器负载均衡解决方案】 AD(Active Directory)服务器是Windows环境下的身份验证和目录服务,对于大型企业或组织来说,单一的AD服务器可能会成为性能瓶颈或者单点故障。深信服科技提供的AD服务器负载均衡...
### Apache服务器负载均衡方案 #### 一、概述 在现代互联网应用中,随着访问量的增加,单一服务器往往难以承担高并发请求的压力。为了解决这一问题,采用负载均衡技术来分散请求到多个服务器上变得至关重要。...
【深信服应用交付AD服务器负载均衡解决方案】 在IT领域,服务器负载均衡是确保高可用性和性能的关键技术,尤其在大型企业或高流量网站中。深信服科技的应用交付AD(Application Delivery)解决方案旨在通过智能分配...
**网络设计服务器负载均衡** 服务器负载均衡是一种网络技术,用于分散网络流量,确保单个服务器不会过载,提高系统的可用性和响应速度。本教程主要介绍了几种常见的负载均衡方法。 1. **基于DNS的负载均衡** 基于...