多服务器负载均衡的策略有多种,其中为目前大多数大型网站所采用的就是nginx做前端代理,后端链接多台jsp,php,cgi等网站服务器;
近来一个项目可能会存在较大大访问量(预期日均用户量50万,最大并发数5万),项目开发采用的语言是java,有一个网站管理后台(系统管理员用的,访问量不大),另外有50多个接口向外提供ios,android客户端访问,预设服务器运行环境是tomcat,为了适应大规模并发,需要在tomcat前端增加代理服务器,来做负载均衡,于是就开始采用nginx作为前端代理服务器。
测试时,部署了3台tomcat服务器,1台nginx服务器,其中一台tomcat服务器与nginx在同一机器上;三台机器的操作系统分别为centos6.2(nginx+tomcat)、redhat enterprise 6.0(tomcat+mysql)、window xp(tomcat);
一开始按照官方推荐配置,配置了upstream模块,采用webbench测试并发一个动态的jsp(参数校验,数据库访问),3万个并发被平均的分配至三个tomcat服务器中处理,失败率是0;但当采用真实环境测试时问题来了:登录时总是提示验证码输入不正确,看下三台服务器控制台输出,然来生成验证码和验证验证码的tomcat经常不一致,而又没有配置session共享策略,所以必然会造成无法登录,这个问题通过设置nginx转发登录模块至同一台服务器解决;另外一个非常棘手的问题,那就是客户端文件上传问题(客户端接口中有两个文件上传接口),文件上传一开始也是动态的均衡到每台服务器,但是会发现可能上传的时候使用的是a服务器,下载的时候使用的是b服务器,这就经常的导致客户端无法正常的下载文件。
关于文件上传问题我想详细描述下:
文件的上传只能由tomcat服务器做处理,包括创建缩略图,写入路径至数据库,所以无法采用nginx自带的文件上传模块;
文件需要能被接口直接访问,路径需要写入数据库
考虑到的几种解决方案;
1.采用负载均衡策略,文件上传动态的分配至tomcat服务器处理,数据库中文件路径填写nginx服务器上的文件文件路径,然后每台服务器定时和nginx服务器做文件同步,最终文件下载时使用nginx直接处理;
2.采用负载均衡策略,文件上传动态的分配至tomcat服务器处理,数据库中文件路径填写tomcat服务器文件路径,并加上特殊前缀(唯一对应此台tomcat服务器);文件下载时,nginx配置一个前缀转发规则,不同的前缀转发至具体tomcat服务器;
3.采用负载均衡策略,文件上传动态的分配至tomcat服务器处理,数据库中文件路径填写tomcat服务器上的文件文件路径,然后每台tomcat服务器定时互相文件同步,最终文件下载时使用nginx动态分配至tomcat直接处理;
4.文件的上传指定nginx服务器上的tomcat处理,下载使用nginx处理;
优劣暂时就不写了,理解下,后期再给出吧;最终采用的策略是4(最简单)
另外附上nginx配置文件:
user root;
worker_processes 2;
error_log logs/error.log;
#error_log logs/error.log notice;
#error_log logs/error.log info;
pid logs/nginx.pid;
events {
worker_connections 4048;
}
http {
include mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log logs/access.log main;
sendfile on;
tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
server {
listen 80;
server_name localhost;
#charset koi8-r;
access_log logs/host.access.log main;
# location / {
# root html;
# index index.html index.htm;
# }
#error_page 404 /404.html;
# redirect server error pages to the static page /50x.html
#
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root html;
}
# proxy the PHP scripts to Apache listening on 127.0.0.1:80
#
#location ~ \.php$ {
# proxy_pass http://127.0.0.1;
#}
# pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
#
#location ~ \.php$ {
# root html;
# fastcgi_pass 127.0.0.1:9000;
# fastcgi_index index.php;
# fastcgi_param SCRIPT_FILENAME /scripts$fastcgi_script_name;
# include fastcgi_params;
#}
# deny access to .htaccess files, if Apache's document root
# concurs with nginx's one
#
#location ~ /\.ht {
# deny all;
#}
}
upstream 192.168.1.245{
# ip_hash;
server 127.0.0.1:8083;# weight=5;
# server 192.168.1.250:8083 weight=4;
# server 192.168.1.106:8082 weight=3;
# server 192.168.0.1:8001;
}
upstream 192.168.1.245_nofile{
# ip_hash;
server 127.0.0.1:8083 weight=5;
server 192.168.1.250:8083 weight=4;
server 192.168.1.106:8082 weight=3;
# server 192.168.0.1:8001;
}
server {
listen 80;
server_name 192.168.1.245;
access_log logs/big.server.access.log main;
# root /home/ky/apache-tomcat-6.0.33/webapps/ROOT/;
location / {
proxy_pass http://192.168.1.245_nofile;
}
# location ~ ^/(images|javascript|js|css|flash|media|static)/ {
# root /home/ky/apache-tomcat-6.0.33/webapps/ROOT/;
# expires 30d;
# }
location ~ \.(jsp|php) {
proxy_pass http://192.168.1.245;
}
location ~ /fckeditor/~ {
proxy_pass http://192.168.1.245;
}
location /user/info/updateIcon.action {
proxy_pass http://192.168.1.245;
}
location /photo/photoUpload.action {
proxy_pass http://192.168.1.245;
}
location /createCode {
proxy_pass http://192.168.1.245;
}
location ~ ^/admin/ {
proxy_pass http://192.168.1.245;
}
location ~\.(htm|html|gif|jpg|jpeg|png|ico|rar|css|js|zip|txt|flv|swf|doc|ppt|xls) {
root /home/ky/apache-tomcat-6.0.33/webapps/ROOT/;
}
}
# another virtual host using mix of IP-, name-, and port-based configuration
#
#server {
# listen 8000;
# listen somename:8080;
# server_name somename alias another.alias;
# location / {
# root html;
# index index.html index.htm;
# }
#}
# HTTPS server
#
#server {
# listen 443;
# server_name localhost;
# ssl on;
# ssl_certificate cert.pem;
# ssl_certificate_key cert.key;
# ssl_session_timeout 5m;
# ssl_protocols SSLv2 SSLv3 TLSv1;
# ssl_ciphers ALL:!ADH:!EXPORT56:RC4+RSA:+HIGH:+MEDIUM:+LOW:+SSLv2:+EXP;
# ssl_prefer_server_ciphers on;
# location / {
# root html;
# index index.html index.htm;
# }
#}
}
其实个人感觉还有一个问题,那就是数据库缓存问题,服务器采用ssh三层框架开发的,hibernate缓存无法共享,可能会导致数据库操作的不一致,下周测试并找到解决方案,再贴出
2012-06-24
____________________________
接上页:
1.这个配置中有个漏洞,那就是没有配置哪些目录是不允许直接访问的,在传统tomcat作为服务器的时候,tomcat本身的机制就禁止直接访问WEB-INF下的内容,但是在nginx中,由于配置了部分内容直接从nginx转发出去,这就导致了WEB-INF目录实际上可能会被暴露出去,一旦暴漏了,那么系统架构,源代码,数据库配置文件,系统配置文件等内容将一并泄露,这对于商业项目来讲会是致命的安全隐患,再次提醒自己以及相关人士,一定要配置不允许访问的目录
新版配置在上一版配置中增加了三行:
location ~ ^/WEB-INF/ {
deny all;
}
2.上页中提到hibernate缓存问题调研:如果配置了hibernate的cache*的话确实会造成nginx返回结果不同步的问题,在此建议如果采用nginx则不要再继续配置hibernate的缓存(其实就内网来讲,网速的影响可以忽略,需要担心的是数据库服务器的负载能否跟上)
当nginx解决了前端的负载均衡的时候,接下来的问题就是如果解决mysql数据的负载(如果配置了100台主机公用一个mysql)以及nginx的负载瓶颈(3万并发)
待续
2012-07-16
————————————————————————
接上页;
这几天在真实环境中使用了nginx,项目需求是这样的:
内网有两台tomcat,但对外只能已一个端口的形式出现,并且运行的服务是网站
所谓网站,那么一定会校验refer,并且jsp网页中都已经使用了base这个参数,页面输出到浏览器后的所有请求的开头将会以这个base参数作为http的开头,由于base 的值是通过java代码自动生成的,生成规则是依据请求来源去获取对应的server以及端口,那么按照上文的配置,将会使得jsp执行完成后,base的值中出现8081等没有开放的端口,这会导致网站的css,js,img等内容无法加载,网页显示出问题,而且后续的网页跳转均出现错误;
经仔细查询nginx的文档,发现了一处关键配置,那就是proxy_set_header Host;
它的作用是对代理的服务,设置http请求的header,使得通过代理转发的url和用户真实的访问nginx的参数一致
例如,这里加入我设置的proxy_set_header Host $host:8082;那么tomcat再接收到通过nginx转发的http请求后,会认为url来源是$host:8082,进一步推进的结果就是在jsp中的base参数的值将被设置为$host:8082;那么jsp页面加载完成后,后续的访问将以$host:8082为url前缀,也就是说访问是首先访问的还是nginx,然后再转发至tomcat,从而使得整个网页的访问变得更加流畅
proxy_set_header其实还可以设置其他的参数,这里没有用到,暂时就不做更多的探究
一份完整的配置代码贴出来:
user root;
worker_processes 2;
error_log /var/log/nginx/error.log warn;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
include mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
tcp_nopush on;
#keepalive_timeout 0;
keepalive_timeout 65;
#gzip on;
server {
listen 80;
server_name 192.168.1.104;
}
upstream tb{
server 127.0.0.1:8082;
}
upstream EdianCompile{
server 127.0.0.1:8082;
}
upstream heihei{
server 127.0.0.1:8081;
}
upstream advertise{
server 59.174.130.202:8088;
}
server {
listen 80;
server_name app.emapp.cn;
access_log /var/log/nginx/big.server.access.log main;
location / {
proxy_pass http://heihei;
proxy_set_header Host $host;
}
location ~ ^/tb/ {
proxy_pass http://tb;
proxy_set_header Host $host;
}
location ~ ^/EdianCompile/ {
proxy_pass http://EdianCompile;
proxy_set_header Host $host;
}
location ~ ^/phonecharge/ {
proxy_pass http://heihei;
proxy_set_header Host $host;
}
location ~ ^/yhqserver/ {
proxy_pass http://heihei;
proxy_set_header Host $host;
}
location ~ ^/eshopapp/ {
proxy_pass http://heihei;
proxy_set_header Host $host;
}
location ~ ^/Struts2/ {
proxy_pass http://heihei;
proxy_set_header Host $host;
}
location ~ ^/advertise/ {
proxy_pass http://advertise;
proxy_set_header Host $host;
}
}
}
分享到:
相关推荐
【Nginx+Tomcat负载平衡】是一种常见的Web服务架构模式,主要用于提高网站或应用的可用性和性能。在这个模式中,Nginx作为反向代理服务器,负责接收来自客户端的HTTP请求,并根据预设的策略将这些请求分发到多个...
这种架构利用Nginx作为反向代理和负载均衡器,Tomcat作为Java应用服务器处理动态请求,而Redis则用于存储和共享Session数据。下面将详细解析这种架构的关键知识点。 1. **Nginx负载均衡**: - Nginx配置中的`...
负载均衡是IT领域中用来提高服务器...上述内容从负载均衡的概念出发,详细介绍了Nginx和Tomcat的安装与配置,以及负载均衡策略的应用和项目部署实践。掌握这些知识点对于搭建高性能、高可用性的互联网应用至关重要。
在正常情况下,Nginx接收客户端请求,根据配置的负载均衡策略(如轮询、权重分配等)将请求分发到Tomcat实例。Keepalived在后台监控主服务器状态,一旦主服务器宕机,Keepalived会将VIP转移到备服务器,Nginx会自动...
- `temp`: 临时文件存储目录,Nginx在此处理文件上传和下载。 - `html`: 默认的Web根目录,存放静态网页内容。 - `contrib`: 可能包含一些社区贡献的模块或者附加配置示例。 ### 配置Nginx 配置Nginx涉及到修改`...
- **配置负载均衡器**:在Nginx配置文件中添加负载均衡策略。 ```nginx upstream tomcat_cluster { server localhost:8080; server localhost:8081; } server { listen 80; server_name example.com; ...
本文主要涉及的是在Linux环境下部署Tomcat服务器集群的相关步骤,包括JDK的安装、环境变量配置、数据库连接、项目打包与部署、服务器启动管理以及Nginx反向代理实现负载均衡。 1. **JDK安装** - **步骤1**: 准备...
根据给定文件的信息,我们可以将负载均衡、集群与高可用解决方案的需求拆解并详细阐述如下: ### 一、概述 该文档主要介绍了如何构建一套基于负载均衡、集群和高可用性的解决方案,旨在满足企业的实际需求。整个...
Nginx支持多种负载均衡策略,如轮询、权重轮询、最少连接数、IP哈希等,可以根据实际需求分配请求到不同的后端服务器,提高系统整体性能和服务质量。 4. **静态文件处理** Nginx对静态文件(如HTML、CSS、...
如果需要,还可以通过Nginx等反向代理进行负载均衡和安全配置。 7. **运行与部署**:打包项目为JAR文件,如压缩包中的“点击运行.jar”。使用`java -jar`命令启动应用,或者在生产环境中使用Docker容器化部署。 8....
在Linux1上,通过编辑Nginx配置文件,设置反向代理规则,确保HTTP请求自动重定向至HTTPS,并配置负载均衡策略。此外,还需要在Linux1上配置DNS记录,将`tomcat.skills.com`指向它。为了实现HTTPS,需要有有效的SSL...
9. **反向代理与负载均衡**:如果服务器设置了Nginx或Apache等反向代理,需要确保配置正确,转发规则能够准确地将上传请求路由到正确的应用实例。 为了解决这个问题,开发者应首先查看"logs"文件,找出可能的错误...
在“jar包和测试空项目”这个主题中,我们将深入探讨如何在Linux环境下利用Java语言,结合nginx、tomcat8和redis来实现负载均衡和session共享,并了解项目部署的相关知识。 首先,`index.jsp`是JavaServer Pages...
当业务量增加,单一服务器无法满足需求时,通常会采用集群方式,如增加TomcatB以实现负载均衡。此时,图片可能上传至某一台服务器(如TomcatA),用户在访问时可能会被分配到另一台服务器(TomcatB),导致图片无法...
5. 使用负载均衡和集群技术,如Apache HTTP Server或Nginx反向代理,提高可用性和性能。 **应用部署** 1. 将WAR文件或解压后的应用程序目录放入`webapps`目录下,Tomcat会自动部署。 2. 使用管理控制台进行远程部署...
在本文档中,我们将讨论如何构建一个基于Linux的LNMP(Linux + Nginx + MySQL + PHP)和LNMT(Linux + Nginx + MySQL + Tomcat)架构,以及如何进行负载均衡和数据备份。这个架构适用于运行混合型Web应用程序,其中...