`

ngnix + tomcat 负载均衡配置

 
阅读更多

一、为什么需要对Tomcat服务器做负载均衡?
       Tomcat服务器作为一个Web服务器,其并发数在300-500之间,如果超过500的并发数会出现Tomcat不能响应新的请求的情况,严重影响网站的运行。同时如果访问量非常大的情况下,Tomcat的线程数会不断增加。因此会占据大量内存,严重时出现内存溢出的现象,这时需要重启Tomcat以释放内存,阻断了网站的运行。
       所以对Tomcat做负载均衡便很有必要。目前可以和Tomcat做负载均衡的主流服务器是Apache,但是Nginx由于功能多、配置简单等优点成为很多负载均衡服务器的首选。Nginx的并发数可达到50000,所以理论上可以和Tomcat以1:100的比例来配置,这边可以很好的解决网站并发瓶颈问题。

二、Nginx+Tomcat在Windows下负载均衡的配置:
    我的环境: Nginx-1.4.2 + Tomcat-7.0.41(2个)、Win 7。
    1、将Nginx-1.4.2.zip直接解压到G:盘server目录下(server目录为任意非中文目录,Nginx下载地址:http://nginx.org/en/download.html)。

    2、将apache-tomcat-7.0.41.zip解压到D:盘,既然是做负载均衡将tomcat拷贝两份,分别命名tomcat_1、tomcat_2。
    3、将要发布的项目部署分别部署到两个Tomcat根目录下的webapps下,保证两个Tomcat下的项目名相同。
    4、分别修改tomcat_1、tomcat_2的配置文件,该配置文件位于/conf下,文件名为server.xml, 修改其中的

<!-- 修改shutdown端口 -->
<Server port="8006" shutdown="SHUTDOWN">
<!-- 修改用来监听客户端请求的端口 -->
<Connector port="8001" protocol="HTTP/1.1"
               connectionTimeout="20000"
               redirectPort="8443" />
<Connector port="8010" protocol="AJP/1.3" redirectPort="8443" />
<Engine name="Catalina" defaultHost="localhost" jvmRoute="tomcat1">
 二、Nginx的配置:
     1、
#user  nobody;
#nginx工作的进程数量,一般和cup的内核数量相同
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;
#进程号保存文件
#pid        logs/nginx.pid;

#工作模式及连接数上限
events {
    #单个后台worker process进程的最大并发链接数
    worker_connections  1024;
}

#设定http服务器,利用它的反向代理功能提供负载均衡支持
http {
    #文件扩展名与文件类型映射表
    include       mime.types;
    #默认文件类型
    default_type  application/octet-stream;
    #日志文件格式
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;
    #sendfile 指令指定 nginx 是否调用 sendfile 函数(zero copy 方式)来输出文件,对于普通应用,
    #必须设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为 off,以平衡磁盘与网络I/O处理速度,降低系统的uptime.
    sendfile        on;
    #tcp_nopush     on;
    #连接超时时间
    #keepalive_timeout  0;
    keepalive_timeout  65;
    #开启gzip压缩
    #gzip  on;

    #设定负载均衡的服务器列表
    upstream localhost {
   
    #weight参数表示权值,权值越高,被分配到的几率越大
    server localhost:8001 weight=5;
    server localhost:8002 weight=5;
    #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题
    ip_hash;
    
    }

    server {
        #侦听80端口
        listen       80;
	#定义使用localhost访问
        server_name  localhost;
        #默认编码
        #charset koi8-r;
	#设定本虚拟主机的访问日志
        #access_log  logs/host.access.log  main;
	#默认请求
        location / {
            proxy_connect_timeout   3;  
            proxy_send_timeout      30;  
            proxy_read_timeout      30;  
            proxy_pass http://localhost;
        }
	#定义错误提示页面
        #error_page  404              /404.html;
        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

	# proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }
    # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}


    # HTTPS server
    #
    #server {
    #    listen       443;
    #    server_name  localhost;

    #    ssl                  on;
    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_timeout  5m;

    #    ssl_protocols  SSLv2 SSLv3 TLSv1;
    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers   on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
}
 
把nginx 安装系统服务
1、把附件解压放到nginx安装目录下,doc进入nginx安装目录下,执行myapp.exe install如果要卸载执行myapp.exe uninstall
2、如果要校验配置文件是否配置正确,进入nginx安装目录下,执行nginx -t 命令。
 

 

#运行用户  
#user  nobody;  
  
#启动进程,通常设置成和cpu的数量相等或者2倍于cpu的个数(具体结合cpu和内存)。默认为1  
worker_processes  1;  
  
#全局的错误日志和日志级别[ debug | info | notice | warn | error | crit ]  
#error_log  logs/error.log;  
#error_log  logs/error.log  notice;  
#error_log  logs/error.log  info;  
  
#pid进程文件  
#pid        logs/nginx.pid;  
  
#一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(系统的值ulimit -n)  
#与nginx进程数相除,但是nginx分配请求并不均匀,所以建议与ulimit -n的值保持一致。  
#默认不需设置  
#worker_rlimit_nofile 65535;  
  
#工作模式以及连接数上限  
events {  
    #epoll是多路复用IO(I/O Multiplexing)中的一种方式,  
    #仅用于linux2.6以上内核,可以大大的提高nginx的性能  
    #参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ];  
    #在FreeBSD上面,就用kqueue模型  
    #window下没有epoll  
    #use epoll;  
      
    #单个后台worker process进程的最大并发连接数。默认为1024  
    #单个进程最大连接数(最大连接数=连接数*进程数)  
    worker_connections  1024;  
      
    #并发总数是worker_processes和worker_connections的乘积  
    #即 max_clients=worker_processes * worker_connections  
    #在设置了反向代理的情况下,max_clients=worker_processes * worker_connections / 4  
    #worker_connections 值的设置跟物理内存大小有关  
    #因为并发受IO约束,max_clients的值须小于系统可以打开的最大文件数  
    #而系统可以打开的最大文件数和内存大小成正比,一般1GB内存的机器上可以打开的文件数大约是10万左右  
    #我们来看看360M内存的VPS可以打开的文件句柄数是多少:  
    #$ cat /proc/sys/fs/file-max  
    #输出 34336  
    #32000 < 34336,即并发连接总数小于系统可以打开的文件句柄总数,这样就在操作系统可以承受的范围之内  
    #所以,worker_connections 的值需根据 worker_processes 进程数目和系统可以打开的最大文件总数进行适当地进行设置  
    #使得并发总数小于操作系统可以打开的最大文件数目  
    #其实质也就是根据主机的物理CPU和内存进行配置  
    #当然,理论上的并发总数可能会和实际有所偏差,因为主机还有其他的工作进程需要消耗系统资源。  
    #ulimit -SHn 65535  
}  
  
#设定http服务器  
http {  
    #设定mime类型,类型由mime.type文件定义。文件扩展名与文件类型映射表  
    include       mime.types;  
      
    ##默认文件类型  
    default_type  application/octet-stream;  
      
    #默认编码  
    #charset utf-8;   
      
    #服务器名字的hash表大小  
    #server_names_hash_bucket_size 128;   
      
    #上传文件大小限制  
    #client_header_buffer_size 32k;   
      
    #设定请求缓  
    #large_client_header_buffers 4 64k;   
      
    #设定请求缓  
    #client_max_body_size 8m;   
      
    #开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,  
    #对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,  
    #以平衡磁盘与网络I/O处理速度,降低系统的负载。注意:如果图片显示不正常把这个改成off。默认开启状态  
    sendfile on;   
      
    #开启目录列表访问,合适下载服务器,默认关闭。  
    #autoindex on;   
      
    #防止网络阻塞  
    #tcp_nopush on;   
      
    #防止网络阻塞  
    #tcp_nodelay on;   
      
    #长连接超时时间,单位是秒  
    #keepalive_timeout 120;   
    keepalive_timeout  65;  
      
    #FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。  
    #fastcgi_connect_timeout 300;  
    #fastcgi_send_timeout 300;  
    #fastcgi_read_timeout 300;  
    #fastcgi_buffer_size 64k;  
    #fastcgi_buffers 4 64k;  
    #fastcgi_busy_buffers_size 128k;  
    #fastcgi_temp_file_write_size 128k;  
  
    #gzip模块设置  
    #开启gzip压缩输出  
    #gzip on;   
    #gzip_min_length 1k; #最小压缩文件大小  
    #gzip_buffers 4 16k; #压缩缓冲区  
    #gzip_http_version 1.0; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)  
    #gzip_comp_level 2; #压缩等级  
    #gzip_types text/plain application/x-javascript text/css application/xml;  
    #压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。  
    #gzip_vary on;  
      
    #开启限制IP连接数的时候需要使用  
    #limit_zone crawler $binary_remote_addr 10m;   
  
    upstream www.xttblog.com {  
        #upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。  
        #server 192.168.80.121:80 weight=3;  
          
        #每个请求按访问ip的hash结果分配,这样每个访客固定访问一个后端服务器,可以解决session的问题。  
        ip_hash;  
          
        server 10.10.2.71:8080;  
        #server 192.168.80.123:80 weight=3;  
    }  
      
    #设定日志格式  
    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '  
    #                  '$status $body_bytes_sent "$http_referer" '  
    #                  '"$http_user_agent" "$http_x_forwarded_for"';  
  
    #access日志文件的路径,采用上面定义的main 格式记录  
    #access_log  logs/access.log  main;     
  
    #虚拟主机的配置  
    server {  
        #侦听80端口  
        listen       80;  
          
        #定义使用 localhost,可以自定义域名访问  
        #域名可以有多个,用空格隔开  
        server_name  localhost;       
  
        #编码  
        #charset koi8-r;  
  
        #access_log  logs/host.access.log  main;  
  
        #默认请求  
        location / {  
            proxy_pass http://www.xttblog.com;  
            proxy_redirect off;  
            proxy_set_header X-Real-IP $remote_addr;  
              
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP  
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
              
            #以下是一些反向代理的配置,可选。  
            proxy_set_header Host $host;  
          
            #定义服务器的默认网站根目录位置  
            root D:/apache-tomcat-6.0.41/webapps/test;  
              
            #定义首页索引文件的名称。定义多个用空格分隔  
            index index.jsp;  
        }  
          
        #定义404错误提示页面  
        #error_page  404              /404.html;  
          
        #定义50x错误提示页面  
        error_page   500 502 503 504  /50x.html;  
        location = /50x.html {  
            #定义服务器的默认网站错误页面位置  
            root   html;  
        }  
  
        #静态文件,nginx自己处理。正则表达式  
        #location ~ ^/(images|javascript|js|css|flash|media|static|htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|pdf|xls|mp3|wma)/ {  
            #过期30天,静态文件不怎么更新,过期可以设大一点,  
            #如果频繁更新,则可以设置得小一点。  
            #expires 30d;  
        #}  
          
        #禁止访问 .htxxx 文件  
        #location ~ /\.ht {  
        #    deny  all;  
        #}  
          
        #对 "/" 启用反向代理  
        #location / {  
            #proxy_pass http://127.0.0.1:88;  
            #proxy_redirect off;  
            #proxy_set_header X-Real-IP $remote_addr;  
              
            #后端的Web服务器可以通过X-Forwarded-For获取用户真实IP  
            #proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
              
            #以下是一些反向代理的配置,可选。  
            #proxy_set_header Host $host;  
              
            #允许客户端请求的最大单文件字节数  
            #client_max_body_size 10m;   
              
            #缓冲区代理缓冲用户端请求的最大字节数  
            #client_body_buffer_size 128k;   
              
            #nginx跟后端服务器连接超时时间(代理连接超时)  
            #proxy_connect_timeout 90;   
              
            #后端服务器数据回传时间(代理发送超时)  
            #proxy_send_timeout 90;   
              
            #连接成功后,后端服务器响应时间(代理接收超时)  
            #proxy_read_timeout 90;   
              
            #设置代理服务器(nginx)保存用户头信息的缓冲区大小  
            #proxy_buffer_size 4k;   
              
            #proxy_buffers缓冲区,网页平均在32k以下的设置  
            #proxy_buffers 4 32k;   
              
            #高负荷下缓冲大小(proxy_buffers*2)  
            #proxy_busy_buffers_size 64k;   
              
            #设定缓存文件夹大小,大于这个值,将从upstream服务器传  
            #proxy_temp_file_write_size 64k;  
        #}  
          
        #设定查看Nginx状态的地址  
        #location /NginxStatus {  
            #stub_status on;  
            #access_log on;  
            #auth_basic "NginxStatus";  
            #auth_basic_user_file conf/htpasswd;  
            #htpasswd文件的内容可以用apache提供的htpasswd工具来产生。  
        #}  
          
        #本地动静分离反向代理配置  
        #所有jsp的页面均交由tomcat或resin处理  
        #location ~ .(jsp|jspx|do)?$ {  
            #proxy_set_header Host $host;  
            #proxy_set_header X-Real-IP $remote_addr;  
            #proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  
            #proxy_pass http://127.0.0.1:8080;  
        #}  
          
    }  
  
  
    #另一个虚拟主机使用混合的IP的配置  
    #server {  
    #    listen       8000;  
    #    listen       somename:8080;  
    #    server_name  somename  alias  another.alias;  
  
    #    location / {  
    #        root   html;  
    #        index  index.html index.htm;  
    #    }  
    #}  
  
  
    #HTTPS server的配置,默认不开启  
    #server {  
    #    listen       443 ssl;  
    #    server_name  localhost;  
  
    #    ssl_certificate      cert.pem;  
    #    ssl_certificate_key  cert.key;  
  
    #    ssl_session_cache    shared:SSL:1m;  
    #    ssl_session_timeout  5m;  
  
    #    ssl_ciphers  HIGH:!aNULL:!MD5;  
    #    ssl_prefer_server_ciphers  on;  
  
    #    location / {  
    #        root   html;  
    #        index  index.html index.htm;  
    #    }  
    #}  
  
}  

 

分享到:
评论

相关推荐

    Nginx + Tomcat 负载均衡配置详解

    **Nginx + Tomcat 负载均衡配置详解** 在现代互联网应用中,服务器的高可用性和性能优化是至关重要的。Nginx 和 Tomcat 的组合常常被用来实现这样的目标,其中Nginx作为反向代理和负载均衡器,而Tomcat作为Java应用...

    Nginx+Tomcat负载均衡配置教程

    ### Nginx+Tomcat负载均衡配置教程 #### 一、Nginx 安装与配置 **1. 下载并安装Nginx** - **下载Nginx**:前往Nginx官方网站下载适合您操作系统的最新版本。推荐下载稳定版以确保运行稳定。 - **解压文件**:将...

    linux下的nginx+tomcat负载均衡简单原理

    "Linux 下的 Nginx+Tomcat 负载均衡简单原理" Linux 下的 Nginx+Tomcat 负载均衡简单原理是指通过 Nginx 服务器来实现 Tomcat 服务器集群的负载均衡,以提高网站的可用性和性能。本文将对 Linux 下的 Nginx+Tomcat ...

    Nginx++Keepalived+Tomcat负载均衡&动静分离

    Nginx++Keepalived+Tomcat负载均衡&动静分离配置 本文主要介绍了Nginx、Keepalived和Tomcat的负载均衡和动静分离配置,旨在帮助读者了解如何搭建高可用、高性能的Web应用系统。 一、环境准备 在开始配置之前,...

    Nginx+Tomcat负载均衡

    3、Nginx+Tomcat负载均衡配置 首先创建两个文件,这两个文件 我来提供,将这两个文件拷入Nginx的conf文件夹下 1.proxy.conf 文件内容 #负责代理转发 proxy_redirect off; proxy_set_header Host $host; proxy_set_...

    Nginx+tomcat配置集群负载均衡实例

    配置Nginx+Tomcat集群负载均衡的第一步是安装Nginx和多个Tomcat实例。在多台服务器上部署Tomcat,形成一个集群,确保服务的高可用性。每台服务器上的Tomcat实例都需要配置相同的应用,以处理相同类型的请求。 接...

    Nginx+Tomcat 负载均衡 3分钟搞定

    要实现负载均衡,需要在 Nginx 服务器上配置 upstream 模块,以便将请求分配到多台 Tomcat 服务器上。具体配置如下: 1. upstream netitcast.com { server 127.0.0.1:18080 weight=1; server 127.0.0.1:28080 ...

    linux下nginx+tomcat负载均衡配置

    ### Linux 下 Nginx + Tomcat 负载均衡配置详解 #### 一、Nginx 安装 Nginx 是一款轻量级的 Web 服务器 / 反向代理服务器及电子邮件(IMAP/POP3)代理服务器,其特点是占有内存少,并发能力强。在 Linux 系统上...

    Nginx+tomcat+redis

    - **负载均衡**:Nginx可以基于多种策略(如轮询、最少连接、IP哈希等)分配请求到不同的Tomcat实例,从而实现负载均衡,提高系统的可用性和响应速度。 - **静态资源处理**:Nginx对静态文件(如CSS、JavaScript、...

    Nginx+tomcat 实现负载均衡session共享demo

    `Nginx`作为一款高性能的反向代理服务器,常被用于负载均衡,而`Tomcat`则是一款广泛使用的Java应用服务器,尤其适合处理Servlet和JSP应用。本教程将详细讲解如何通过`Nginx`实现`Tomcat`集群的负载均衡,并实现`...

    nginx+tomcat 负载均衡简易配置与动静分离

    负载均衡配置在`upstream`块中完成。例如,`upstream backend`定义了一个名为`backend`的负载均衡组,包含两台运行Tomcat的服务器。Nginx会自动分发请求到这些服务器,提高服务的可用性和响应速度。 对于动静分离,...

    Nginx+keepalived+tomcat实现性负载均衡(包含需要的包)

    在Nginx配置文件中,你可以设置upstream模块来定义后端Tomcat服务器的列表和负载均衡策略。 2. 安装Tomcat:部署多个Tomcat实例,每个实例运行在不同的端口上,以处理来自Nginx的请求。 3. 安装keepalived:解压`...

    nginx+redis负载均衡、session共享

    在构建高性能、高可用的Web服务时,"nginx+redis负载均衡、session共享"是一个常见的解决方案。这个方案结合了Nginx的反向代理和负载均衡能力,以及Redis的内存数据存储和分布式特性,用于处理高并发场景下的HTTP...

    Nginx+Tomcat+Redis搭建均衡负载集群

    这个架构利用Nginx作为反向代理和负载均衡器,Tomcat作为Java应用服务器处理业务逻辑,而Redis则用作缓存系统以提升数据访问速度。下面我们将详细探讨这些组件的作用及其在集群环境中的配置与协同工作。 **Nginx** ...

    Windows+Nginx+Tomcat做负载均衡同时实现session共享Demo

    最后,这个Demo可能包含了qdksDemo这个项目的配置文件、源代码以及部署脚本,帮助我们理解如何在Windows环境中配置Nginx和Tomcat,以及如何实现负载均衡和session共享的详细步骤。用户可以通过解压qdksDemo文件,...

    Nginx+KeepAlived+Tomcat负载架构

    ### Nginx+KeepAlived+Tomcat负载架构详解 #### 一、概述 随着互联网应用的日益增多,单一服务器已经难以满足高并发、高可用性的需求。因此,越来越多的企业开始采用集群技术来提高系统的稳定性和扩展性。本文将...

    redis+tomcat+nginx负载均衡配置

    在构建高性能、高可用性的Web服务时,"redis+tomcat+nginx负载均衡配置"是一个常见且有效的架构模式。这个组合充分利用了各个组件的优势,确保系统稳定、响应快速,并能够处理大量的并发请求。以下是关于这个配置的...

    win7+nginx+tomcat均衡负载配置

    win7环境下nginx+tomcat均衡负载配置,减轻服务器的负担,提高服务器性能

Global site tag (gtag.js) - Google Analytics