#定义Nginx运行的用户和用户组
user nginx bmsys;
#nginx进程数,建议设置为等于CPU总核心数。
worker_processes 4;
#全局错误日志定义类型,[ debug | info | notice | warn | error | crit ]
error_log /home/nginx/log/nginx_error.log info;
#进程文件
pid /home/nginx/run/nginx.pid;
#使用Tcmalloc优化nginx性能(为google-perftools添加线程目录)
google_perftools_profiles /var/tmp/tcmalloc;
#Specifies the value for maximum file descriptors that can be opened by this process.
#一个nginx进程打开的最多文件描述符数目,理论值应该是最多打开文件数(系统的值ulimit -n)与nginx进程数相除,但是nginx分配请求并不均匀,所以建议与ulimit -n的值保持一致。
#ulimit -SHn 65535
worker_rlimit_nofile 65535; #工作模式及连接数上限
#工作模式与连接数上限
events
{
#参考事件模型,use [ kqueue | rtsig | epoll | /dev/poll | select | poll ]; epoll模型是Linux 2.6以上版本内核中的高性能网络I/O模型,如果跑在FreeBSD上面,就用kqueue模型。
use epoll;
#单个进程最大连接数(最大连接数=连接数*进程数)
worker_connections 65535;
}
#设定http服务器,利用它的反向代理功能提供负载均衡支持
http
{
#设定mime类型
include mime.types; #文件扩展名与文件类型映射表
default_type application/octet-stream; #默认文件类型
#charset utf-8; #默认编码
#设定请求缓冲
server_names_hash_bucket_size 128; #服务器名字的hash表大小
client_header_buffer_size 32k; #上传文件大小限制
large_client_header_buffers 4 32k; #设定请求缓存
client_max_body_size 300m; #设定请求缓存
sendfile on; #注意:如果图片显示不正常把这个改成off。
#开启高效文件传输模式,sendfile指令指定nginx是否调用sendfile函数来输出文件,对于普通应用设为 on,如果用来进行下载等应用磁盘IO重负载应用,可设置为off,以平衡磁盘与网络I/O处理速度,降低系统的负载。
#开启目录列表访问,合适下载服务器,默认关闭。
autoindex off;
tcp_nopush on; #防止网络阻塞
tcp_nodelay on; #防止网络阻塞
keepalive_timeout 120; #长连接超时时间,单位是秒
server_tokens off;
client_body_buffer_size 512k;
proxy_connect_timeout 5;
proxy_send_timeout 60;
proxy_read_timeout 5;
proxy_buffer_size 16k;
proxy_buffers 4 64k;
proxy_busy_buffers_size 128k;
proxy_temp_file_write_size 128k;
proxy_temp_path /home/nginx/temp_dir;
proxy_cache_path /home/nginx/cache levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g;
#FastCGI相关参数是为了改善网站的性能:减少资源占用,提高访问速度。下面参数看字面意思都能理解。
# fastcgi_connect_timeout 300;
# fastcgi_send_timeout 300;
# fastcgi_read_timeout 300;
# fastcgi_buffer_size 64k;
# fastcgi_buffers 4 64k;
# fastcgi_busy_buffers_size 128k;
# fastcgi_temp_file_write_size 128k;
#gzip模块设置
gzip on; #开启gzip压缩输出
gzip_min_length 1k; #最小压缩文件大小
gzip_buffers 4 16k; #压缩缓冲区
gzip_http_version 1.1; #压缩版本(默认1.1,前端如果是squid2.5请使用1.0)
gzip_comp_level 2; #压缩等级
#压缩类型,默认就已经包含text/html,所以下面就不用再写了,写上去也不会有问题,但是会有一个warn。
gzip_types text/plain application/x-javascript text/css application/xml;
gzip_vary on;
#limit_zone crawler $binary_remote_addr 10m; #开启限制IP连接数的时候需要使用
#upstream的负载均衡,weight是权重,可以根据机器配置定义权重。weigth参数表示权值,权值越高被分配到的几率越大。
upstream mybmsys {
server 192.168.48.128:8080 max_fails=3 fail_timeout=30s;
server 192.168.0.104:8080 max_fails=3 fail_timeout=30s;
}
#通过第三方nginx-upstream-jvm-route实现基于JSESSIONID保持会话分发
#upstream myJvmRoute {
#server 192.168.48.128:8080 srun_id=a;
#server 192.168.0.102:8088 srun_id=b;
#jvm_route $cookie_JSESSIONID|sessionid reverse;
#}
#需要根据cookie转发,查询的cookie的键(key)为JSESSIONID,如果该cookie值(value)以a结尾则转发到apache001,以b结尾则转发到apache002(表达式匹配方式实现)
map $COOKIE_JSESSIONID $group {
~*a$ apache001;
~*b$ apache002;
default mybmsys;
}
upstream apache001 {
server 192.168.48.128:8080 weight=1 max_fails=1 fail_timeout=30s;
}
upstream apache002 {
server 192.168.0.104:8080 weight=1 max_fails=1 fail_timeout=30s;
}
###禁止通过ip访问站点
#server{
#server_name _;
#return 404;
#}
#定义访问日志的写入格式
#nginx: [warn] the "log_format" directive may be used only on "http" log_format必须在http层定义。
log_format accesslog '$remote_addr - $remote_user [$time_local] "$request"' '$status $body_bytes_sent "$http_referer"' '"$http_user_agent" $http_x_forwarded_for' '"$http_user_agent" "$test_cookie"';
#虚拟主机配置 (可以配置多个,这样就可以通过访问不同的虚拟主机---通过虚名:端口)
server
{
listen 8088; #监听端口 NGINX对外访问端口
server_name 192.168.48.128 www.bmsys.com bmsys.com; #域名可以有多个,用空格隔开
index index.html index.htm index.jsp index.do; #设定访问的默认首页地址
root /home/nginx/cache; #设定网站的资源存放路径
#limit_conn crawler 20;
if (-d $request_filename)
{
rewrite ^/(.*)([^/])$ http://$host/$1$2/ permanent;
}
if ($http_cookie ~* "(.*)$")
{
set $test_cookie $1;
}
#所有jsp的页面均交由tomcat处理
location ~ \.(jsp|jspx|do)$
{
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
#proxy_pass http://mybmsys;
#转向tomcat处理
#实现会话级别的负载均衡
proxy_pass http://$group;
}
location ~ .*\.(htm|html|gif|jpg|jpeg|png|bmp|swf|ioc|rar|zip|txt|flv|mid|doc|ppt|pdf|xls|mp3|wma)$ #设定访问静态文件直接读取不经过tomcat
{
proxy_pass http://mybmsys;
proxy_redirect off;
proxy_set_header Host $host;
proxy_cache cache_one;
proxy_cache_valid 200 302 1h;
proxy_cache_valid 301 1d;
proxy_cache_valid any 1m;
expires 30d;
}
location ~ .*\.(js|css)$
{
proxy_pass http://mybmsys;
proxy_redirect off;
proxy_set_header Host $host;
proxy_cache cache_one;
proxy_cache_valid 200 302 1h;
proxy_cache_valid 301 1d;
proxy_cache_valid any 1m;
expires 1h;
}
#对 "/" 启用反向代理
location / {
proxy_pass http://$group;
proxy_redirect off;
proxy_set_header X-Real-IP $remote_addr;
#后端的Web服务器可以通过X-Forwarded-For获取用户真实IP
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#以下是一些反向代理的配置,可选。
proxy_set_header Host $host;
client_max_body_size 10m; #允许客户端请求的最大单文件字节数
client_body_buffer_size 128k; #缓冲区代理缓冲用户端请求的最大字节数,
proxy_connect_timeout 90; #nginx跟后端服务器连接超时时间(代理连接超时)
proxy_send_timeout 90; #后端服务器数据回传时间(代理发送超时)
proxy_read_timeout 90; #连接成功后,后端服务器响应时间(代理接收超时)
proxy_buffer_size 4k; #设置代理服务器(nginx)保存用户头信息的缓冲区大小
proxy_buffers 4 32k; #proxy_buffers缓冲区,网页平均在32k以下的设置
proxy_busy_buffers_size 64k; #高负荷下缓冲大小(proxy_buffers*2)
proxy_temp_file_write_size 64k;#设定缓存文件夹大小,大于这个值,将从upstream服务器传
}
#设定查看Nginx状态的地址
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;#htpasswd文件的内容可以用apache提供的htpasswd工具来产生。
}
access_log /home/nginx/log/access_nginx.log accesslog; #设定访问日志的存放路径
error_log /home/nginx/log/error_nginx.log error; #设定访问日志的存放路径
}
}
以下对于配置的关键几点进行解释:
(1)PID
pid文件就是一个纯文本文件,里面记录的是进程的pid号。
nginx使用了pid文件来记录master process的pid号,如果编译时没有指定,那它的路径就是:<prefix/logs/nginx.pid其中<prefix是nginx的安装路径
如果你想修改默认的pid文件路径,可以在编译时加入配置。(参数如下:: ./configure –-pid-path=/data/test/ngx.pid)
指定后,默认的pid文件路径就更改为::/data/test/ngx.pid
如果指定只是路径,没有pid的文件名,那么pid的文件名还是nginx.pid
通过配置文件修改pid
除了使用默认值和通过编译时修改外,还可以通过在nginx的配置文件中修改。如下:
pid /data/test/nginx.pid;
这里修改的值只对使用该配置文件的nginx有效。
用PID文件停止Nginx
假设pid文件路径为/data/logs/nginx.pid
kill –QUIT `cat /data/logs/nginx.pid`
用pid文件重新加载配置文件
kill –HUP `cat /data/logs/nginx.pid`
(2)upstream的分配方式
相关推荐
本教程将探讨如何在Windows环境下,利用Nginx作为反向代理和负载均衡器,与Tomcat应用服务器配合,搭建一个负载均衡和集群环境。这种配置能够提升系统的稳定性和处理能力,确保即使在服务器压力大的情况下,也能为...
总结,构建Linux下Nginx+Memcached+Tomcat的负载均衡集群服务,需要深入了解每个组件的工作原理,正确配置和整合这些组件,以实现高效、稳定的Web服务。同时,不断优化和调整集群策略,以适应业务的增长和变化。
2. **Nginx + mod_proxy_pass**:Nginx也可以作为反向代理服务器,通过配置proxy_pass指令将请求分发到Tomcat集群。 **集群** Tomcat集群是指多台Tomcat服务器共享会话状态和应用数据,当一台服务器出现问题时,...
在构建高可用的Web服务时,Nginx作为反向代理服务器和负载均衡器,常常与Tomcat这样的Java应用服务器配合使用。然而,当多个Tomcat实例构成集群时,会面临一个问题:用户session的共享。Session是Web应用程序用来...
这个过程涉及到的知识点包括Linux系统管理、Nginx配置、Tomcat集群设置以及源码编译。 首先,Nginx是一款高性能的HTTP和反向代理服务器,常用于处理静态内容和作为负载均衡器,将请求分发到后端不同的服务器。Nginx...
首先,Nginx是一款高性能的反向代理服务器,它可以通过配置将用户的HTTP请求分发到多个后端服务器,即Tomcat实例,从而实现负载均衡。这种架构可以有效地提高系统的可用性和响应速度,避免单一服务器过载。 负载...
要实现负载均衡,Nginx通过配置 upstream 模块,将来自客户端的请求分发到Tomcat集群中的各个实例。Nginx可以根据多种策略进行负载均衡,如轮询、最少连接数、IP哈希等,确保服务的高效运行。 接下来是Session共享...
总的来说,通过Windows上的Nginx和Tomcat集群实现负载均衡与Session共享,可以提高Web服务的可靠性、扩展性和用户体验。这个Demo2可能是一个实践案例,用于演示如何在实际环境中设置这样的架构。务必根据自己的需求...
这可以通过在Nginx配置中使用基于cookie的负载均衡策略实现,例如设置一个特定的cookie,其值为首次请求时的服务器标识。然后,Nginx根据这个cookie中的信息将后续请求发送到对应的服务器。 Redis将接收到每个...
在大型分布式系统中,为了实现高可用性和负载均衡,常常会使用 Nginx 作为反向代理服务器来分发请求到后端多个 Tomcat 实例上。然而,传统的基于 Cookie 的会话管理方式在这样的架构下会遇到 Session 共享的问题,即...
通过配置Nginx的upstream模块,可以实现负载均衡策略,如轮询、权重分配等,确保请求均匀分布到各个Tomcat节点,提高系统的整体处理能力。 2. **Tomcat**:Apache Tomcat是一个开源的Java Servlet容器,常用于运行...
通过以上配置,Nginx可以将来自外部的请求均匀地分配给Tomcat集群中的各个节点,从而实现负载均衡的目的。 综上所述,通过合理配置Nginx、Tomcat以及实现Session共享机制,可以有效地提升Web应用的并发处理能力和...
在Linux环境下,通过Nginx实现Tomcat集群是一项常见的技术实践,可以提高Web应用的可用性和性能。Nginx作为反向代理和负载均衡器,可以将来自客户端的请求分发到多个Tomcat实例上,实现负载均衡。以下将详细阐述这个...
通过以上配置,我们可以利用Nginx实现简单的负载均衡功能。需要注意的是,实际部署中还需要考虑更多因素,如安全性配置、日志记录等。此外,对于更复杂的应用场景,可能还需要结合其他工具和技术,如使用Keepalived...
总结,通过Nginx的反向代理和负载均衡功能,以及Memcached作为session共享的中间层,可以构建一个高效且可靠的Tomcat集群环境。这种方式不仅能提升服务的可用性和响应速度,还能确保用户在集群内的无缝切换,保持...
首先,Nginx是一个高性能的HTTP和反向代理服务器,它能处理高并发请求,通过将请求转发到后端服务器集群,实现负载均衡。在配置Nginx时,我们可以使用`upstream`模块定义一组服务器,并使用负载均衡算法(如轮询、...
在Linux环境中,通过Nginx实现Tomcat集群是一项常见的高可用性和负载均衡配置技术。Nginx作为反向代理服务器,可以将用户的请求分发到多个Tomcat实例上,从而提高系统的处理能力和容错性。以下是一份详细的步骤指南...