在多台后台服务器的环境下,我们为了确保一个客户只和一台服务器通信,我们势必使用长连接。使用什么方式来实现这种连接呢,常见的有使用nginx 自带的ip_hash来做,我想这绝对不是一个好的办法,如果前端是CDN,或者说一个局域网的客户同时访问服务器,导致出现服务器分配不均衡,以及不能 保证每次访问都粘滞在同一台服务器。如果基于cookie会是一种什么情形,想想看, 每台电脑都会有不同的cookie,在保持长连接的同时还保证了服务器的压力均衡,nginx sticky值得推荐。
如果浏览器不支持cookie,那么sticky不生效,毕竟整个模块是给予cookie实现的.
1、nginx sticky 模块工作流程图
nginx sticky
nginx sticky
2、下载安装nginx sticky
下载地址:http://code.google.com/p/nginx-sticky-module/downloads/list
目前共有2个版本,一个是1.0,一个是1.1,1.0已经寿终正寝了.1.1增加了权重的参数.
安装nginx + sticky模块
1
# wget http://nginx-sticky-module.googlecode.com/files/nginx-sticky-module-1.1.tar.gz
2
# tar -xzvf nginx-sticky-module-1.1.tar.gz
3
4
# wget http://nginx.org/download/nginx-1.0.6.tar.gz
5
# tar -czvf nginx-1.0.6
6
# cd nginx-1.0.6
7
# ./configure --prefix=/usr/local/nginx-1.0.6 --with-http_stub_status_module --with-http_ssl_module --with-http_realip_module --add-module=../nginx-sticky-module-1.1
8
# make
9
# make install
3、配置nginx sticky
nginx 的upstream使用sticky,如下
1
upstream cluster_test {
2
sticky;
3
server 192.168.100.209:80;
4
server 192.168.100.225:80;
5
}
配置虚拟主机(以下有配置的可以忽略掉)
01
server {
02
listen 80;
03
server_name test.ttlsa.com;
04
index index.jsp;
05
06
access_log /data/logs/nginx/test.ttlsa.com_access.log main;
07
08
set $proxy_pass cluster_test;
09
10
location /
11
{
12
proxy_pass http://$proxy_pass;
13
include proxy.conf;
14
add_header Cache-Control no-store;
15
}
16
17
}
备注:
nginx和apache不同,nginx每次安装一个新的模块都需要重新编译一次,编译完成之后将nginx这一个文件拷贝到sbin下面即可.我这边 全新安装一次,因为公司在两年前就选择了这个nginx版本,也没打算去换,所以大家可以把nginx换成自己最合适的一个版本,不用完全跟着文章来安 装.
4、重启nginx
1
/usr/local/nginx-1.0.6/sbin/nginx -t
2
/usr/local/nginx-1.0.6/sbin/nginx -s reload
5、测试nginx sticky
我 后端是两台tomcat服务器,每台服务器的JESSIONED值都有特殊的标志。比如209这台是s209,225这台是s225.打开页面,不管怎么 刷新JESSIONED值都是不变.但是如果开启了sticky,可以看到JESSIONED值不会发生变化.死死的粘滞在其中一台服务器上.测试图如 下:
使用sticky的情况下,不管怎么刷新都是下面图
nginx sticky 模块
nginx sticky 模块
不使用nginx sticky模块,多刷几次就变了(有时候刷一次,有时候多刷几次,看概率,不过肯定会变),如下图
nginx sticky 模块
nginx sticky 模块
备注:每台后端真实服务器都会有一个唯一的route值,所以不管你真实服务器前端有几个装了sticky的nginx代理,他都是不会变化的. 这个cookie是会话方式的,所以你浏览器关闭了,服务器会给你重新分配一台服务器。
6、nginx sticky其他语法
1
sticky [name=route] [domain=.foo.bar] [path=/] [expires=1h] [hash=index|md5|sha1] [no_fallback];
2
name: 可以为任何的string字符,默认是route
3
domain:哪些域名下可以使用这个cookie
4
path:哪些路径对启用sticky,例如path/test,那么只有test这个目录才会使用sticky做负载均衡
5
expires:cookie过期时间,默认浏览器关闭就过期,也就是会话方式。
6
no_fallbackup:如果设置了这个,cookie对应的服务器宕机了,那么将会返回502(bad gateway 或者 proxy error),建议不启用
7、nginx sticky expires用法
1
upstream cluster_test {
2
sticky expires=1h;
3
server 192.168.100.209:80;
4
server 192.168.100.225:80;
5
}
启用了过期,cookie如下截图,cookie1个小时才过期
nginx sticky expire用法nginx sticky expire用法
如下是不启用过期
nginx sticky 不启用expirenginx sticky 不启用expire
8、nginx sticky使用注意事项
nginx sticky模块不能与ip_hash同时使用
哥们,这是我博客原文:使用nginx sticky模块实现基于cookie的负载均衡
链接失效,点这个:http://www.ttlsa.com/html/1895.html
官方文档:http://code.google.com/p/nginx-sticky-module/wiki/Documentation
淘宝sticky:http://tengine.taobao.org/document_cn/http_upstream_session_sticky_cn.html(谢谢shudu)
http://my.oschina.net/766/blog/156693
分享到:
相关推荐
在构建高性能、高可用的Web服务时,"nginx+redis负载均衡、session共享"是一个常见的解决方案。这个方案结合了Nginx的反向代理和负载均衡能力,以及Redis的内存数据存储和分布式特性,用于处理高并发场景下的HTTP...
本教程将详细讲解如何通过`Nginx`实现`Tomcat`集群的负载均衡,并实现`session`共享。 首先,我们要理解负载均衡的基本概念。负载均衡是通过将工作负载分散到多个计算资源,以优化资源使用、最大化吞吐量、最小化...
Redis Session 实现 Nginx 负载均衡多 IP 同步 Redis Session 是一种基于 Redis 的会话管理机制,通过使用 Redis 来存储会话数据,实现了会话的持久化和共享。Nginx 负载均衡是通过使用 Nginx 服务器来实现多个...
这里我们关注的是如何在Windows环境下,利用Nginx作为反向代理服务器,与Tomcat应用服务器集群配合,实现负载均衡,并且确保Session数据在多个Tomcat实例之间共享。这个场景对于大型网站或高并发的应用尤其实用,...
Nginx的特点是: ... 2、Nginx对网络的依赖比较小; 3、Nginx安装和配置比较简单,测试起来比较方便; 4、也可以承担高的负载压力且稳定,一般能支撑超过1万... 另外默认的只有Round-robin和IP-hash两种负载均衡算法。
### Nginx负载均衡、Redis会话共享及NFS文件共享技术详解 #### 一、Nginx负载均衡概述 Nginx是一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,以其高性能、稳定性、丰富的功能集、简单...
### Nginx负载均衡教程详解 #### 一、Nginx与负载均衡概念介绍 - **Nginx简介**:Nginx是一款轻量级的Web服务器/反向代理服务器及电子邮件(IMAP/POP3)代理服务器,在BSD-like协议下发行。其特点是占有内存少,...
Nginx,Mamcache负载均衡,session共享应用 Nginx,Mamcache负载均衡,session共享应用 Nginx,Mamcache负载均衡,session共享应用 Nginx,Mamcache负载均衡,session共享应用
总的来说,通过Nginx实现负载均衡,结合Redis和相应的Java库,我们可以构建一个高可用且能有效处理Session共享的Web环境。这个压缩包提供的jar包正是实现这一目标的关键组件。在实际部署时,需要正确配置Nginx的...
本测试主要探讨了在Nginx负载均衡环境下,通过Redis实现Session共享的解决方案。 **Nginx负载均衡** Nginx的负载均衡功能可以通过配置upstream模块实现。它可以根据不同的策略(如轮询、最少连接、IP哈希等)将请求...
### Nginx负载均衡配置详解 #### 一、负载均衡概念与原理 负载均衡(Load Balancing)是指将网络中的工作负载分散到多个计算资源上处理的技术,旨在提高响应速度和服务质量,同时确保系统的稳定性和可靠性。在Web...
在Nginx负载均衡环境下,由于用户请求可能会被路由到不同的Tomcat服务器,Session信息不能在服务器间自动同步,可能导致用户登录状态丢失。为了解决这个问题,有以下几种Tomcat Session共享策略: 1. **负载均衡...
在构建高性能、高可用性的Web应用系统时,"nginx+tomcat7负载均衡+redis缓存session"是一种常见的架构模式。这种模式结合了Nginx的反向代理和负载均衡能力,Tomcat作为Java应用服务器处理业务逻辑,而Redis则用于...
在构建高性能、高可用性的Web服务时,"redis+tomcat+nginx负载均衡配置"是一个常见且有效的架构模式。这个组合充分利用了各个组件的优势,确保系统稳定、响应快速,并能够处理大量的并发请求。以下是关于这个配置的...
nginx+tomcat实现负载均衡,共享session的两种方式: 1.使用Redis共享session 2.使用tomcat的组播功能。
Maven Spring(IOC DI AOP 声明式事务处理) SpringMVC(支持Restful风格) ...Nginx静态加载、负载均衡 基于keepalived的nginx高可用方案 Tomcat集群(Redis共享Session) Sping Shiro权限控制(待完善)
1. 安装并配置Nginx,设置反向代理规则,包括负载均衡策略和session sticky。 2. 安装并启动Memcached服务,确保所有Tomcat服务器都可以连接到它。 3. 在Tomcat服务器上配置session的持久化,通常是在web.xml中设置`...
本教程将探讨如何在Windows环境中,利用Nginx作为反向代理服务器,Redis作为session存储,与Tomcat应用服务器配合,实现负载均衡和session粘滞。 **负载均衡** 负载均衡是一种技术,用于分散网络流量到多个服务器...
综上所述,结合SSM、Redis和Nginx,我们可以构建一个高可用、高性能的Web应用系统,实现session的跨服务器共享,并通过负载均衡策略确保服务的稳定性和可扩展性。在实际项目中,可以根据业务需求和资源状况,灵活...