Nginx 配置文件详解
分页大小可以用命令getconf PAGESIZE 取得
user nginx ;
# 用户
worker_processes 8;
# 工作进程,根据硬件调整,大于等于 cpu 核数
error_log logs/nginx_error.log crit;
# 错误日志
pid logs/nginx.pid;
#pid 放置的位置
worker_rlimit_nofile 204800;
# 指定进程可以打开的最大描述符
这个指令是指当一个 nginx 进程打开的最多文件描述符数目,理论值应该是最多打开文
件数( ulimit -n )与 nginx 进程数相除,但是 nginx 分配请求并不是那么均匀,所以最好与 ulimit -n 的值保持一致。
现在在 linux 2.6 内核下开启文件打开数为 65535 , worker_rlimit_nofile 就相应应该填写 65535 。
这是因为 nginx 调度时分配请求到进程并不是那么的均衡,所以假如填写 10240 ,总并发量达到 3-4 万时就有进程可能超过 10240 了,这时会返回 502 错误。
events
{
use epoll;
# 使用 epoll 的 I/O 模型
补充说明 :
与 apache 相类, nginx 针对不同的操作系统,有不同的事件模型
A )标准事件模型
Select 、 poll 属于标准事件模型,如果当前系统不存在更有效的方法, nginx 会选择 select 或 poll
B )高效事件模型
Kqueue :使用于 FreeBSD 4.1+, OpenBSD 2.9+, NetBSD 2.0 和 MacOS X. 使用双处理器的 MacOS X 系统使用 kqueue 可能会造成内核崩溃。
Epoll: 使用于 Linux 内核 2.6 版本及以后的系统。
/dev/poll :使用于 Solaris 7 11/99+, HP/UX 11.22+ (eventport), IRIX 6.5.15+ 和 Tru64 UNIX 5.1A+ 。
Eventport :使用于 Solaris 10. 为了防止出现内核崩溃的问题, 有必要安装安全补丁
worker_connections 204800;
# 工作进程的最大连接数量,根据硬件调整,和前面工作进程配合起来用,尽量大,但是别把 cpu 跑到 100% 就行
每个进程允许的最多连接数, 理论上每台 nginx 服务器的最大连接数为 worker_processes*worker_connections
keepalive_timeout 60;
keepalive 超时时间。
client_header_buffer_size 4k;
客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求头的大小不会超过 1k ,不过由于一般系统分页都要大于 1k ,所以这里设置为分页大小。
分页大小可以用命令 getconf PAGESIZE 取得。
[root@web001 ~]# getconf PAGESIZE
4096
但也有 client_header_buffer_size 超过 4k 的情况,但是 client_header_buffer_size 该值必须设置为“系统分页大小”的整倍数。
open_file_cache max=65535 inactive=60s;
这个将为打开文件指定缓存,默认是没有启用的, max 指定缓存数量,建议和打开文件数一致, inactive 是指经过多长时间文件没被请求后删除缓存。
open_file_cache_valid 80s;
这个是指多长时间检查一次缓存的有效信息。
open_file_cache_min_uses 1;
open_file_cache 指令中的 inactive 参数时间内文件的最少使用次数,如果超过这个数字,文件描述符一直是在缓存中打开的,如上例,如果有一个文件在 inactive 时间内一次没被使用,它将被移除。
}
# 设定 http 服务器,利用它的反向代理功能提供负载均衡支持
http
{
include mime.types;
# 设定 mime 类型 , 类型由 mime.type 文件定义
default_type application/octet-stream;
log_format main '$host $status [$time_local] $remote_addr [$time_local] $request_uri '
'"$http_referer" "$http_user_agent" "$http_x_forwarded_for" '
'$bytes_sent $request_time $sent_http_x_cache_hit';
log_format log404 '$status [$time_local] $remote_addr $host$request_uri $sent_http_location';
$remote_addr 与 $http_x_forwarded_for 用以记录客户端的 ip 地址;
$remote_user :用来记录客户端用户名称;
$time_local : 用来记录访问时间与时区;
$request : 用来记录请求的 url 与 http 协议;
$status : 用来记录请求状态;成功是 200 ,
$body_bytes_s ent :记录发送给客户端文件主体内容大小;
$http_referer :用来记录从那个页面链接访问过来的;
$http_user_agent :记录客户毒啊浏览器的相关信息;
通常 web 服务器放在反向代理的后面,这样就不能获取到客户的 IP 地址了,通过 $remote_add 拿到的 IP 地址 是反向代理服务器的 iP 地址。反向代理服务器在转发请求的 http 头信息中,可以增加 x_forwarded_for 信息,用以记录原有客户端的 IP 地址和原来客户端的请求的服务器地址;
access_log /dev/null;
# 用了 log_format 指令设置了日志格式之后,需要用 access_log 指令指定日志文件的存放路径 ;
# access_log /usr/local/nginx/logs/access_log main;
server_names_hash_bucket_size 128;
# 保存服务器名字的 hash 表是由指令 server_names_hash_max_size 和 server_names_hash_bucket_size 所控制的。参数 hash bucket size 总是等于 hash 表的大小,并且是一路处理器缓存大小的倍数。在减少了在内存中的存取次数后,使在处理器中加速查找 hash 表键值成为可能。如果 hash bucket size 等于一路处理器缓存的大小,那么在查找键的时候,最坏的情况下在内存中查找的次数为 2 。第一次是确定存储单元的地址,第二次是在存储单元中查找键 值。因此,如果 Nginx 给出需要增大 hash max size 或 hash bucket size 的提示,那么首要的是增大前一个参数的大小 .
client_header_buffer_size 4k;
客户端请求头部的缓冲区大小,这个可以根据你的系统分页大小来设置,一般一个请求的头部大小不会超过 1k ,不过由于一般系统分页都要大于 1k ,所以这里设置为分页大小。分页大小可以用命令 getconf PAGESIZE 取得。
large_client_header_buffers 8 128k;
客户请求头缓冲大小
nginx 默认会用 client_header_buffer_size 这个 buffer 来读取 header 值,如果
header 过大,它会使用 large_client_header_buffers 来读取
如果设置过小 HTTP 头 /Cookie 过大 会报 400 错误 nginx 400 bad request
求行如果超过 buffer ,就会报 HTTP 414 错误 (URI Too Long)
nginx 接受最长的 HTTP 头部大小必须比其中一个 buffer 大,否则就会报 400 的
HTTP 错误 (Bad Request) 。
open_file_cache max 102400
使用字段 :http, server, location 这个指令指定缓存是否启用 , 如果启用 , 将记录文件以下信息 : · 打开的文件描述符 , 大小信息和修改时间 . · 存在的目录信息 . · 在搜索文件过程中的错误信息 -- 没有这个文件 , 无法正确读取 , 参考 open_file_cache_errors 指令选项 :
·max - 指定缓存的最大数目 , 如果缓存溢出 , 最长使用过的文件 (LRU) 将被移除
例 : open_file_cache max=1000 inactive=20s; open_file_cache_valid 30s; open_file_cache_min_uses 2; open_file_cache_errors on;
open_file_cache_errors
语法 :open_file_cache_errors on | off 默认值 :open_file_cache_errors off 使用字段 :http, server, location 这个指令指定是否在搜索一个文件是记录 cache 错误 .
open_file_cache_min_uses
语法 :open_file_cache_min_uses number 默认值 :open_file_cache_min_uses 1 使用字段 :http, server, location 这个指令指定了在 open_file_cache 指令无效的参数中一定的时间范围内可以使用的最小文件数 , 如 果使用更大的值 , 文件描述符在 cache 中总是打开状态 .
open_file_cache_valid
语法 :open_file_cache_valid time 默认值 :open_file_cache_valid 60 使用字段 :http, server, location 这个指令指定了何时需要检查 open_file_cache 中缓存项目的有效信息 .
client_max_body_size 300m;
设定通过 nginx 上传文件的大小
sendfile on;
#sendfile 指令指定 nginx 是否调用 sendfile 函数( zero copy 方式)来输出文件,
对于普通应用,必须设为 on 。
如果用来进行下载等应用磁盘 IO 重负载应用,可设置为 off ,以平衡磁盘与网络 IO 处理速度,降低系统 uptime 。
tcp_nopush on;
此选项允许或禁止使用 socke 的 TCP_CORK 的选项,此选项仅在使用 sendfile 的时候使用
proxy_connect_timeout 90;
# 后端服务器连接的超时时间_ 发起握手等候响应超时时间
proxy_read_timeout 180;
# 连接成功后_ 等候后端服务器响应时间_ 其实已经进入后端的排队之中等候处理(也可以说是后端服务器处理请求的时间)
proxy_send_timeout 180;
# 后端服务器数据回传时间_ 就是在规定时间之内后端服务器必须传完所有的数据
proxy_buffer_size 256k;
# 设置从被代理服务器读取的第一部分应答的缓冲区大小,通常情况下这部分应答中包含一个小的应答头,默认情况下这个值的大小为指令proxy_buffers 中指定的一个缓冲区的大小,不过可以将其设置为更小
proxy_buffers 4 256k;
# 设置用于读取应答(来自被代理服务器)的缓冲区数目和大小,默认情况也为分页大小,根据操作系统的不同可能是4k 或者8k
proxy_busy_buffers_size 256k;
proxy_temp_file_write_size 256k;
# 设置在写入proxy_temp_path 时数据的大小,预防一个工作进程在传递文件时阻塞太长
proxy_temp_path /data0/proxy_temp_dir;
#proxy_temp_path 和proxy_cache_path 指定的路径必须在同一分区
proxy_cache_path /data0/proxy_cache_dir levels=1:2 keys_zone=cache_one:200m inactive=1d max_size=30g;
# 设置内存缓存空间大小为200MB ,1 天没有被访问的内容自动清除,硬盘缓存空间大小为30GB 。
keepalive_timeout 120;
keepalive 超时时间。
tcp_nodelay on;
client_body_buffer_size 512k;
如果把它设置为比较大的数值,例如 256k ,那么,无论使用 firefox 还是 IE 浏览器,来提交任意小于 256k 的图片,都很正常。如果注释该指令,使用默认的 client_body_buffer_size 设置,也就是操作系统页面大小的两倍, 8k 或者 16k ,问题就出现了。
无论使用 firefox4.0 还是 IE8.0 ,提交一个比较大, 200k 左右的图片,都返回 500 Internal Server Error 错误
proxy_intercept_errors on;
表示使 nginx 阻止 HTTP 应答代码为 400 或者更高的应答。
upstream img_relay {
server 127.0.0.1:8027;
server 127.0.0.1:8028;
server 127.0.0.1:8029;
hash $request_uri;
}
nginx 的 upstream 目前支持 4 种方式的分配
1 、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。
2 、 weight
指定轮询几率, weight 和访问比率成正比,用于后端服务器性能不均的情况。
例如:
upstream bakend {
server 192.168.0.14 weight=10;
server 192.168.0.15 weight=10;
}
2 、 ip_hash
每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。
例如:
upstream bakend {
ip_hash;
server 192.168.0.14:88;
server 192.168.0.15:80;
}
3 、 fair (第三方)
按后端服务器的响应时间来分配请求,响应时间短的优先分配。
upstream backend {
server server1;
server server2;
fair;
}
4 、 url_hash (第三方)
按访问 url 的 hash 结果来分配请求,使每个 url 定向到同一个后端服务器,后端服务器为缓存时比较有效。
例:在 upstream 中加入 hash 语句, server 语句中不能写入 weight 等其他的参数, hash_method 是使用的 hash 算法
upstream backend {
server squid1:3128;
server squid2:3128;
hash $request_uri;
hash_method crc32;
}
tips:
upstream bakend{# 定义负载均衡设备的 Ip 及设备状态
ip_hash;
server 127.0.0.1:9090 down;
server 127.0.0.1:8080 weight=2;
server 127.0.0.1:6060;
server 127.0.0.1:7070 backup;
}
在需要使用负载均衡的 server 中增加
proxy_pass http://bakend/;
每个设备的状态设置为 :
1.down 表示单前的 server 暂时不参与负载
2.weight 默认为 1.weight 越大,负载的权重就越大。
3.max_fails :允许请求失败的次数默认为 1. 当超过最大次数时,返回 proxy_next_upstream 模块定义的错误
4.fail_timeout:max_fails 次失败后,暂停的时间。
5.backup : 其它所有的非 backup 机器 down 或者忙的时候,请求 backup 机器。所以这台机器压力会最轻。
nginx 支持同时设置多组的负载均衡,用来给不用的 server 来使用。
client_body_in_file_only 设置为 On 可以讲 client post 过来的数据记录到文件中用来做 debug
client_body_temp_path 设置记录文件的目录 可以设置最多 3 层目录
location 对 URL 进行匹配 . 可以进行重定向或者进行新的代理 负载均衡
server
# 配置虚拟机
{
listen 80;
# 配置监听端口
server_name image.***.com;
# 配置访问域名
location ~* \.(mp3|exe)$ {
# 对以“ mp3 或 exe” 结尾的地址进行负载均衡
proxy_pass http:// img_relay $request_uri;
# 设置被代理服务器的端口或套接字,以及 URL
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
# 以上三行,目的是将代理服务器收到的用户的信息传到真实服务器上
}
location /face {
if ($http_user_agent ~* "xnp") {
rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
}
proxy_pass http:// img_relay $request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
error_page 404 502 = @fetch;
}
location @fetch {
access_log /data/logs/face.log log404;
# 设定本服务器的访问日志
rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
}
location /image {
if ($http_user_agent ~* "xnp") {
rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
}
proxy_pass http:// img_relay $request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
error_page 404 502 = @fetch;
}
location @fetch {
access_log /data/logs/image.log log404;
rewrite ^(.*)$ http://211.151.188.190:8080/face.jpg redirect;
}
}
server
{
listen 80;
server_name *.***.com *.***.cn;
location ~* \.(mp3|exe)$ {
proxy_pass http://img_relay$request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
location / {
if ($http_user_agent ~* "xnp") {
rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
}
proxy_pass http://img_relay$request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#error_page 404 http://i1.***img.com/help/noimg.gif;
error_page 404 502 = @fetch;
}
location @fetch {
access_log /data/logs/baijiaqi.log log404;
rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
}
#access_log off;
}
server
{
listen 80;
server_name *.***img.com;
location ~* \.(mp3|exe)$ {
proxy_pass http://img_relay$request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
}
location / {
if ($http_user_agent ~* "xnp") {
rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif;
}
proxy_pass http://img_relay$request_uri;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
#error_page 404 http://i1.***img.com/help/noimg.gif;
error_page 404 = @fetch;
}
#access_log off;
location @fetch {
access_log /data/logs/baijiaqi.log log404;
rewrite ^(.*)$ http://i1.***img.com/help/noimg.gif redirect;
}
}
server
{
listen 8080;
server_name ngx-ha.***img.com;
location / {
stub_status on;
access_log off;
}
}
server {
listen 80;
server_name imgsrc1.***.net;
root html;
}
server {
listen 80;
server_name ***.com w.***.com;
# access_log /usr/local/nginx/logs/access_log main;
location / {
rewrite ^(.*)$ http://www.***.com/ ;
}
}
server {
listen 80;
server_name *******.com w.*******.com;
# access_log /usr/local/nginx/logs/access_log main;
location / {
rewrite ^(.*)$ http://www.*******.com/;
}
}
server {
listen 80;
server_name ******.com;
# access_log /usr/local/nginx/logs/access_log main;
location / {
rewrite ^(.*)$ http://www.******.com/;
}
}
location /NginxStatus {
stub_status on;
access_log on;
auth_basic "NginxStatus";
auth_basic_user_file conf/htpasswd;
}
# 设定查看 Nginx 状态的地址
location ~ /\.ht {
deny all;
}
# 禁止访问 .htxxx 文件
}
注释:变量
Ngx_http_core_module 模块支持内置变量,他们的名字和 apache 的内置变量是一致的。
首先是说明客户请求 title 中的行,例如 $http_user_agent,$http_cookie 等等。
此外还有其它的一些变量
$args 此变量与请求行中的参数相等
$content_length 等于请求行的“ Content_Length” 的值。
$content_type 等同与请求头部的” Content_Type” 的值
$document_root 等同于当前请求的 root 指令指定的值
$document_uri 与 $uri 一样
$host 与请求头部中“ Host” 行指定的值或是 request 到达的 server 的名字(没有 Host 行)一样
$limit_rate 允许限制的连接速率
$request_method 等同于 request 的 method ,通常是“ GET” 或“ POST”
$remote_addr 客户端 ip
$remote_port 客户端 port
$remote_user 等同于用户名,由 ngx_http_auth_basic_module 认证
$request_filename 当前请求的文件的路径名,由 root 或 alias 和 URI request 组合而成
$request_body_file
$request_uri 含有参数的完整的初始 URI
$query_string 与 $args 一样
$sheeme http 模式( http,https )尽在要求是评估例如
Rewrite ^(.+)$ $sheme://example.com$; Redirect;
$server_protocol 等同于 request 的协议,使用“ HTTP/ 或“ HTTP/
$server_addr request 到达的 server 的 ip ,一般获得此变量的值的目的是进行系统调用。为了避免系统调用,有必要在 listen 指令中指明 ip ,并使用 bind 参数。
$server_name 请求到达的服务器名
$server_port 请求到达的服务器的端口号
$uri 等同于当前 request 中的 URI ,可不同于初始值,例如内部重定向时或使用 index
相关推荐
以下是对"windows下 php+nginx配置详解"的详细说明。 首先,我们需要安装Nginx。Nginx是一款高性能的HTTP和反向代理服务器,以其稳定性和高并发处理能力著称。下载适用于Windows的Nginx安装包,然后按照安装向导...
### Nginx 配置详解 #### 一、Nginx 概述 Nginx 是一款由 Igor Sysoev 开发的高性能 Web 和反向代理服务器,最初是为了俄罗斯访问量排名第二的网站 Rambler.ru 而设计。自 2004 年发布以来,Nginx 已经通过开源...
【Nginx 配置详解】在 CentOS 6.5 环境下,配置 Nginx 1.6.2 可以实现多种高级功能,包括 SSL 双向认证、负载均衡和反向代理。以下是一份详细的配置步骤指南。 ### 1. 安装与准备 首先,确保你的系统是 CentOS 6.5...
Nginx (engine x) 是一个轻量级高性能的HTTP和反向代理服务器,同时也是一个通用 代理服务器 (TCP/UDP/...搭建好nginx服务器并启动过后,我们先看nginx默认配置,再逐个介绍不同使用场景。 默认配置 Nginx 安装目录
里面有资源,有文档详细说明,以及安装步骤,我是结合两个文档一起操作的,只能在linux系统下,Windows系统需要安装虚拟机,操作两遍后,目前基本上十来分钟就可以搞定了
### Nginx 配置详解 + 负载均衡 + HTTPS 协议 #### 一、SSL证书申请 SSL证书是实现HTTPS的关键组件之一,它主要用于保护网站与用户之间的数据传输安全。文中提到两种常见的SSL证书类型:OpenSSL和StartSSL。在此...
**三、Nginx配置详解** Nginx的配置文件通常位于`/etc/nginx/nginx.conf`或`/usr/local/nginx/conf/nginx.conf`。配置主要分为全局块、events块、http块、server块和location块。 1. **全局块**:设置影响nginx...
### Nginx配置文件详解 #### 一、引言 Nginx是一款广泛使用的高性能Web服务器及反向代理服务器,以其高效稳定而著称。它不仅适用于简单的静态页面服务,还可以作为动态应用服务器的反向代理,实现负载均衡等功能。...
Nginx配置文件(nginx.conf)配置详解 Nginx配置文件(nginx.conf)是Nginx服务器的核心配置文件,用于定义Nginx服务器的行为和配置。下面是Nginx配置文件的详细配置解释: 用户和组 Nginx配置文件中指定了用户和组,...
### Window下Nginx配置详解 #### 一、前言 一直以来,许多开发者都认为Nginx只能在Linux环境下运行,实际上,在Windows系统中同样可以部署并高效运行Nginx。随着网站流量的增长,单台服务器可能无法满足需求,此时...
Nginx 配置文件 nginx.conf 详解 Nginx 配置文件 nginx.conf 是 Nginx 服务器的核心配置文件,它控制着 Nginx 服务器的行为和性能。在这个配置文件中,我们可以设置服务器的用户和组、工作进程数、错误日志、进程...
对nginx配置文件nginx.conf各个表示的意思进行解释,方便新人学习
### Nginx 部署配置详解:Proxy Read Timeout #### 概述 在Nginx的配置过程中,为了确保服务器能够稳定、高效地处理来自客户端的请求,我们需要合理设置与代理相关的超时参数。这些参数包括但不限于`proxy_connect...
Nginx配置详解 在IT领域,Nginx是一个广泛使用的高性能HTTP服务器和反向代理服务器,同时也支持IMAP/POP3/SMTP协议。由Igor Sysoev为Rambler.ru网站开发,Nginx以其高稳定性、丰富的功能、易于配置的文件以及对系统...
### Vue前端项目部署之Nginx配置详解 #### 一、引言 随着前端技术的发展,Vue.js作为一款流行的前端框架被广泛应用于Web应用开发之中。对于开发者来说,如何将开发完成的应用部署到生产环境是必不可少的一环。本文...
【Nginx配置详解】 Nginx是一款高性能的HTTP和反向代理服务器,因其轻量级、高效能和高并发处理能力,在软件开发领域中被广泛使用。与Apache服务器相比,Nginx采用异步非阻塞的事件驱动模型,这使得它在处理大量...