`
wudixiaotie
  • 浏览: 138310 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

(转发)Linux内核 TCP/IP、Socket参数调优

 
阅读更多

/proc/sys/net目录

所有的TCP/IP参数都位于/proc/sys/net目录下(请注意,对/proc/sys/net目录下内容的修改都是临时的,任何修改在系统重启后都会丢失),例如下面这些重要的参数:

参数(路径+文件)

描述

默认值

优化值

/proc/sys/net/core/rmem_default

默认的TCP数据接收窗口大小(字节)。

229376

256960

/proc/sys/net/core/rmem_max 最大的TCP数据接收窗口(字节)。

131071

513920

/proc/sys/net/core/wmem_default 默认的TCP数据发送窗口大小(字节)。

229376

256960

/proc/sys/net/core/wmem_max 最大的TCP数据发送窗口(字节)。

131071

513920

/proc/sys/net/core/netdev_max_backlog 在每个网络接口接收数据包的速率比内核处理这些包的速率快时,允许送到队列的数据包的最大数目。

1000

2000

/proc/sys/net/core/somaxconn 定义了系统中每一个端口最大的监听队列的长度,这是个全局的参数。

128

2048

/proc/sys/net/core/optmem_max 表示每个套接字所允许的最大缓冲区的大小。

20480

81920

/proc/sys/net/ipv4/tcp_mem 确定TCP栈应该如何反映内存使用,每个值的单位都是内存页(通常是4KB)。第一个值是内存使用的下限;第二个值是内存压力模式开始对缓冲区使用应用压力的上限;第三个值是内存使用的上限。在这个层次上可以将报文丢弃,从而减少对内存的使用。对于较大的BDP可以增大这些值(注意,其单位是内存页而不是字节)。

94011  125351  188022

131072  262144  524288

/proc/sys/net/ipv4/tcp_rmem 为自动调优定义socket使用的内存。第一个值是为socket接收缓冲区分配的最少字节数;第二个值是默认值(该值会被rmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是接收缓冲区空间的最大字节数(该值会被rmem_max覆盖)。

4096  87380  4011232

8760  256960  4088000

/proc/sys/net/ipv4/tcp_wmem 为自动调优定义socket使用的内存。第一个值是为socket发送缓冲区分配的最少字节数;第二个值是默认值(该值会被wmem_default覆盖),缓冲区在系统负载不重的情况下可以增长到这个值;第三个值是发送缓冲区空间的最大字节数(该值会被wmem_max覆盖)。

4096  16384  4011232

8760  256960  4088000

/proc/sys/net/ipv4/tcp_keepalive_time TCP发送keepalive探测消息的间隔时间(秒),用于确认TCP连接是否有效。

7200

1800

/proc/sys/net/ipv4/tcp_keepalive_intvl 探测消息未获得响应时,重发该消息的间隔时间(秒)。

75

30

/proc/sys/net/ipv4/tcp_keepalive_probes 在认定TCP连接失效之前,最多发送多少个keepalive探测消息。

9

3

/proc/sys/net/ipv4/tcp_sack 启用有选择的应答(1表示启用),通过有选择地应答乱序接收到的报文来提高性能,让发送者只发送丢失的报文段,(对于广域网通信来说)这个选项应该启用,但是会增加对CPU的占用。

1

1

/proc/sys/net/ipv4/tcp_fack 启用转发应答,可以进行有选择应答(SACK)从而减少拥塞情况的发生,这个选项也应该启用。

1

1

/proc/sys/net/ipv4/tcp_timestamps TCP时间戳(会在TCP包头增加12个字节),以一种比重发超时更精确的方法(参考RFC 1323)来启用对RTT 的计算,为实现更好的性能应该启用这个选项。

1

1

/proc/sys/net/ipv4/tcp_window_scaling 启用RFC 1323定义的window scaling,要支持超过64KB的TCP窗口,必须启用该值(1表示启用),TCP窗口最大至1GB,TCP连接双方都启用时才生效。

1

1

/proc/sys/net/ipv4/tcp_syncookies 表示是否打开TCP同步标签(syncookie),内核必须打开了CONFIG_SYN_COOKIES项进行编译,同步标签可以防止一个套接字在有过多试图连接到达时引起过载。

1

1

/proc/sys/net/ipv4/tcp_tw_reuse 表示是否允许将处于TIME-WAIT状态的socket(TIME-WAIT的端口)用于新的TCP连接 。

0

1

/proc/sys/net/ipv4/tcp_tw_recycle 能够更快地回收TIME-WAIT套接字。

0

1

/proc/sys/net/ipv4/tcp_fin_timeout 对于本端断开的socket连接,TCP保持在FIN-WAIT-2状态的时间(秒)。对方可能会断开连接或一直不结束连接或不可预料的进程死亡。

60

30

/proc/sys/net/ipv4/ip_local_port_range 表示TCP/UDP协议允许使用的本地端口号

32768  61000

1024  65000

/proc/sys/net/ipv4/tcp_max_syn_backlog 对于还未获得对方确认的连接请求,可保存在队列中的最大数目。如果服务器经常出现过载,可以尝试增加这个数字。

2048

2048

/proc/sys/net/ipv4/tcp_low_latency 允许TCP/IP栈适应在高吞吐量情况下低延时的情况,这个选项应该禁用。

0

/proc/sys/net/ipv4/tcp_westwood 启用发送者端的拥塞控制算法,它可以维护对吞吐量的评估,并试图对带宽的整体利用情况进行优化,对于WAN 通信来说应该启用这个选项。

0

/proc/sys/net/ipv4/tcp_bic 为快速长距离网络启用Binary Increase Congestion,这样可以更好地利用以GB速度进行操作的链接,对于WAN通信应该启用这个选项。

1


/etc/sysctl.conf文件

/etc/sysctl.conf是一个允许你改变正在运行中的Linux系统的接口。它包含一些TCP/IP堆栈和虚拟内存系统的高级选项,可用来控制Linux网络配置,由于/proc/sys/net目录内容的临时性,建议把TCPIP参数的修改添加到/etc/sysctl.conf文件, 然后保存文件,使用命令“/sbin/sysctl –p”使之立即生效。具体修改方案参照上文:

net.core.rmem_default = 256960

net.core.rmem_max = 513920

net.core.wmem_default = 256960

net.core.wmem_max = 513920

net.core.netdev_max_backlog = 2000

net.core.somaxconn = 2048

net.core.optmem_max = 81920

net.ipv4.tcp_mem = 131072  262144  524288

net.ipv4.tcp_rmem = 8760  256960  4088000

net.ipv4.tcp_wmem = 8760  256960  4088000

net.ipv4.tcp_keepalive_time = 1800

net.ipv4.tcp_keepalive_intvl = 30

net.ipv4.tcp_keepalive_probes = 3

net.ipv4.tcp_sack = 1

net.ipv4.tcp_fack = 1

net.ipv4.tcp_timestamps = 1

net.ipv4.tcp_window_scaling = 1

net.ipv4.tcp_syncookies = 1

net.ipv4.tcp_tw_reuse = 1

net.ipv4.tcp_tw_recycle = 1

net.ipv4.tcp_fin_timeout = 30

net.ipv4.ip_local_port_range = 1024  65000

net.ipv4.tcp_max_syn_backlog = 2048

Doc2:

可调优的内核变量存在两种主要接口:sysctl命令和/proc文件系统,proc中与进程无关的所有信息都被移植到sysfs中。IPV4协议栈的sysctl参数主要是sysctl.net.core、sysctl.net.ipv4,对应的/proc文件系统是/proc/sys/net/ipv4和/proc/sys/net/core。只有内核在编译时包含了特定的属性,该参数才会出现在内核中。

对于内核参数应该谨慎调节,这些参数通常会影响到系统的整体性能。内核在启动时会根据系统的资源情况来初始化特定的变量,这种初始化的调节一般会满足通常的性能需求。

应用程序通过socket系统调用和远程主机进行通讯,每一个socket都有一个读写缓冲区。读缓冲区保存了远程主机发送过来的数据,如果缓冲区已满,则数据会被丢弃,写缓冲期保存了要发送到远程主机的数据,如果写缓冲区已慢,则系统的应用程序在写入数据时会阻塞。可知,缓冲区是有大小的。

socket缓冲区默认大小
/proc/sys/net/core/rmem_default     对应net.core.rmem_default
/proc/sys/net/core/wmem_default     对应net.core.wmem_default
上面是各种类型socket的默认读写缓冲区大小,然而对于特定类型的socket则可以设置独立的值覆盖默认值大小。例如tcp类型的socket就可以用/proc/sys/net/ipv4/tcp_rmem和tcp_wmem来覆盖。

socket缓冲区最大值:
/proc/sys/net/core/rmem_max        对应net.core.rmem_max
/proc/sys/net/core/wmem_max        对应net.core.wmem_max

/proc/sys/net/core/netdev_max_backlog    对应 net.core.netdev_max_backlog
该参数定义了当接口收到包的速率大于内核处理包的速率时,设备的输入队列中的最大报文数。

/proc/sys/net/core/somaxconn        对应 net.core.somaxconn
通过listen系统调用可以指定的最大accept队列backlog,当排队的请求连接大于该值时,后续进来的请求连接会被丢弃。

/proc/sys/net/core/optmem_max          对应 net.core.optmem_max
每个socket的副缓冲区大小。

TCP/IPV4内核参数:
在创建socket的时候会指定socke协议和地址类型。TCP socket缓冲区大小是他自己控制而不是由core内核缓冲区控制。
/proc/sys/net/ipv4/tcp_rmem     对应net.ipv4.tcp_rmem
/proc/sys/net/ipv4/tcp_wmem     对应net.ipv4.tcp_wmem
以上是TCP socket的读写缓冲区的设置,每一项里面都有三个值,第一个值是缓冲区最小值,中间值是缓冲区的默认值,最后一个是缓冲区的最大值,虽然缓冲区的值不受core缓冲区的值的限制,但是缓冲区的最大值仍旧受限于core的最大值。

/proc/sys/net/ipv4/tcp_mem
该内核参数也是包括三个值,用来定义内存管理的范围,第一个值的意思是当page数低于该值时,TCP并不认为他为内存压力,第二个值是进入内存的压力区域时所达到的页数,第三个值是所有TCP sockets所允许使用的最大page数,超过该值后,会丢弃后续报文。page是以页面为单位的,为系统中socket全局分配的内存容量。

socket的结构如下图:

/proc/sys/net/ipv4/tcp_window_scaling      对应net.ipv4.tcp_window_scaling
管理TCP的窗口缩放特性,因为在tcp头部中声明接收缓冲区的长度为26位,因此窗口不能大于64K,如果大于64K,就要打开窗口缩放。

/proc/sys/net/ipv4/tcp_sack    对应net.ipv4.tcp_sack
管理TCP的选择性应答,允许接收端向发送端传递关于字节流中丢失的序列号,减少了段丢失时需要重传的段数目,当段丢失频繁时,sack是很有益的。

/proc/sys/net/ipv4/tcp_dsack   对应net.ipv4.tcp_dsack
是对sack的改进,能够检测不必要的重传。

/proc/sys/net/ipv4/tcp_fack    对应net.ipv4.tcp_fack
对sack协议加以完善,改进tcp的拥塞控制机制。

TCP的连接管理:
/proc/sys/net/ipv4/tcp_max_syn_backlog    对应net.ipv4.tcp_max_syn_backlog
每一个连接请求(SYN报文)都需要排队,直至本地服务器接收,该变量就是控制每个端口的 TCP SYN队列长度的。如果连接请求多余该值,则请求会被丢弃。

/proc/sys/net/ipv4/tcp_syn_retries    对应net.ipv4.tcp_syn_retries
控制内核向某个输入的SYN/ACK段重新发送相应的次数,低值可以更好的检测到远程主机的连接失败。可以修改为3

/proc/sys/net/ipv4/tcp_retries1    对应net.ipv4.tcp_retries1
该变量设置放弃回应一个tcp连接请求前,需要进行多少次重试。

/proc/sys/net/ipv4/tcp_retries2    对应net.ipv4.tcp_retries2
控制内核向已经建立连接的远程主机重新发送数据的次数,低值可以更早的检测到与远程主机失效的连接,因此服务器可以更快的释放该连接,可以修改为5

TCP连接的保持:
/proc/sys/net/ipv4/tcp_keepalive_time        对应net.ipv4.tcp_keepalive_time
如果在该参数指定的秒数内连接始终处于空闲状态,则内核向客户端发起对该主机的探测

/proc/sys/net/ipv4/tcp_keepalive_intvl    对应net.ipv4.tcp_keepalive_intvl
该参数以秒为单位,规定内核向远程主机发送探测指针的时间间隔

/proc/sys/net/ipv4/tcp_keepalive_probes   对应net.ipv4.tcp_keepalive_probes
该参数规定内核为了检测远程主机的存活而发送的探测指针的数量,如果探测指针的数量已经使用完毕仍旧没有得到客户端的响应,即断定客户端不可达,关闭与该客户端的连接,释放相关资源。

/proc/sys/net/ipv4/ip_local_port_range   对应net.ipv4.ip_local_port_range
规定了tcp/udp可用的本地端口的范围。

TCP连接的回收:
/proc/sys/net/ipv4/tcp_max_tw_buckets     对应net.ipv4.tcp_max_tw_buckets
该参数设置系统的TIME_WAIT的数量,如果超过默认值则会被立即清除。

/proc/sys/net/ipv4/tcp_tw_reuse           对应net.ipv4.tcp_tw_reuse
该参数设置TIME_WAIT重用,可以让处于TIME_WAIT的连接用于新的tcp连接

/proc/sys/net/ipv4/tcp_tw_recycle         对应net.ipv4.tcp_tw_recycle
该参数设置tcp连接中TIME_WAIT的快速回收。

/proc/sys/net/ipv4/tcp_fin_timeout       对应net.ipv4.tcp_fin_timeout
设置TIME_WAIT2进入CLOSED的等待时间。

/proc/sys/net/ipv4/route/max_size
内核所允许的最大路由数目。

/proc/sys/net/ipv4/ip_forward
接口间转发报文

/proc/sys/net/ipv4/ip_default_ttl
报文可以经过的最大跳数

虚拟内存参数:
/proc/sys/vm/

在linux kernel 2.6.25之前通过ulimit -n(setrlimit(RLIMIT_NOFILE))设置每个进程的最大打开文件句柄数不能超过NR_OPEN(1024*1024),也就是100多w(除非重新编译内核),而在25之后,内核导出了一个sys接口可以修改这个最大值/proc/sys/fs/nr_open。shell里不能直接更改,是因为登录的时候pam已经从limits.conf中设置了上限,ulimit命令只能在低于上限的范围内发挥了。

Linux中查看socket状态:
cat /proc/net/sockstat #(这个是ipv4的)

sockets: used 137
TCP: inuse 49 orphan 0 tw 3272 alloc 52 mem 46
UDP: inuse 1 mem 0
RAW: inuse 0
FRAG: inuse 0 memory 0
说明:
sockets: used:已使用的所有协议套接字总量
TCP: inuse:正在使用(正在侦听)的TCP套接字数量。其值≤ netstat –lnt | grep ^tcp | wc –l
TCP: orphan:无主(不属于任何进程)的TCP连接数(无用、待销毁的TCP socket数)
TCP: tw:等待关闭的TCP连接数。其值等于netstat –ant | grep TIME_WAIT | wc –l
TCP:alloc(allocated):已分配(已建立、已申请到sk_buff)的TCP套接字数量。其值等于netstat –ant | grep ^tcp | wc –l
TCP:mem:套接字缓冲区使用量(单位不详。用scp实测,速度在4803.9kB/s时:其值=11,netstat –ant 中相应的22端口的Recv-Q=0,Send-Q≈400)
UDP:inuse:正在使用的UDP套接字数量
RAW:
FRAG:使用的IP段数量

分享到:
评论

相关推荐

    Linux内核TCP-IP协议栈分析.rar

    在本资料"Linux内核TCP/IP协议栈分析"中,我们将深入探讨这个核心组件的工作原理。 TCP/IP协议栈分为四个主要层次:应用层、传输层、网络层和数据链路层。在Linux内核中,每一层都有相应的模块负责处理相关的协议和...

    linux 内核精髓-精通linux内核必会的75个绝技

    6. **网络编程**:涵盖网络协议栈,从网络接口层到应用层,包括TCP/IP协议、套接字编程、网络服务的实现,以及socket选项和错误处理。 7. **系统调用与内核接口**:解析系统调用的原理,讲解如何利用strace等工具...

    Linux_Tcp.rar_LINUX TCP _linux TCP_tcp linux

    在IT领域,网络通信是计算机科学的一个重要组成部分,...总结来说,Linux TCP编程涵盖了从基本的socket接口使用到高级的内核参数调优,是开发网络应用的基础。通过学习和实践,开发者能够构建高效、可靠的TCP网络服务。

    Linux嵌入式内核源码分析

    理解TCP/IP协议的工作原理,以及socket编程接口,对于网络应用开发非常有用。 7. **模块化设计**:Linux内核采用模块化设计,允许动态加载和卸载模块,这为定制内核提供了便利。理解模块的编译和加载机制,可以更好...

    Linux内核设计与实现(LKD)--中文版

    6. **网络协议栈**:Linux内核实现了完整的TCP/IP协议栈,书中详细介绍了网络接口层、数据链路层、网络层、传输层以及应用层的协议处理,包括socket编程接口。 7. **系统调用**:系统调用是用户程序与内核交互的...

    linux内核设计与实现第三版(陈莉君译 经典)

    网络部分涵盖了从网络接口层到应用层的各种协议,如TCP/IP和socket API。关于安全性,书中会讨论权限模型、访问控制列表和内核模块的安全性问题。性能分析部分则教导读者如何使用工具进行系统调优和故障排查。 附带...

    linux性能调优一些整合文档打包

    网络调优涉及TCP/IP栈参数调整,如TCP窗口大小、重传超时(RTO)和拥塞控制算法。还可以通过调整socket缓冲区大小,减少延迟并提高吞吐量。 6. **系统内核参数调优**: 内核参数直接影响系统行为。例如,调整中断...

    《Linux内核精髓:精通Linux内核必会的75个绝技》迷你书

    6. **网络协议栈**:了解TCP/IP协议族,包括IP、TCP、UDP等协议的实现细节,以及socket接口的使用。 7. **内核调试技术**:掌握使用gdb、kdb、sysrq、kernprof等工具进行内核调试的方法。 8. **内核配置与编译**:...

    Linux内核完全注释

    5. **网络编程**:Linux内核中的网络协议栈实现,包括TCP/IP协议族的各个层次,如链路层、网络层、传输层和应用层。还会涉及socket接口和网络编程技巧。 6. **系统调用**:系统调用是用户程序与内核交互的桥梁,书...

    linux tcp_tcp

    9. **性能调优**:在Linux中,可以通过修改内核参数如`/proc/sys/net/ipv4/tcp_*`来优化TCP性能,例如调整重传阈值、减小TIME_WAIT延迟等。 10. **TCP Server编程**:压缩包内的"tcpServer"可能是一个简单的TCP...

    计算机linux内核问答

    5. **网络协议栈**:从套接字层到传输层(TCP/UDP)、网络层(IP)再到数据链路层的处理,还包括socket编程接口的使用。 6. **设备驱动**:字符设备、块设备驱动的编写,以及中断处理、DMA(直接存储器访问)等概念...

    深入理解linux内核中文第三版

    6. **网络协议栈**:讲解了从网络接口层到应用层的协议处理流程,包括TCP/IP协议、socket接口、网络编程等,帮助读者理解数据在网络中的传输过程。 7. **并发与同步**:深入分析了Linux内核中的并发控制机制,如...

    内核相关文档linux内核函数

    4. 网络协议栈:Linux内核实现了完整的TCP/IP协议栈,包括网络接口层(如`ifconfig`)、网络层(如`ip`命令)、传输层(如`socket()`和`connect()`)以及应用层协议处理(如TCP、UDP)。此外,内核函数如`recvfrom()...

    Understanding_the_Linux_Kernel_3rd 深入理解LINUX内核. Linux内核注释

    通过阅读《深入理解Linux内核》,开发者不仅可以了解到Linux内核的工作原理,还能学习到如何针对特定需求进行系统调优,从而更好地利用Linux系统资源,提高软件的执行效率和稳定性。这是一本对于任何希望深入Linux...

    linux内核源代码情景分析(上下)

    5. **网络协议栈**:分析TCP/IP协议在内核中的实现,包括网络接口层、IP层、TCP层和应用层,理解socket编程接口和网络数据包的处理流程。 6. **设备驱动**:讲解字符设备、块设备驱动的编写,以及中断处理、DMA传输...

    linux-2.4.0 内核源代码

    - **网络子系统**:研究网络协议栈,如IP、TCP、UDP的处理流程,以及socket编程接口的实现。 通过对这些模块的学习,开发者可以深化对操作系统底层原理的理解,提高系统级编程能力。同时,这也是对Linux系统进行...

    linux+tomcat+mysql+solr调优

    ### Linux + Tomcat + MySQL + Solr 调优指南 #### 一、Linux系统调优 ##### TCP连接优化 为了提升Linux系统在网络层面的性能,可以对TCP连接进行优化,尤其是在处理大量并发请求时。以下是一些常用的TCP配置项:...

    Linux-2.4.20内核源代码

    4. 网络协议栈:实现TCP/IP协议,包括网络接口层、网络层、传输层和应用层。 5. 设备驱动:为硬件设备提供驱动程序,使内核能与硬件进行通信。 6. 异步I/O和中断处理:处理设备中断,优化系统响应时间。 7. 安全与...

    linux中的weblogic性能调优.pdf

    在Linux环境中进行WebLogic性能调优是一个复杂的过程,涉及到操作系统层面的多个方面。WebLogic Server作为Oracle提供的企业级Java EE应用服务器,其性能受到Linux系统的直接影响。以下将详细阐述从标题和描述中提及...

Global site tag (gtag.js) - Google Analytics