- 浏览: 1403597 次
- 性别:
- 来自: 火星
文章分类
最新评论
-
aidd:
内核处理time_wait状态详解 -
ahtest:
赞一下~~
一个简单的ruby Metaprogram的例子 -
itiProCareer:
简直胡说八道,误人子弟啊。。。。谁告诉你 Ruby 1.9 ...
ruby中的类变量与类实例变量 -
dear531:
还得补充一句,惊群了之后,数据打印显示,只有一个子线程继续接受 ...
linux已经不存在惊群现象 -
dear531:
我用select试验了,用的ubuntu12.10,内核3.5 ...
linux已经不存在惊群现象
我们先来看tcp内存管理相关的几个内核参数,这些都能通过proc文件系统来修改:
这两个值在/proc/sys/net/core 下。这里要注意,这两个值的单位是字节。
它们的初始化在sk_init里面,这里可以看到这两个值的大小是依赖于num_physpages的,而这个值应该是物理页数。也就是说这两个值依赖于物理内存:
而我通过搜索源码,只有设置套接口选项的时候,才会用到这两个值,也就是setsockopt,optname为SO_SNDBUF或者SO_RCVBUF时,来限制设置的值:
接下来就是整个tcp协议栈的socket的buf限制(也就是所有的socket).
这里要注意,这个东西的单位都是以页为单位的,我们下面就会看到。
接下来就是针对每个sock的读写buf限制。
这几个值的初始化在tcp_init里面,这里就能清晰的看到sysctl_tcp_mem的单位是页。而sysctl_tcp_wmem和sysctl_tcp_rmem的单位是字节。
然后就是读写buf的最小值
最后就是当前tcp协议栈已经分配了的buf的总大小。这里要注意,这个值也是以页为单位的。
而上面的这些值如何与协议栈关联起来呢,我们来看tcp_prot结构,可以看到这些值的地址都被放到对应的tcp_prot的域。
而对应的sock域中的几个值,这几个域非常重要,我们来看他们表示的含义:
sk_rcvbuf和sk_sndbuf,这两个值分别代表每个sock的读写buf的最大限制:
sk_rmem_alloc和sk_wmem_alloc这两个值分别代表已经提交的数据包的字节数。
读buf意味着进入tcp层的数据大小,而当数据提交给用户空间之后,这个值会相应的减去提交的大小(也就类似写buf的sk_wmem_queued)。
写buf意味着提交给ip层。可以看到这个值的增加是在tcp_transmit_skb中进行的。
而sk_wmem_queued也就代表skb的写队列write_queue的大小。
还有一个sk_forward_alloc,这个值表示一个预分配置,也就是整个tcp协议栈的内存cache,第一次为一个缓冲区分配buf的时候,我们不会直接分配精确的大小,而是按页来分配,而分配的大小就是这个值,下面我们会看到这个。并且这个值初始是0.
sk_sndbuf和sk_rcvbuf,这两个的初始化在这里:
而当进入establish状态之后,sock会自己调整sndbuf和rcvbuf.他是通过tcp_init_buffer_space来进行调整的.这个函数会调用tcp_fixup_rcvbuf和tcp_fixup_sndbuf来调整读写buf的大小.
这里有用到sk_userlock这个标记,这个标记主要就是用来标记SO_SNDBUF 和SO_RCVBUF套接口选项是否被设置。而是否设置对应的值为:
我们可以看下面的设置SO_SNDBUF 和SO_RCVBUF的代码片断:
因此内核里面的处理是这样的,如果用户已经通过套接字选项设置了读或者写buf的大小,那么这里将不会调整读写buf的大小,否则就进入tcp_fixup_XXX来调整大小。
还有一个要注意的就是MAX_TCP_HEADER,这个值表示了TCP + IP + link layer headers 以及option的长度。
我们来看代码。
接下来来看这两个函数如何来调整读写buf的大小,不过这里还有些疑问,就是为什么是要和3*sndmem以及4*rcvmem:
ok,看完初始化,我们来看协议栈具体如何管理内存的,先来看发送端,发送端的主要实现是在tcp_sendmsg里面,这个函数我们前面已经详细的分析过了,我们这次只分析里面几个与内存相关的东西。
来看代码片断:
可以看到这里第一个sk_stream_memory_free用来判断是否还有空间来供我们分配,如果没有则跳到wait_for_sndbuf来等待buf的释放。
然后如果有空间供我们分配,则调用sk_stream_alloc_skb来分配一个skb,然后这个大小的选择是通过select_size。
最后调用skb_entail来更新相关的域。
现在我们就来详细看上面的四个函数,先来看第一个:
sk_stream_memory_free实现很简单,就是判断当前已经分配的写缓冲区的大小(sk_wmem_queued)是否小于当前写缓冲区(sk_sndbuf)的最大限制。
然后是skb_entail,这个函数主要是当我们分配完buf后,进行一些相关域的更新,以及添加skb到writequeue。
然后是select_size,在看这个之前我们先来坎SKB_MAX_HEAD的实现.
SKB_MAX_HEAD主要是得到要分配的tcp数据段(不包括头)在一页中最大为多少。
我们带入代码来看,我们下面的代码是SKB_MAX_HEAD(MAX_TCP_HEADER),展开这个宏可以看到就是PAGE_SIZE-MAX_TCP_HEADER-SKB_DATA_ALIGN(sizeof(struct skb_shared_info).其实也就是一页还能容纳多少tcp的数据。
接下来来看sk_stream_alloc_skb的实现。
1 它会调用alloc_skb_fclone来分配内存,这个函数就不详细分析了,我们只需要知道它会从slab里分配一块内存,而大小为size+max_header(上面的分析我们知道slect_size只计算数据段).
2 如果分配成功,则调用sk_wmem_schedule来判断我们所分配的skb的大小是否精确,是的话,就调整指针,然后返回。
3 否则调用tcp_enter_memory_pressure设置标志进入TCP memory pressure zone。然后再调用sk_stream_moderate_sndbuf调整sndbuf(缩小sndbuf)。
ok,现在就来看上面的几个函数的实现。先来看几个简单的。
首先是tcp_enter_memory_pressure,这个函数很简单,就是判断全局标记tcp_memory_pressure,然后设置这个标记。这个标记主要是用来通知其他模块调整的,比如窗口大小等等,详细的话自己搜索这个值,就知道了。
然后是sk_stream_moderate_sndbuf,这个函数也是要使用sk_userlocks,来判断是否已经被用户设置了。可以看到如果我们自己设置过了snd_buf的话,内核就不会帮我们调整它的大小了。
最后来看最核心的一个函数sk_wmem_schedule,这个函数只是对__sk_mem_schedule的简单封装。这里要知道传递进来的size是skb->truesize,也就是所分配的skb的真实大小。并且第一次进入这个函数,也就是分配第一个缓冲区包时,sk_forward_alloc是为0的,也就是说,第一次必然会执行__sk_mem_schedule函数。
来看__sk_mem_schedule,这个函数的功能注释写的很清楚:
然后来看源码。这里在看之前,我们要知道,协议栈通过读写buf的使用量,划分了3个区域,或者说标志。不同标志进行不同处理。这里的区域的划分是通过sysctl_tcp_mem,也就是prot->sysctl_mem这个数组进行的。
接下来来看个很重要的函数skb_set_owner_w。
顾名思义,这个函数也就是将一个skb和scok关联起来。只不过关联的时候更新sock相应的域。我们来看源码:
ok,接下来来看个scok_wfree函数,这个函数做得基本和上面函数相反。这个函数都是被kfree_skb自动调用的。
而skb_set_owner_w是什么时候被调用呢,我们通过搜索代码可以看到,它是在tcp_transmit_skb中被调用的。而tcp_transmit_skb我们知道是传递数据包到ip层的函数。
而kfree_skb被调用也就是在对端已经确认完我们发送的包后才会被调用来释放skb。
接下来来看接收数据的内存管理。我们主要来看tcp_rcv_established这个函数,我前面的blog已经断断续续的分析过了,因此这里我们只看一些重要的代码片断。
这里我们要知道,代码能到达下面的位置,则说明,数据并没有直接拷贝到用户空间。否则的话,是不会进入下面的片断的。
先来看skb_set_owner_r函数,这个函数关联skb和sk其实它和skb_set_owner_w类似:
然后是tcp_data_queue,这个函数主要用来排队接收数据,并update相关的读buf。由于这个函数比较复杂,我们只关心我们感兴趣的部分:
接下来我们就来看tcp_try_rmem_schedule这个函数,这个函数如果返回0则说明sk_rmem_schedule返回1,而sk_rmem_schedule和sk_wmem_schedule是一样的。也就是看当前的skb加入后有没有超过读buf的限制。并更新相关的域。:
来看sk_rmem_schedule,这个函数很简单,就是封装了__sk_mem_schedule。而这个函数我们上面已经分析过了。
最后是tcp_prune_queue,这个函数主要是用来丢掉一些skb,因为到这个函数就说明我们的内存使用已经到极限了,因此我们要合并一些buf。这个合并也就是将序列号连续的段进行合并。
这里我们要知道tcp的包是有序的,因此内核中tcp专门有一个队列来保存那些Out of order segments。因此我们这里会先处理这个队列里面的skb。
然后调用tcp_collapse来处理接收队列里面的skb。和上面的类似。
这里要注意,合并的话都是按页来合并,也就是先分配一页大小的内存,然后将老的skb复制进去,最后free掉老的buf。
来看sk_mem_reclaim函数,它只是简单的封装了__sk_mem_reclaim:
这里我们对tcp_collapse和tcp_collapse_ofo_queue对没有详细分析,只是简要的描述了下。
__sk_mem_reclaim就是真正操作的函数,它会更新memory_allocated:
最后看一下读buf的释放。这个函数会在kfree_skb中被调用。
///内核写buf的最大值. extern __u32 sysctl_wmem_max; ///协议栈读buf的最大值 extern __u32 sysctl_rmem_max;
这两个值在/proc/sys/net/core 下。这里要注意,这两个值的单位是字节。
它们的初始化在sk_init里面,这里可以看到这两个值的大小是依赖于num_physpages的,而这个值应该是物理页数。也就是说这两个值依赖于物理内存:
void __init sk_init(void) { if (num_physpages <= 4096) { sysctl_wmem_max = 32767; sysctl_rmem_max = 32767; sysctl_wmem_default = 32767; sysctl_rmem_default = 32767; } else if (num_physpages >= 131072) { sysctl_wmem_max = 131071; sysctl_rmem_max = 131071; } }
而我通过搜索源码,只有设置套接口选项的时候,才会用到这两个值,也就是setsockopt,optname为SO_SNDBUF或者SO_RCVBUF时,来限制设置的值:
case SO_SNDBUF: if (val > sysctl_wmem_max) val = sysctl_wmem_max;
接下来就是整个tcp协议栈的socket的buf限制(也就是所有的socket).
这里要注意,这个东西的单位都是以页为单位的,我们下面就会看到。
其中sysctl_tcp_mem[0]表示整个tcp sock的buf限制. sysctl_tcp_mem[1]也就是tcp sock内存使用的警戒线. sysctl_tcp_mem[2]也就是tcp sock内存使用的hard limit,当超过这个限制,我们就要禁止再分配buf. extern int sysctl_tcp_mem[3];
接下来就是针对每个sock的读写buf限制。
///其中依次为最小buf,中等buf,以及最大buf. extern int sysctl_tcp_wmem[3]; extern int sysctl_tcp_rmem[3];
这几个值的初始化在tcp_init里面,这里就能清晰的看到sysctl_tcp_mem的单位是页。而sysctl_tcp_wmem和sysctl_tcp_rmem的单位是字节。
void __init tcp_init(void) { ................................. ///nr_pages就是页。 nr_pages = totalram_pages - totalhigh_pages; limit = min(nr_pages, 1UL<<(28-PAGE_SHIFT)) >> (20-PAGE_SHIFT); limit = (limit * (nr_pages >> (20-PAGE_SHIFT))) >> (PAGE_SHIFT-11); limit = max(limit, 128UL); sysctl_tcp_mem[0] = limit / 4 * 3; sysctl_tcp_mem[1] = limit; sysctl_tcp_mem[2] = sysctl_tcp_mem[0] * 2; /* Set per-socket limits to no more than 1/128 the pressure threshold */ ///转换为字节。 limit = ((unsigned long)sysctl_tcp_mem[1]) << (PAGE_SHIFT - 7); max_share = min(4UL*1024*1024, limit); sysctl_tcp_wmem[0] = SK_MEM_QUANTUM; sysctl_tcp_wmem[1] = 16*1024; sysctl_tcp_wmem[2] = max(64*1024, max_share); sysctl_tcp_rmem[0] = SK_MEM_QUANTUM; sysctl_tcp_rmem[1] = 87380; sysctl_tcp_rmem[2] = max(87380, max_share); ................................ }
然后就是读写buf的最小值
#define SOCK_MIN_SNDBUF 2048 #define SOCK_MIN_RCVBUF 256
最后就是当前tcp协议栈已经分配了的buf的总大小。这里要注意,这个值也是以页为单位的。
atomic_t tcp_memory_allocated
而上面的这些值如何与协议栈关联起来呢,我们来看tcp_prot结构,可以看到这些值的地址都被放到对应的tcp_prot的域。
struct proto tcp_prot = { .name = "TCP", .owner = THIS_MODULE, ................................................... .enter_memory_pressure = tcp_enter_memory_pressure, .sockets_allocated = &tcp_sockets_allocated, .orphan_count = &tcp_orphan_count, .memory_allocated = &tcp_memory_allocated, .memory_pressure = &tcp_memory_pressure, .sysctl_mem = sysctl_tcp_mem, .sysctl_wmem = sysctl_tcp_wmem, .sysctl_rmem = sysctl_tcp_rmem, ........................................................ };
而对应的sock域中的几个值,这几个域非常重要,我们来看他们表示的含义:
sk_rcvbuf和sk_sndbuf,这两个值分别代表每个sock的读写buf的最大限制:
sk_rmem_alloc和sk_wmem_alloc这两个值分别代表已经提交的数据包的字节数。
读buf意味着进入tcp层的数据大小,而当数据提交给用户空间之后,这个值会相应的减去提交的大小(也就类似写buf的sk_wmem_queued)。
写buf意味着提交给ip层。可以看到这个值的增加是在tcp_transmit_skb中进行的。
而sk_wmem_queued也就代表skb的写队列write_queue的大小。
还有一个sk_forward_alloc,这个值表示一个预分配置,也就是整个tcp协议栈的内存cache,第一次为一个缓冲区分配buf的时候,我们不会直接分配精确的大小,而是按页来分配,而分配的大小就是这个值,下面我们会看到这个。并且这个值初始是0.
struct sock { int sk_rcvbuf; atomic_t sk_rmem_alloc; atomic_t sk_wmem_alloc; int sk_forward_alloc; .......................... int sk_sndbuf; ///这个表示写buf已经分配的字节长度 int sk_wmem_queued; ........................... }
sk_sndbuf和sk_rcvbuf,这两个的初始化在这里:
static int tcp_v4_init_sock(struct sock *sk) { .................................. sk->sk_sndbuf = sysctl_tcp_wmem[1]; sk->sk_rcvbuf = sysctl_tcp_rmem[1]; .......................... }
而当进入establish状态之后,sock会自己调整sndbuf和rcvbuf.他是通过tcp_init_buffer_space来进行调整的.这个函数会调用tcp_fixup_rcvbuf和tcp_fixup_sndbuf来调整读写buf的大小.
这里有用到sk_userlock这个标记,这个标记主要就是用来标记SO_SNDBUF 和SO_RCVBUF套接口选项是否被设置。而是否设置对应的值为:
#define SOCK_SNDBUF_LOCK 1 #define SOCK_RCVBUF_LOCK 2
我们可以看下面的设置SO_SNDBUF 和SO_RCVBUF的代码片断:
//首先设置sk_userlocks. sk->sk_userlocks |= SOCK_SNDBUF_LOCK; if ((val * 2) < SOCK_MIN_SNDBUF) sk->sk_sndbuf = SOCK_MIN_SNDBUF; else sk->sk_sndbuf = val * 2;
因此内核里面的处理是这样的,如果用户已经通过套接字选项设置了读或者写buf的大小,那么这里将不会调整读写buf的大小,否则就进入tcp_fixup_XXX来调整大小。
还有一个要注意的就是MAX_TCP_HEADER,这个值表示了TCP + IP + link layer headers 以及option的长度。
我们来看代码。
static void tcp_init_buffer_space(struct sock *sk) { struct tcp_sock *tp = tcp_sk(sk); int maxwin; ///判断sk_userlocks,来决定是否需要fix缓冲区大小。 if (!(sk->sk_userlocks & SOCK_RCVBUF_LOCK)) tcp_fixup_rcvbuf(sk); if (!(sk->sk_userlocks & SOCK_SNDBUF_LOCK)) tcp_fixup_sndbuf(sk); ...................................... }
接下来来看这两个函数如何来调整读写buf的大小,不过这里还有些疑问,就是为什么是要和3*sndmem以及4*rcvmem:
static void tcp_fixup_sndbuf(struct sock *sk) { ///首先通过mss,tcp头,以及sk_buff的大小,得到一个最小范围的sndmem。 int sndmem = tcp_sk(sk)->rx_opt.mss_clamp + MAX_TCP_HEADER + 16 +sizeof(struct sk_buff); ///然后取sysctl_tcp_wmem[2]和3倍的sndmem之间的最小值。 if (sk->sk_sndbuf < 3 * sndmem) sk->sk_sndbuf = min(3 * sndmem, sysctl_tcp_wmem[2]); } static void tcp_fixup_rcvbuf(struct sock *sk) { struct tcp_sock *tp = tcp_sk(sk); ///这里和上面类似,也是先得到最小的一个rcvmem段。 int rcvmem = tp->advmss + MAX_TCP_HEADER + 16 + sizeof(struct sk_buff); /* Try to select rcvbuf so that 4 mss-sized segments * will fit to window and corresponding skbs will fit to our rcvbuf. * (was 3; 4 is minimum to allow fast retransmit to work.) */ ///这里则是通过sysctl_tcp_adv_win_scale来调整rcvmem的值。 while (tcp_win_from_space(rcvmem) < tp->advmss) rcvmem += 128; if (sk->sk_rcvbuf < 4 * rcvmem) sk->sk_rcvbuf = min(4 * rcvmem, sysctl_tcp_rmem[2]); }
ok,看完初始化,我们来看协议栈具体如何管理内存的,先来看发送端,发送端的主要实现是在tcp_sendmsg里面,这个函数我们前面已经详细的分析过了,我们这次只分析里面几个与内存相关的东西。
来看代码片断:
int tcp_sendmsg(struct kiocb *iocb, struct socket *sock, struct msghdr *msg, size_t size) { .................................. if (copy <= 0) { new_segment: if (!sk_stream_memory_free(sk)) goto wait_for_sndbuf; skb = sk_stream_alloc_skb(sk, select_size(sk), sk->sk_allocation); if (sk->sk_route_caps & NETIF_F_ALL_CSUM) skb->ip_summed = CHECKSUM_PARTIAL; skb_entail(sk, skb); copy = size_goal; max = size_goal; .................. }
可以看到这里第一个sk_stream_memory_free用来判断是否还有空间来供我们分配,如果没有则跳到wait_for_sndbuf来等待buf的释放。
然后如果有空间供我们分配,则调用sk_stream_alloc_skb来分配一个skb,然后这个大小的选择是通过select_size。
最后调用skb_entail来更新相关的域。
现在我们就来详细看上面的四个函数,先来看第一个:
static inline int sk_stream_memory_free(struct sock *sk) { return sk->sk_wmem_queued < sk->sk_sndbuf; }
sk_stream_memory_free实现很简单,就是判断当前已经分配的写缓冲区的大小(sk_wmem_queued)是否小于当前写缓冲区(sk_sndbuf)的最大限制。
然后是skb_entail,这个函数主要是当我们分配完buf后,进行一些相关域的更新,以及添加skb到writequeue。
static inline void skb_entail(struct sock *sk, struct sk_buff *skb) { struct tcp_sock *tp = tcp_sk(sk); struct tcp_skb_cb *tcb = TCP_SKB_CB(skb); ............................ skb_header_release(skb); tcp_add_write_queue_tail(sk, skb); ///增加sk_wmem_queued. sk->sk_wmem_queued += skb->truesize; ///这里调整sk_forward_alloc的大小,也就是预分配buf的大小(减小). sk_mem_charge(sk, skb->truesize); if (tp->nonagle & TCP_NAGLE_PUSH) tp->nonagle &= ~TCP_NAGLE_PUSH; } ///这个函数很简单,就是将sk_forward_alloc - size. static inline void sk_mem_charge(struct sock *sk, int size) { if (!sk_has_account(sk)) return; sk->sk_forward_alloc -= size; }
然后是select_size,在看这个之前我们先来坎SKB_MAX_HEAD的实现.
SKB_MAX_HEAD主要是得到要分配的tcp数据段(不包括头)在一页中最大为多少。
#define SKB_WITH_OVERHEAD(X) \ ((X) - SKB_DATA_ALIGN(sizeof(struct skb_shared_info))) #define SKB_MAX_ORDER(X, ORDER) \ SKB_WITH_OVERHEAD((PAGE_SIZE << (ORDER)) - (X)) #define SKB_MAX_HEAD(X) (SKB_MAX_ORDER((X), 0))
我们带入代码来看,我们下面的代码是SKB_MAX_HEAD(MAX_TCP_HEADER),展开这个宏可以看到就是PAGE_SIZE-MAX_TCP_HEADER-SKB_DATA_ALIGN(sizeof(struct skb_shared_info).其实也就是一页还能容纳多少tcp的数据。
static inline int select_size(struct sock *sk) { struct tcp_sock *tp = tcp_sk(sk); ///首先取得存储的mss。 int tmp = tp->mss_cache; ///然后判断是否使用scatter–gather(前面blog有介绍) if (sk->sk_route_caps & NETIF_F_SG) { if (sk_can_gso(sk)) tmp = 0; else { ///然后开始计算buf的长度。 int pgbreak = SKB_MAX_HEAD(MAX_TCP_HEADER); ///如果mss大于pgbreak,那么说明我们一页放不下当前需要的tcp数据,因此我们将会在skb的页区域分配,而skb的页区域是有限制的,因此tmp必须小于这个值。 if (tmp >= pgbreak && tmp <= pgbreak + (MAX_SKB_FRAGS - 1) * PAGE_SIZE) tmp = pgbreak; } } return tmp; }
接下来来看sk_stream_alloc_skb的实现。
1 它会调用alloc_skb_fclone来分配内存,这个函数就不详细分析了,我们只需要知道它会从slab里分配一块内存,而大小为size+max_header(上面的分析我们知道slect_size只计算数据段).
2 如果分配成功,则调用sk_wmem_schedule来判断我们所分配的skb的大小是否精确,是的话,就调整指针,然后返回。
3 否则调用tcp_enter_memory_pressure设置标志进入TCP memory pressure zone。然后再调用sk_stream_moderate_sndbuf调整sndbuf(缩小sndbuf)。
struct sk_buff *sk_stream_alloc_skb(struct sock *sk, int size, gfp_t gfp) { struct sk_buff *skb; ///4字节对其 size = ALIGN(size, 4); ///分配skb。 skb = alloc_skb_fclone(size + sk->sk_prot->max_header, gfp); if (skb) { ///得到精确的大小。 if (sk_wmem_schedule(sk, skb->truesize)) { ///返回skb。 skb_reserve(skb, skb_tailroom(skb) - size); return skb; } __kfree_skb(skb); } else { ///否则设置全局标记进入pressure zone sk->sk_prot->enter_memory_pressure(sk); sk_stream_moderate_sndbuf(sk); } return NULL; }
ok,现在就来看上面的几个函数的实现。先来看几个简单的。
首先是tcp_enter_memory_pressure,这个函数很简单,就是判断全局标记tcp_memory_pressure,然后设置这个标记。这个标记主要是用来通知其他模块调整的,比如窗口大小等等,详细的话自己搜索这个值,就知道了。
void tcp_enter_memory_pressure(struct sock *sk) { if (!tcp_memory_pressure) { NET_INC_STATS(sock_net(sk), LINUX_MIB_TCPMEMORYPRESSURES); ///设置压力标志。 tcp_memory_pressure = 1; } }
然后是sk_stream_moderate_sndbuf,这个函数也是要使用sk_userlocks,来判断是否已经被用户设置了。可以看到如果我们自己设置过了snd_buf的话,内核就不会帮我们调整它的大小了。
static inline void sk_stream_moderate_sndbuf(struct sock *sk) { if (!(sk->sk_userlocks & SOCK_SNDBUF_LOCK)) { ///它的大小调整为大于最小值,小于sk->sk_wmem_queued >> 1。 sk->sk_sndbuf = min(sk->sk_sndbuf, sk->sk_wmem_queued >> 1); sk->sk_sndbuf = max(sk->sk_sndbuf, SOCK_MIN_SNDBUF); } }
最后来看最核心的一个函数sk_wmem_schedule,这个函数只是对__sk_mem_schedule的简单封装。这里要知道传递进来的size是skb->truesize,也就是所分配的skb的真实大小。并且第一次进入这个函数,也就是分配第一个缓冲区包时,sk_forward_alloc是为0的,也就是说,第一次必然会执行__sk_mem_schedule函数。
static inline int sk_wmem_schedule(struct sock *sk, int size) { if (!sk_has_account(sk)) return 1; ///先比较size(也就是skb->truesize)和预分配的内存大小。如果小于等于预分配的大小,则直接返回,否则调用__sk_mem_schedule进行调整。 return size <= sk->sk_forward_alloc || __sk_mem_schedule(sk, size, SK_MEM_SEND); }
来看__sk_mem_schedule,这个函数的功能注释写的很清楚:
引用
increase sk_forward_alloc and memory_allocated
然后来看源码。这里在看之前,我们要知道,协议栈通过读写buf的使用量,划分了3个区域,或者说标志。不同标志进行不同处理。这里的区域的划分是通过sysctl_tcp_mem,也就是prot->sysctl_mem这个数组进行的。
///页的大小 #define SK_MEM_QUANTUM ((int)PAGE_SIZE) int __sk_mem_schedule(struct sock *sk, int size, int kind) { struct proto *prot = sk->sk_prot; ///首先得到size占用几个内存页。 int amt = sk_mem_pages(size); int allocated; ///更新sk_forward_alloc,可以看到这个值是页的大小的倍数。 sk->sk_forward_alloc += amt * SK_MEM_QUANTUM; ///amt+memory_allocated也就是当前的总得内存使用量加上将要分配的内存的话,现在的tcp协议栈的总得内存使用量。(可以看到是以页为单位的。 allocated = atomic_add_return(amt, prot->memory_allocated); ///然后开始判断,将会落入哪一个区域。通过上面的分析我们知道sysctl_mem也就是sysctl_tcp_mem. ///先判断是否小于等于内存最小使用限额。 if (allocated <= prot->sysctl_mem[0]) { ///这里取消memory_pressure,然后返回。 if (prot->memory_pressure && *prot->memory_pressure) *prot->memory_pressure = 0; return 1; } //然后判断Under pressure。 if (allocated > prot->sysctl_mem[1]) //大于sysctl_mem[1]说明,已经进入pressure,一次你需要调用tcp_enter_memory_pressure来设置标志。 if (prot->enter_memory_pressure) prot->enter_memory_pressure(sk); ///如果超过的hard limit。则进入另外的处理。 if (allocated > prot->sysctl_mem[2]) goto suppress_allocation; //判断类型,这里只有两种类型,读和写。总的内存大小判断完,这里开始判断单独的sock的读写内存。 if (kind == SK_MEM_RECV) { if (atomic_read(&sk->sk_rmem_alloc) < prot->sysctl_rmem[0]) return 1; } else { /* SK_MEM_SEND */ ///这里当为tcp的时候,写队列的大小只有当对端数据确认后才会更新,因此我们要用sk_wmem_queued来判断。 if (sk->sk_type == SOCK_STREAM) { if (sk->sk_wmem_queued < prot->sysctl_wmem[0]) return 1; } else if (atomic_read(&sk->sk_wmem_alloc) < prot->sysctl_wmem[0]) return 1; } ///程序到达这里说明总的内存大小在sysctl_mem[0]和sysctl_mem[2]之间,因此我们再次判断memory_pressure if (prot->memory_pressure) { int alloc; ///如果没有在memory_pressure区域,则我们直接返回1。 if (!*prot->memory_pressure) return 1; ///这个其实也就是计算整个系统分配的socket的多少。 alloc = percpu_counter_read_positive(prot->sockets_allocated); ///这里假设其余的每个sock所占用的buf都和当前的sock一样大的时候,如果他们的总和小于sysctl_mem[2],也就是hard limit。那么我们也认为这次内存请求是成功的。 if (prot->sysctl_mem[2] > alloc * sk_mem_pages(sk->sk_wmem_queued + atomic_read(&sk->sk_rmem_alloc) + sk->sk_forward_alloc)) return 1; } suppress_allocation: ///到达这里说明,我们超过了hard limit或者说处于presure 区域。 if (kind == SK_MEM_SEND && sk->sk_type == SOCK_STREAM) { ///调整sk_sndbuf(减小).这个函数前面已经分析过了。 sk_stream_moderate_sndbuf(sk); ///然后比较和sk_sndbuf的大小,如果大于的话,就说明下次我们再次要分配buf的时候会在tcp_memory_free阻塞住,因此这次我们返回1. if (sk->sk_wmem_queued + size >= sk->sk_sndbuf) return 1; } /* Alas. Undo changes. */ ///到达这里说明,请求内存是不被接受的,因此undo所有的操作。然后返回0. sk->sk_forward_alloc -= amt * SK_MEM_QUANTUM; atomic_sub(amt, prot->memory_allocated); return 0; }
接下来来看个很重要的函数skb_set_owner_w。
顾名思义,这个函数也就是将一个skb和scok关联起来。只不过关联的时候更新sock相应的域。我们来看源码:
static inline void skb_set_owner_w(struct sk_buff *skb, struct sock *sk) { skb_orphan(skb); ///与传递进来的sock关联起来 skb->sk = sk; ///设置skb的析构函数 skb->destructor = sock_wfree; ///更新sk_wmem_alloc域,就是sk_wmem_alloc+truesize. atomic_add(skb->truesize, &sk->sk_wmem_alloc); }
ok,接下来来看个scok_wfree函数,这个函数做得基本和上面函数相反。这个函数都是被kfree_skb自动调用的。
void sock_wfree(struct sk_buff *skb) { struct sock *sk = skb->sk; int res; ///更新sk_wmem_alloc,减去skb的大小。 res = atomic_sub_return(skb->truesize, &sk->sk_wmem_alloc); if (!sock_flag(sk, SOCK_USE_WRITE_QUEUE)) ///唤醒等待队列,也就是唤醒等待内存分配。 sk->sk_write_space(sk); if (res == 0) __sk_free(sk); }
而skb_set_owner_w是什么时候被调用呢,我们通过搜索代码可以看到,它是在tcp_transmit_skb中被调用的。而tcp_transmit_skb我们知道是传递数据包到ip层的函数。
而kfree_skb被调用也就是在对端已经确认完我们发送的包后才会被调用来释放skb。
接下来来看接收数据的内存管理。我们主要来看tcp_rcv_established这个函数,我前面的blog已经断断续续的分析过了,因此这里我们只看一些重要的代码片断。
这里我们要知道,代码能到达下面的位置,则说明,数据并没有直接拷贝到用户空间。否则的话,是不会进入下面的片断的。
if (!eaten) { .......................................... ///如果skb的大小大于预分配的值,如果大于则要另外处理。 if ((int)skb->truesize > sk->sk_forward_alloc) goto step5; __skb_pull(skb, tcp_header_len); __skb_queue_tail(&sk->sk_receive_queue, skb); ///这里关联skb和对应的sk,并且更新相关的域,我们下面会分析这个函数。 skb_set_owner_r(skb, sk); tp->rcv_nxt = TCP_SKB_CB(skb)->end_seq; } ............................................... step5: if (th->ack && tcp_ack(sk, skb, FLAG_SLOWPATH) < 0) goto discard; tcp_rcv_rtt_measure_ts(sk, skb); /* Process urgent data. */ tcp_urg(sk, skb, th); /* step 7: process the segment text */ ///最核心的函数就是这个。我们接下来会详细分析这个函数。 tcp_data_queue(sk, skb); tcp_data_snd_check(sk); tcp_ack_snd_check(sk); return 0;
先来看skb_set_owner_r函数,这个函数关联skb和sk其实它和skb_set_owner_w类似:
static inline void skb_set_owner_r(struct sk_buff *skb, struct sock *sk) { skb_orphan(skb); ///关联sk skb->sk = sk; //设置析构函数 skb->destructor = sock_rfree; ///更新rmem_alloc atomic_add(skb->truesize, &sk->sk_rmem_alloc); ///改变forward_alloc. sk_mem_charge(sk, skb->truesize); }
然后是tcp_data_queue,这个函数主要用来排队接收数据,并update相关的读buf。由于这个函数比较复杂,我们只关心我们感兴趣的部分:
static void tcp_data_queue(struct sock *sk, struct sk_buff *skb) { struct tcphdr *th = tcp_hdr(skb); struct tcp_sock *tp = tcp_sk(sk); int eaten = -1; ....................................... ///首先判断skb的开始序列号和我们想要接收的序列号。如果相等开始处理这个数据包(也就是拷贝到用户空间). if (TCP_SKB_CB(skb)->seq == tp->rcv_nxt) { if (tcp_receive_window(tp) == 0) goto out_of_window; //tp的ucopy我前面的blog已经详细分析过了。这里就不解释了。 if (tp->ucopy.task == current && tp->copied_seq == tp->rcv_nxt && tp->ucopy.len &&sock_owned_by_user(sk) && !tp->urg_data) { ///计算将要拷贝给用户空间的大小。 int chunk = min_t(unsigned int, skb->len,tp->ucopy.len); ///设置状态,说明我们处于进程上下文。 __set_current_state(TASK_RUNNING); local_bh_enable(); ///拷贝skb if (!skb_copy_datagram_iovec(skb, 0, tp->ucopy.iov, chunk)) { tp->ucopy.len -= chunk; tp->copied_seq += chunk; ///更新eaten,它的默认值为-1. eaten = (chunk == skb->len && !th->fin); tcp_rcv_space_adjust(sk); } local_bh_disable(); } ///如果小于0则说明没有拷贝成功,或者说就没有进行拷贝。此时需要更新sock的相关域。 if (eaten <= 0) { queue_and_out: ///最关键的tcp_try_rmem_schedule函数。接下来会详细分析。 if (eaten < 0 && tcp_try_rmem_schedule(sk, skb->truesize)) goto drop; ///关联skb和sk。到达这里说明tcp_try_rmem_schedule成功,也就是返回0. skb_set_owner_r(skb, sk); ///加skb到receive_queue. __skb_queue_tail(&sk->sk_receive_queue, skb); } ///更新期待序列号。 tp->rcv_nxt = TCP_SKB_CB(skb)->end_seq; .............................................. } ..................................... tcp_fast_path_check(sk); if (eaten > 0) __kfree_skb(skb); else if (!sock_flag(sk, SOCK_DEAD)) sk->sk_data_ready(sk, 0); return; } ///下面就是处理乱序包。以后会详细分析。 ...................................... }
接下来我们就来看tcp_try_rmem_schedule这个函数,这个函数如果返回0则说明sk_rmem_schedule返回1,而sk_rmem_schedule和sk_wmem_schedule是一样的。也就是看当前的skb加入后有没有超过读buf的限制。并更新相关的域。:
static inline int tcp_try_rmem_schedule(struct sock *sk, unsigned int size) { ///首先判断rmem_alloc(当前的读buf字节数)是否大于最大buf字节数,如果大于则调用tcp_prune_queue调整分配的buf。否则调用sk_rmem_schedule来调整相关域(sk_forward_alloc)。 if (atomic_read(&sk->sk_rmem_alloc) > sk->sk_rcvbuf ||!sk_rmem_schedule(sk, size)) { ///调整分配的buf。 if (tcp_prune_queue(sk) < 0) return -1; ///更新sk的相关域。 if (!sk_rmem_schedule(sk, size)) { if (!tcp_prune_ofo_queue(sk)) return -1; if (!sk_rmem_schedule(sk, size)) return -1; } } return 0; }
来看sk_rmem_schedule,这个函数很简单,就是封装了__sk_mem_schedule。而这个函数我们上面已经分析过了。
static inline int sk_rmem_schedule(struct sock *sk, int size) { if (!sk_has_account(sk)) return 1; return size <= sk->sk_forward_alloc || __sk_mem_schedule(sk, size, SK_MEM_RECV); }
最后是tcp_prune_queue,这个函数主要是用来丢掉一些skb,因为到这个函数就说明我们的内存使用已经到极限了,因此我们要合并一些buf。这个合并也就是将序列号连续的段进行合并。
这里我们要知道tcp的包是有序的,因此内核中tcp专门有一个队列来保存那些Out of order segments。因此我们这里会先处理这个队列里面的skb。
然后调用tcp_collapse来处理接收队列里面的skb。和上面的类似。
这里要注意,合并的话都是按页来合并,也就是先分配一页大小的内存,然后将老的skb复制进去,最后free掉老的buf。
static int tcp_prune_queue(struct sock *sk) { struct tcp_sock *tp = tcp_sk(sk); .................................. ///如果rmem_alloc过于大,则重新计算窗口的大小。一半都会缩小窗口。 if (atomic_read(&sk->sk_rmem_alloc) >= sk->sk_rcvbuf) tcp_clamp_window(sk); ///如果处于pressure区域,则调整窗口大小。这里也是缩小窗口。 else if (tcp_memory_pressure) tp->rcv_ssthresh = min(tp->rcv_ssthresh, 4U * tp->advmss); ///处理ofo队列。 tcp_collapse_ofo_queue(sk); ///如果接收队列为非空,则调用tcp_collapse来处理sk_receive_queue if (!skb_queue_empty(&sk->sk_receive_queue)) tcp_collapse(sk, &sk->sk_receive_queue, skb_peek(&sk->sk_receive_queue), NULL, tp->copied_seq, tp->rcv_nxt); ///更新全局的已分配内存的大小,也就是memory_allocated,接下来会详细介绍这个函数。 sk_mem_reclaim(sk); ///如果调整后小于sk_rcvbuf,则返回0. if (atomic_read(&sk->sk_rmem_alloc) <= sk->sk_rcvbuf) return 0; ...................................... return -1; }
来看sk_mem_reclaim函数,它只是简单的封装了__sk_mem_reclaim:
static inline void sk_mem_reclaim(struct sock *sk) { if (!sk_has_account(sk)) return; ///如果sk_forward_alloc大于1页则调用__sk_mem_reclaim,我们知道sk_forward_alloc是以页为单位的,因此这里也就是和大于0一样。 if (sk->sk_forward_alloc >= SK_MEM_QUANTUM) __sk_mem_reclaim(sk); }
这里我们对tcp_collapse和tcp_collapse_ofo_queue对没有详细分析,只是简要的描述了下。
__sk_mem_reclaim就是真正操作的函数,它会更新memory_allocated:
void __sk_mem_reclaim(struct sock *sk) { struct proto *prot = sk->sk_prot; //更新memory_allocated,这里我们知道memory_allocated也是以页为单位的,因此需要将sk_forward_alloc转化为页。 atomic_sub(sk->sk_forward_alloc >> SK_MEM_QUANTUM_SHIFT,prot->memory_allocated); //更新这个sk的sk_forward_alloc为一页。 sk->sk_forward_alloc &= SK_MEM_QUANTUM - 1; ///判断是否处于pressure区域,是的话更新memory_pressure变量。 if (prot->memory_pressure && *prot->memory_pressure &&(atomic_read(prot->memory_allocated) < (prot->sysctl_mem[0])) *prot->memory_pressure = 0; }
最后看一下读buf的释放。这个函数会在kfree_skb中被调用。
void sock_rfree(struct sk_buff *skb) { struct sock *sk = skb->sk; ///更新rmem_alloc atomic_sub(skb->truesize, &sk->sk_rmem_alloc); ///更新forward_alloc. sk_mem_uncharge(skb->sk, skb->truesize); }
发表评论
-
Receive packet steering patch详解
2010-07-25 16:46 12156Receive packet steering简称rp ... -
内核中拥塞窗口初始值对http性能的影响分析
2010-07-11 00:20 9708这个是google的人提出的 ... -
linux 内核tcp拥塞处理(一)
2010-03-12 16:17 9579这次我们来分析tcp的拥塞控制,我们要知道协议栈都是很保守的, ... -
内核tcp协议栈SACK的处理
2010-01-24 21:13 12185上一篇处理ack的blog中我 ... -
内核tcp的ack的处理
2010-01-17 03:06 11162我们来看tcp输入对于ack,段的处理。 先是ack的处理, ... -
内核处理time_wait状态详解
2010-01-10 17:39 6822这次来详细看内核的time_wait状态的实现,在前面介绍定时 ... -
tcp协议栈处理各种事件的分析
2009-12-30 01:29 13638首先我们来看socket如何将一些状态的变化通知给对应的进程, ... -
linux内核sk_buff的结构分析
2009-12-25 00:42 47921我看的内核版本是2.6.32. 在内核中sk_buff表示一 ... -
tcp的输入段的处理
2009-12-18 00:56 8362tcp是全双工的协议,因此每一端都会有流控。一个tcp段有可能 ... -
linux内核定时器的实现
2009-10-31 01:44 10196由于linux还不是一个实时的操作系统,因此如果需要更高精度, ... -
linux内核中tcp连接的断开处理
2009-10-25 21:47 10342我们这次主要来分析相关的两个断开函数close和shotdow ... -
linux内核tcp的定时器管理(二)
2009-10-05 20:52 5432这次我们来看后面的3个定时器; 首先是keep alive定 ... -
linux内核tcp的定时器管理(一)
2009-10-04 23:29 9837在内核中tcp协议栈有6种 ... -
linux 内核tcp接收数据的实现
2009-09-26 20:24 14529相比于发送数据,接收数据更复杂一些。接收数据这里和3层的接口是 ... -
linux 内核tcp数据发送的实现
2009-09-10 01:41 19794在分析之前先来看下SO_RCVTIMEO和SO_SNDTIME ... -
tcp connection setup的实现(三)
2009-09-03 00:34 5206先来看下accept的实现. 其实accept的作用很简单, ... -
tcp connection setup的实现(二)
2009-09-01 00:46 8439首先来看下内核如何处理3次握手的半连接队列和accept队列( ... -
tcp connection setup的实现(一)
2009-08-23 04:10 5827bind的实现: 先来介绍几个地址结构. struct ... -
linux内核中socket的实现
2009-08-15 04:38 21109首先来看整个与socket相关的操作提供了一个统一的接口sys ... -
ip层和4层的接口实现分析
2009-08-08 03:50 6211首先来看一下基于3层的ipv4以及ipv6实现的一些4层的协议 ...
相关推荐
Linux内核协议栈中的TCP协议在处理连接关闭时,会进入一个特定的状态叫做time_wait。这个状态对于确保TCP连接的可靠性和避免旧连接与新连接混淆至关重要。在time_wait状态下,连接不会立即关闭,而是等待一段时间,...
《Linux内核协议栈剖析》一书主要涵盖了Linux操作系统中网络协议栈的深入解析,特别是TCP/IP协议栈的实现细节。TCP/IP协议栈是互联网通信的核心部分,它负责在网络之间传输数据包,确保数据的正确性和可靠性。在...
Linux内核协议栈分为五个主要层次:链路层(Link Layer)、网络层(Network Layer)、传输层(Transport Layer)、会话层(Session Layer)和应用层(Application Layer)。在源码中,这些层由不同的子系统和模块...
Linux TCP/IP协议栈是实现网络通信的核心组件,深入理解其工作原理对于系统管理员、网络工程师以及软件开发者来说都至关重要。本文将对Linux 2.6协议栈进行详细分析,旨在揭示其内部运作机制。 #### 二、协议栈概述...
根据提供的文件标题、描述、标签以及部分内容,我们可以推断出这份文档主要关注的是Linux内核中的TCP/IP协议栈实现分析。接下来将详细阐述这一主题下的关键知识点。 ### 一、Linux内核源码剖析概述 #### 1. Linux...
然而,在LwIP中,考虑到目标系统通常是资源有限的嵌入式设备,往往不具备强大的操作系统支持,因此采用了更为灵活的通讯机制,即应用层可以直接访问底层协议栈的内存区域,从而避免了额外的数据复制操作。...
通过阅读"Linux内核协议栈源码分析(新版).pdf",初学者可以逐步深入到内核源码层面,探究每一步的具体实现细节,从而加深对整个网络通信过程的理解。这是一份非常宝贵的资源,值得每一位对Linux内核感兴趣的读者研读...
文档以Linux2.6.18内核源码为基础,逐章节逐步分析了协议栈的各个子模块,从系统初始化到网络层、传输层的实现细节,再到配置系统的配置过程,详细阐述了TCP/IP协议栈在Linux系统中的实现原理和工作机制。...
1. **单内核设计**:Linux是一个单内核操作系统,TCP/IP协议栈的实现完全嵌入在系统内核中。用户程序通过系统调用接口与协议栈交互,进行网络通信。这种方式提高了效率,因为减少了用户空间和内核空间之间的上下文...
协议栈采取措施减少内存碎片化,并提供高效的缓冲管理策略,使得即使是有限的内存资源也能被高效利用。 ### 5. 操作系统模拟层 为了在非传统操作系统(如裸机环境)中运行,LwIP提供了一个操作系统模拟层。这个模拟...
协议栈源码分析是指对 Linux 2.6 内核中协议栈源码的分析,包括链路层、网络层、传输层和应用层的源码分析。系统初始化源码分析是指对 Linux 2.6 内核中系统初始化源码的分析,包括硬件初始化、内核初始化、系统服务...
嵌入式TCP/IP协议栈是将TCP/IP网络协议应用于微控制器或嵌入式系统的一种技术。在本场景中,我们关注的是使用ENC28J60网络接口控制器和LPC2124微处理器实现的特定实例。 ENC28J60是一个用于嵌入式系统的以太网MAC...
在Linux内核TCP/IP协议栈的静态分析中,不仅要理解上述的sk_buff结构,还要深入理解网络设备驱动的注册过程,以及网络层、TCP层、UDP层之间是如何双向调用和协同工作的。Linux内核的网络子系统是一个高度抽象和模块...
去除ucosII的依赖,可能意味着开发者已经将TCP/IP协议栈的管理功能集成到主程序中,或者使用了其他轻量级的实时操作系统或无操作系统设计,以降低系统资源需求。 描述中提到的“带MDK工程文件和报文说明”,MDK...
TCP/IP 协议栈是 Linux 操作系统中最重要的网络协议栈,负责管理网络通信。为了提高 Linux 系统的网络性能,需要对 TCP/IP 协议栈进行优化。本文将探讨四种获取基于 TCP/IP 应用程序的最大性能的方法,包括最小化...
Microchip的TCP/IP协议栈,以其丰富的应用层协议支持和高效的内存管理,在嵌入式系统开发领域中备受推崇。当这一强大的协议栈与STM32微控制器相结合时,可以为物联网(IoT)设备提供稳定且功能强大的网络连接能力。...
LwIP(Lightweight IP)是一个小型开源的TCP/IP协议栈,旨在降低内存占用并尽可能保持TCP/IP协议栈的功能完整性。它被设计为在资源受限的环境中运行,例如嵌入式系统。LwIP支持包括ARP、IP、ICMP、TCP和UDP在内的...
Linux TCP/IP协议栈是操作系统内核中的核心组件,负责处理网络通信。它的主要任务是将数据从一台机器传输到另一台机器,通过互联网或其他网络。本文将深入探讨Linux TCP/IP协议栈的自主实现过程,以及如何设计网络层...