- 浏览: 321809 次
- 性别:
- 来自: 上海
文章分类
最新评论
-
JQ_AK47:
...
Linux下直接发送以太包 -
winsen2009:
谢谢分享,如果能再来一个列子就更好了,刚接触看完还是不懂的用
UNPv1_r3读书笔记: SCTP编程
本文档的Copyleft归yfydz所有,使用GPL发布,可以自由拷贝,转载,转载时请保持文档的完整性,
严禁用于任何商业用途。
msn: yfydz_no1@hotmail.com
来源:http://yfydz.cublog.cn
1. 前言 linux内核中提供了流量控制的相关处理功能,相关代码在net/sched目录下;而应用层上的控制是通 过iproute2软件包中的tc来实现,tc和sched的关系就好象iptables和netfilter的关系一样,一个是 用户层接口,一个是具体实现,关于tc的使用方法可详将Linux Advanced Routing HOWTO,本文主要 分析内核中的具体实现。 流控包括几个部分: 流控算法, 通常在net/sched/sch_*.c中实现, 缺省的是FIFO, 是比较典型的黑 盒模式, 对外只看到入队和出对两个操作; 流控结构的操作处理; 和用户空间的控制接口, 是通过 rtnetlink实现的。 以下内核代码版本为2.6.19.2。 2. 控制入口 2.1 控制入口 linux流控功能反映为网卡设备的属性,表明是网络最底层的处理部分, 已经和上层的网络协议栈无 关了: /* include/linux/netdevice.h */ struct net_device { ...... /* * Cache line mostly used on queue transmit path (qdisc) */ /* device queue lock */ spinlock_t queue_lock ____cacheline_aligned_in_smp; // 这是发送数据时的队列处理 struct Qdisc *qdisc; // 网卡停止时保存网卡活动时的队列处理方法 struct Qdisc *qdisc_sleeping; // 网卡处理的数据队列链表 struct list_head qdisc_list; // 最大队列长度 unsigned long tx_queue_len; /* Max frames per queue allowed */ /* Partially transmitted GSO packet. */ struct sk_buff *gso_skb; /* ingress path synchronizer */ // 输入流控锁 spinlock_t ingress_lock; // 这是对于接收数据时的队列处理 struct Qdisc *qdisc_ingress; ...... 2.1.2 输出流控 数据发出流控处理时,上层的所有处理已经完成,数据包已经交到网卡设备进行发送,在数据发送时 进行相关的流控处理网络数据的出口函数为dev_queue_xmit(); 如果是接收流控, 数据只是刚从网卡 设备中收到, 还未交到网络上层处理, 不过网卡的输入流控不是必须的, 缺省情况下并不进行流控, 输入流控入口函数为ing_filter()函数,该函数被skb_receive_skb()调用: /* net/core/dev.c */ int dev_queue_xmit(struct sk_buff *skb) { struct net_device *dev = skb->dev; struct Qdisc *q; int rc = -ENOMEM; ...... /* Updates of qdisc are serialized by queue_lock. * The struct Qdisc which is pointed to by qdisc is now a * rcu structure - it may be accessed without acquiring * a lock (but the structure may be stale.) The freeing of the * qdisc will be deferred until it's known that there are no * more references to it. * * If the qdisc has an enqueue function, we still need to * hold the queue_lock before calling it, since queue_lock * also serializes access to the device queue. */ // 获取网卡的qdisc指针, 此出不需要锁, 是各个CPU的私有数据 q = rcu_dereference(dev->qdisc); #ifdef CONFIG_NET_CLS_ACT skb->tc_verd = SET_TC_AT(skb->tc_verd,AT_EGRESS); #endif // 如果队列输入非空, 将数据包入队 // 对于物理网卡设备, 缺省使用的是FIFO qdisc, 该成员函数非空, 只有逻辑网卡 // 才可能为空 if (q->enqueue) { /* Grab device queue */ // 加锁 spin_lock(&dev->queue_lock); // 可以直接访问dev->qdisc了 q = dev->qdisc; if (q->enqueue) { // 入队处理 rc = q->enqueue(skb, q); // 运行流控, 出队列操作 qdisc_run(dev); spin_unlock(&dev->queue_lock); rc = rc == NET_XMIT_BYPASS ? NET_XMIT_SUCCESS : rc; goto out; } spin_unlock(&dev->queue_lock); } ...... } // 出队操作 static inline void qdisc_run(struct net_device *dev) { if (!netif_queue_stopped(dev) && !test_and_set_bit(__LINK_STATE_QDISC_RUNNING, &dev->state)) __qdisc_run(dev); } /* net/sched/sch_generic.c */ void __qdisc_run(struct net_device *dev) { // 如果是noop_qdisc流控, 实际是丢包 if (unlikely(dev->qdisc == &noop_qdisc)) goto out; while (qdisc_restart(dev) < 0 && !netif_queue_stopped(dev)) /* NOTHING */; out: clear_bit(__LINK_STATE_QDISC_RUNNING, &dev->state); } /* Kick device. Note, that this procedure can be called by a watchdog timer, so that we do not check dev->tbusy flag here. Returns: 0 - queue is empty. >0 - queue is not empty, but throttled. <0 - queue is not empty. Device is throttled, if dev->tbusy != 0. NOTE: Called under dev->queue_lock with locally disabled BH. */ static inline int qdisc_restart(struct net_device *dev) { struct Qdisc *q = dev->qdisc; struct sk_buff *skb; /* Dequeue packet */ // 数据包出队 if (((skb = dev->gso_skb)) || ((skb = q->dequeue(q)))) { unsigned nolock = (dev->features & NETIF_F_LLTX); dev->gso_skb = NULL; ...... } 2.1.3 输入流控 输入流控好象不是必须的,目前内核需要配置CONFIG_NET_CLS_ACT选项才起作用: /* net/core/dev.c */ int netif_receive_skb(struct sk_buff *skb) { ...... #ifdef CONFIG_NET_CLS_ACT if (pt_prev) { ret = deliver_skb(skb, pt_prev, orig_dev); pt_prev = NULL; /* noone else should process this after*/ } else { skb->tc_verd = SET_TC_OK2MUNGE(skb->tc_verd); } ret = ing_filter(skb); if (ret == TC_ACT_SHOT || (ret == TC_ACT_STOLEN)) { kfree_skb(skb); goto out; } skb->tc_verd = 0; ncls: #endif ...... } static int ing_filter(struct sk_buff *skb) { struct Qdisc *q; struct net_device *dev = skb->dev; int result = TC_ACT_OK; // 如果网卡设备有输入流控处理 if (dev->qdisc_ingress) { __u32 ttl = (__u32) G_TC_RTTL(skb->tc_verd); if (MAX_RED_LOOP < ttl++) { printk(KERN_WARNING "Redir loop detected Dropping packet (%s->% s)\n", skb->input_dev->name, skb->dev->name); return TC_ACT_SHOT; } // 设置数据包的TC参数 skb->tc_verd = SET_TC_RTTL(skb->tc_verd,ttl); skb->tc_verd = SET_TC_AT(skb->tc_verd,AT_INGRESS); spin_lock(&dev->ingress_lock); if ((q = dev->qdisc_ingress) != NULL) // 数据入队 result = q->enqueue(skb, q); spin_unlock(&dev->ingress_lock); } return result; } 2.2 初始化 本节先跟踪一下网卡设备的qdisc指针是如何被赋值的, 缺省赋值为何值. 在网卡设备的初始化函数register_netdevice()函数中调用dev_init_scheduler()函数对网卡设备的 流控队列处理进行了初始化, 也就是说每个网络网卡设备的qdisc指针都不会是空的: /* net/sched/sch_gentric.c */ void dev_init_scheduler(struct net_device *dev) { qdisc_lock_tree(dev); // 处理发出数据的qdisc是必须的,而处理输入数据的qdisc_ingress则不是必须的 // 缺省情况下的qdisc dev->qdisc = &noop_qdisc; dev->qdisc_sleeping = &noop_qdisc; INIT_LIST_HEAD(&dev->qdisc_list); qdisc_unlock_tree(dev); dev_watchdog_init(dev); } 当然noop_qdisc中的调度是不可用的, 只进行丢包处理;网卡在激活(dev_open)时会调用 dev_activate()函数重新对qdisc指针赋值,但未对qdisc_ingress赋值: /* net/sched/sch_generic.c */ void dev_activate(struct net_device *dev) { /* No queueing discipline is attached to device; create default one i.e. pfifo_fast for devices, which need queueing and noqueue_qdisc for virtual interfaces */ // 如果当前的qdisc_sleeping是noop_qdisc,重新找一个流控操作指针 if (dev->qdisc_sleeping == &noop_qdisc) { struct Qdisc *qdisc; // 前提条件是发送队列长度非0, 这正常情况肯定满足的 if (dev->tx_queue_len) { // 对dev设备建立fifo处理, 只是缺省的网卡发送策略: FIFO, 先入先出 qdisc = qdisc_create_dflt(dev, &pfifo_fast_ops); if (qdisc == NULL) { printk(KERN_INFO "%s: activation failed\n", dev->name); return; } write_lock(&qdisc_tree_lock); list_add_tail(&qdisc->list, &dev->qdisc_list); write_unlock(&qdisc_tree_lock); } else { qdisc = &noqueue_qdisc; } write_lock(&qdisc_tree_lock); // 对qdisc_sleeping赋值 dev->qdisc_sleeping = qdisc; write_unlock(&qdisc_tree_lock); } // 如果现在网线没插, 返回 if (!netif_carrier_ok(dev)) /* Delay activation until next carrier-on event */ return; spin_lock_bh(&dev->queue_lock); // 将网卡当前的qdisc赋值为qdisc_sleeping所指的qdisc rcu_assign_pointer(dev->qdisc, dev->qdisc_sleeping); if (dev->qdisc != &noqueue_qdisc) { // 启动 dev->trans_start = jiffies; dev_watchdog_up(dev); } spin_unlock_bh(&dev->queue_lock); } qdisc_sleeping用于保存在网卡起效时使用的qdisc, 因为在网卡down或网线拔除不可用时, 网卡设 备的qdisc指针会指向noqueue_qdisc, 该qdisc操作就只是丢包, 这就是为什么在没插网线情况下也 可以调用发包函数处理的原因, 结果就是直接丢包。 /* net/sched/sch_generic.c */ void dev_deactivate(struct net_device *dev) { struct Qdisc *qdisc; spin_lock_bh(&dev->queue_lock); qdisc = dev->qdisc; // 将网卡当前qdisc设置为noop_qdisc dev->qdisc = &noop_qdisc; // 释放原来的qdisc qdisc_reset(qdisc); spin_unlock_bh(&dev->queue_lock); dev_watchdog_down(dev); /* Wait for outstanding dev_queue_xmit calls. */ synchronize_rcu(); /* Wait for outstanding qdisc_run calls. */ while (test_bit(__LINK_STATE_QDISC_RUNNING, &dev->state)) yield(); if (dev->gso_skb) { kfree_skb(dev->gso_skb); dev->gso_skb = NULL; } } 3. 数据结构 流控处理对外表现是一个黑盒,外部只能看到数据入队和出队,但内部队列是如何操作和管理外面是 不知道的;另外处理队列处理外,流控还有一个调度器,该调度器将数据进行分类,然后对不同类型 的数据采取不同的流控处理,所分的类型可能是多级的,形成一个树型的分类树。 流控的基本数据结构是struct Qdisc(queueing discipline,直译是“排队纪律”,意译为“流控” ),这是内核中为数不多的以大写字母开头结构名称之一: /* include/net/sch_generic.h */ struct Qdisc { // 入队操作 int (*enqueue)(struct sk_buff *skb, struct Qdisc *dev); // 出队操作 struct sk_buff * (*dequeue)(struct Qdisc *dev); // 标志 unsigned flags; #define TCQ_F_BUILTIN 1 #define TCQ_F_THROTTLED 2 #define TCQ_F_INGRESS 4 int padded; // Qdisc的基本操作结构 struct Qdisc_ops *ops; // 句柄 u32 handle; u32 parent; atomic_t refcnt; // 数据包链表头 struct sk_buff_head q; // 网卡设备 struct net_device *dev; struct list_head list; // 统计信息 struct gnet_stats_basic bstats; struct gnet_stats_queue qstats; // 速率估计 struct gnet_stats_rate_est rate_est; // 流控锁 spinlock_t *stats_lock; struct rcu_head q_rcu; int (*reshape_fail)(struct sk_buff *skb, struct Qdisc *q); /* This field is deprecated, but it is still used by CBQ * and it will live until better solution will be invented. */ // 父节点, 但基本已经被淘汰了 struct Qdisc *__parent; }; 流控队列的基本操作结构: struct Qdisc_ops { // 链表中的下一个 struct Qdisc_ops *next; // 类别操作结构 struct Qdisc_class_ops *cl_ops; // Qdisc的名称, 从数组大小看应该就是网卡名称 char id[IFNAMSIZ]; // 私有数据大小 int priv_size; // 入队 int (*enqueue)(struct sk_buff *, struct Qdisc *); // 出队 struct sk_buff * (*dequeue)(struct Qdisc *); // 将数据包重新排队 int (*requeue)(struct sk_buff *, struct Qdisc *); // 丢弃 unsigned int (*drop)(struct Qdisc *); // 初始化 int (*init)(struct Qdisc *, struct rtattr *arg); // 复位为初始状态,释放缓冲,删除定时器,清空计数器 void (*reset)(struct Qdisc *); // 释放 void (*destroy)(struct Qdisc *); // 更改Qdisc参数 int (*change)(struct Qdisc *, struct rtattr *arg); // 输出 int (*dump)(struct Qdisc *, struct sk_buff *); int (*dump_stats)(struct Qdisc *, struct gnet_dump *); struct module *owner; }; 流控队列类别操作结构: struct Qdisc_class_ops { /* Child qdisc manipulation */ // 减子节点 int (*graft)(struct Qdisc *, unsigned long cl, struct Qdisc *, struct Qdisc **); // 增加子节点 struct Qdisc * (*leaf)(struct Qdisc *, unsigned long cl); /* Class manipulation routines */ // 获取, 增加使用计数 unsigned long (*get)(struct Qdisc *, u32 classid); // 释放, 减少使用计数 void (*put)(struct Qdisc *, unsigned long); // 改变 int (*change)(struct Qdisc *, u32, u32, struct rtattr **, unsigned long *); // 删除 int (*delete)(struct Qdisc *, unsigned long); // 遍历 void (*walk)(struct Qdisc *, struct qdisc_walker * arg); /* Filter manipulation */ struct tcf_proto ** (*tcf_chain)(struct Qdisc *, unsigned long); // tc捆绑 unsigned long (*bind_tcf)(struct Qdisc *, unsigned long, u32 classid); // tc解除 void (*unbind_tcf)(struct Qdisc *, unsigned long); /* rtnetlink specific */ // 输出 int (*dump)(struct Qdisc *, unsigned long, struct sk_buff *skb, struct tcmsg*); int (*dump_stats)(struct Qdisc *, unsigned long, struct gnet_dump *); }; // 流控速率控制表结构 struct qdisc_rate_table { struct tc_ratespec rate; u32 data[256]; struct qdisc_rate_table *next; int refcnt; }; 4. 基本操作 各种流控算法是通过流控操作结构实现,然后这些操作结构登记到内核的流控链表,在使用时可为网 卡构造新的流控结构,将该结构和某种流控操作结构挂钩,这样就实现网卡采用某种策略发送数据进 行流控,所有操作在用户空间都可通过tc程序设置。 4.1 Qdisc的一些基本操作 4.1.1 分配新的流控结构 /* net/sched/sch_generic.c */ // 分配新的Qdisc结构, Qdisc的操作结构由函数参数指定 struct Qdisc *qdisc_alloc(struct net_device *dev, struct Qdisc_ops *ops) { void *p; struct Qdisc *sch; unsigned int size; int err = -ENOBUFS; /* ensure that the Qdisc and the private data are 32-byte aligned */ // Qdisc空间按32字节对齐 size = QDISC_ALIGN(sizeof(*sch)); // 增加私有数据空间 size += ops->priv_size + (QDISC_ALIGNTO - 1); p = kzalloc(size, GFP_KERNEL); if (!p) goto errout; // 确保从缓冲区中的sch到缓冲区结束点空间是32字节对齐的 sch = (struct Qdisc *) QDISC_ALIGN((unsigned long) p); // 填充字节的数量 sch->padded = (char *) sch - (char *) p; // +------------------------------------+ // |________|___________________________| // ^ ^ ^ // | pad | <------ 32*N ------------>| // p sch // 初始化链表, 将用于挂接到dev的Qdisc链表 INIT_LIST_HEAD(&sch->list); // 初始化数据包链表 skb_queue_head_init(&sch->q); // Qdisc结构参数 sch->ops = ops; sch->enqueue = ops->enqueue; sch->dequeue = ops->dequeue; sch->dev = dev; // 网卡使用计数增加 dev_hold(dev); sch->stats_lock = &dev->queue_lock; atomic_set(&sch->refcnt, 1); return sch; errout: return ERR_PTR(-err); } struct Qdisc * qdisc_create_dflt(struct net_device *dev, struct Qdisc_ops *ops) { struct Qdisc *sch; // 分配Qdisc结构 sch = qdisc_alloc(dev, ops); if (IS_ERR(sch)) goto errout; // 如果没有初始化函数或者初始化成功, 返回Qdisc结构 if (!ops->init || ops->init(sch, NULL) == 0) return sch; // 初始化失败, 释放Qdisc qdisc_destroy(sch); errout: return NULL; } /* Under dev->queue_lock and BH! */ // 调用Qdisc操作函数中的reset函数 void qdisc_reset(struct Qdisc *qdisc) { struct Qdisc_ops *ops = qdisc->ops; if (ops->reset) ops->reset(qdisc); } /* this is the rcu callback function to clean up a qdisc when there * are no further references to it */ // 真正释放Qdisc缓冲区 static void __qdisc_destroy(struct rcu_head *head) { struct Qdisc *qdisc = container_of(head, struct Qdisc, q_rcu); // qdisc-padded就是缓冲区头的位置 kfree((char *) qdisc - qdisc->padded); } /* Under dev->queue_lock and BH! */ // 释放Qdisc void qdisc_destroy(struct Qdisc *qdisc) { struct Qdisc_ops *ops = qdisc->ops; // 检查Qdisc的使用计数 if (qdisc->flags & TCQ_F_BUILTIN || !atomic_dec_and_test(&qdisc->refcnt)) return; // 将Qdisc从网卡设备的Qdisc链表中断开 list_del(&qdisc->list); #ifdef CONFIG_NET_ESTIMATOR gen_kill_estimator(&qdisc->bstats, &qdisc->rate_est); #endif // 复位操作 if (ops->reset) ops->reset(qdisc); // 内部释放操作 if (ops->destroy) ops->destroy(qdisc); // 减少操作结构的模块计数 module_put(ops->owner); // 减少网卡使用计数 dev_put(qdisc->dev); // 对每个CPU的数据进行具体空间释放 call_rcu(&qdisc->q_rcu, __qdisc_destroy); } /* include/net/sch_generic.h */ // 将skb包添加到数据队列最后 static inline int __qdisc_enqueue_tail(struct sk_buff *skb, struct Qdisc *sch, struct sk_buff_head *list) { // 将数据包连接到数据包链表尾 __skb_queue_tail(list, skb); // 更新统计信息 // 当前队列中数据包的数据长度增加 sch->qstats.backlog += skb->len; // Qdisc处理的数据包数字节数增加 sch->bstats.bytes += skb->len; sch->bstats.packets++; return NET_XMIT_SUCCESS; } static inline int qdisc_enqueue_tail(struct sk_buff *skb, struct Qdisc *sch) { return __qdisc_enqueue_tail(skb, sch, &sch->q); } // 将队列头的数据包出队列 static inline struct sk_buff *__qdisc_dequeue_head(struct Qdisc *sch, struct sk_buff_head *list) { // 从skb链表中头skb包出队列 struct sk_buff *skb = __skb_dequeue(list); // 减少当前数据队列数据长度计数 if (likely(skb != NULL)) sch->qstats.backlog -= skb->len; return skb; } static inline struct sk_buff *qdisc_dequeue_head(struct Qdisc *sch) { return __qdisc_dequeue_head(sch, &sch->q); } // 将队列尾的数据包出队列 static inline struct sk_buff *__qdisc_dequeue_tail(struct Qdisc *sch, struct sk_buff_head *list) { // 从链表为提出数据包 struct sk_buff *skb = __skb_dequeue_tail(list); if (likely(skb != NULL)) sch->qstats.backlog -= skb->len; return skb; } static inline struct sk_buff *qdisc_dequeue_tail(struct Qdisc *sch) { return __qdisc_dequeue_tail(sch, &sch->q); } // 将数据包重新入队 static inline int __qdisc_requeue(struct sk_buff *skb, struct Qdisc *sch, struct sk_buff_head *list) { // 添加到队列头 __skb_queue_head(list, skb); // 增加队列数据长度计数, 但不增加Qdisc处理的数据包数字节数 sch->qstats.backlog += skb->len; sch->qstats.requeues++; return NET_XMIT_SUCCESS; } static inline int qdisc_requeue(struct sk_buff *skb, struct Qdisc *sch) { return __qdisc_requeue(skb, sch, &sch->q); } // 复位Qdisc队列 static inline void __qdisc_reset_queue(struct Qdisc *sch, struct sk_buff_head *list) { /* * We do not know the backlog in bytes of this list, it * is up to the caller to correct it */ // 释放Qdisc当前数据包队列中的所有数据包 skb_queue_purge(list); } static inline void qdisc_reset_queue(struct Qdisc *sch) { __qdisc_reset_queue(sch, &sch->q); sch->qstats.backlog = 0; } // 丢弃Qdisc数据队列尾的数据包 static inline unsigned int __qdisc_queue_drop(struct Qdisc *sch, struct sk_buff_head *list) { // 取队列尾数据包 struct sk_buff *skb = __qdisc_dequeue_tail(sch, list); if (likely(skb != NULL)) { // 释放该数据包 unsigned int len = skb->len; kfree_skb(skb); return len; } return 0; } static inline unsigned int qdisc_queue_drop(struct Qdisc *sch) { return __qdisc_queue_drop(sch, &sch->q); } // 丢弃数据包 static inline int qdisc_drop(struct sk_buff *skb, struct Qdisc *sch) { // 释放数据包 kfree_skb(skb); // 丢包计数增加 sch->qstats.drops++; return NET_XMIT_DROP; } // 整形失败丢包 static inline int qdisc_reshape_fail(struct sk_buff *skb, struct Qdisc *sch) { sch->qstats.drops++; #ifdef CONFIG_NET_CLS_POLICE if (sch->reshape_fail == NULL || sch->reshape_fail(skb, sch)) goto drop; return NET_XMIT_SUCCESS; drop: #endif kfree_skb(skb); return NET_XMIT_DROP; } /* net/sched/sch_api.c */ /* We know handle. Find qdisc among all qdisc's attached to device (root qdisc, all its children, children of children etc.) */ // 根据句柄查找Qdisc, 句柄是个32位整数用于标识Qdisc的 struct Qdisc *qdisc_lookup(struct net_device *dev, u32 handle) { struct Qdisc *q; read_lock(&qdisc_tree_lock); // 遍历dev设备Qdisc链表 list_for_each_entry(q, &dev->qdisc_list, list) { // 句柄相同,返回Qdisc if (q->handle == handle) { read_unlock(&qdisc_tree_lock); return q; } } read_unlock(&qdisc_tree_lock); return NULL; } // 返回指定类别的Qdisc叶节点 static struct Qdisc *qdisc_leaf(struct Qdisc *p, u32 classid) { unsigned long cl; struct Qdisc *leaf; // Qdisc类别操作 struct Qdisc_class_ops *cops = p->ops->cl_ops; if (cops == NULL) return NULL; // 获取指定classid类型的类别句柄 cl = cops->get(p, classid); if (cl == 0) return NULL; // 调用类别操作结构的left成员函数获取叶Qdisc节点 leaf = cops->leaf(p, cl); cops->put(p, cl); return leaf; } /* Graft qdisc "new" to class "classid" of qdisc "parent" or to device "dev". Old qdisc is not destroyed but returned in *old. */ // "嫁接"Qdisc, 将新的Qdisc节点添加到父节点作为叶节点 static int qdisc_graft(struct net_device *dev, struct Qdisc *parent, u32 classid, struct Qdisc *new, struct Qdisc **old) { int err = 0; struct Qdisc *q = *old; if (parent == NULL) { // 父qdisc节点为空, 将新节点作为dev的基本qdisc, 返回dev原来的老的qdisc if (q && q->flags&TCQ_F_INGRESS) { *old = dev_graft_qdisc(dev, q); } else { *old = dev_graft_qdisc(dev, new); } } else { // 父qdisc非空情况 // 将使用Qdisc类操作结构中的相关成员函数来完成操作 struct Qdisc_class_ops *cops = parent->ops->cl_ops; err = -EINVAL; if (cops) { // 获取类别句柄值 unsigned long cl = cops->get(parent, classid); if (cl) { // 类别有效, 调用graft成员函数将新节点插入qdisc树中 err = cops->graft(parent, cl, new, old); if (new) new->parent = classid; cops->put(parent, cl); } } } return err; } /* Attach toplevel qdisc to device dev */ // 将qdisc作为顶层Qdisc节点附着于dev设备 static struct Qdisc * dev_graft_qdisc(struct net_device *dev, struct Qdisc *qdisc) { struct Qdisc *oqdisc; // 如果网卡设备是启动的, 先停掉 if (dev->flags & IFF_UP) dev_deactivate(dev); // 加树锁 qdisc_lock_tree(dev); // 是处理输入的流控节点 if (qdisc && qdisc->flags&TCQ_F_INGRESS) { oqdisc = dev->qdisc_ingress; /* Prune old scheduler */ if (oqdisc && atomic_read(&oqdisc->refcnt) <= 1) { /* delete */ qdisc_reset(oqdisc); dev->qdisc_ingress = NULL; } else { /* new */ dev->qdisc_ingress = qdisc; } } else { // 是处理输入的流控节点 // 备份一下原来的流控Qdisc指针 oqdisc = dev->qdisc_sleeping; /* Prune old scheduler */ // 如果老的Qdisc引用数不超过一个, 也就是最多只被当前设备dev所使用, 复位该Qdisc if (oqdisc && atomic_read(&oqdisc->refcnt) <= 1) qdisc_reset(oqdisc); /* ... and graft new one */ // 如果新qdisc是空的,用noop_qdisc if (qdisc == NULL) qdisc = &noop_qdisc; // 将睡眠qdisc(dev启动时将使用的qdisc)赋值为新的qdisc dev->qdisc_sleeping = qdisc; dev->qdisc = &noop_qdisc; } qdisc_unlock_tree(dev); // 激活网卡 if (dev->flags & IFF_UP) dev_activate(dev); // 返回dev设备的老的qdisc return oqdisc; } /* Allocate and initialize new qdisc. Parameters are passed via opt. */ // 在指定的网卡设备上创建新的Qdisc结构 static struct Qdisc * qdisc_create(struct net_device *dev, u32 handle, struct rtattr **tca, int *errp) { int err; struct rtattr *kind = tca[TCA_KIND-1]; struct Qdisc *sch; struct Qdisc_ops *ops; // 查找相关的Qdisc操作结构 ops = qdisc_lookup_ops(kind); #ifdef CONFIG_KMOD // 如果没在当前内核中找到,加载相关名称的Qdisc操作内核模块 if (ops == NULL && kind != NULL) { char name[IFNAMSIZ]; if (rtattr_strlcpy(name, kind, IFNAMSIZ) < IFNAMSIZ) { /* We dropped the RTNL semaphore in order to * perform the module load. So, even if we * succeeded in loading the module we have to * tell the caller to replay the request. We * indicate this using -EAGAIN. * We replay the request because the device may * go away in the mean time. */ rtnl_unlock(); // 加载模块 request_module("sch_%s", name); rtnl_lock(); // 重新查找 ops = qdisc_lookup_ops(kind); // 如果找到还是会返回失败,不过错误号是EAGAIN,要求重新执行相关操作 if (ops != NULL) { /* We will try again qdisc_lookup_ops, * so don't keep a reference. */ module_put(ops->owner); err = -EAGAIN; goto err_out; } } } #endif err = -ENOENT; if (ops == NULL) goto err_out; // 分配新的Qdisc结构 sch = qdisc_alloc(dev, ops); if (IS_ERR(sch)) { err = PTR_ERR(sch); goto err_out2; } if (handle == TC_H_INGRESS) { // 是针对输入进行流控 sch->flags |= TCQ_F_INGRESS; handle = TC_H_MAKE(TC_H_INGRESS, 0); } else if (handle == 0) { // 分配个新的句柄 handle = qdisc_alloc_handle(dev); err = -ENOMEM; if (handle == 0) goto err_out3; } sch->handle = handle; // 调用Qdisc操作结构的初始化函数进行初始化 if (!ops->init || (err = ops->init(sch, tca[TCA_OPTIONS-1])) == 0) { #ifdef CONFIG_NET_ESTIMATOR if (tca[TCA_RATE-1]) { // 创建预估器 err = gen_new_estimator(&sch->bstats, &sch->rate_est, sch->stats_lock, tca[TCA_RATE-1]); if (err) { /* * Any broken qdiscs that would require * a ops->reset() here? The qdisc was never * in action so it shouldn't be necessary. */ if (ops->destroy) ops->destroy(sch); goto err_out3; } } #endif qdisc_lock_tree(dev); // 将Qdisc结构添加到网卡设备的流控链表 list_add_tail(&sch->list, &dev->qdisc_list); qdisc_unlock_tree(dev); return sch; } err_out3: dev_put(dev); kfree((char *) sch - sch->padded); err_out2: module_put(ops->owner); err_out: *errp = err; return NULL; } /* Allocate an unique handle from space managed by kernel */ // 分配新句柄 static u32 qdisc_alloc_handle(struct net_device *dev) { // 最多循环65536次查找 int i = 0x10000; // 注意这是个静态量 static u32 autohandle = TC_H_MAKE(0x80000000U, 0); do { // 每次为句柄值增加一个增量 autohandle += TC_H_MAKE(0x10000U, 0); // 溢出处理 if (autohandle == TC_H_MAKE(TC_H_ROOT, 0)) autohandle = TC_H_MAKE(0x80000000U, 0); // qdisc_lookup是根据句柄查找Qdisc结构,成功返回Qdisc结构指针, 失败返回NULL } while (qdisc_lookup(dev, autohandle) && --i > 0); return i>0 ? autohandle : 0; } // 修改Qdisc参数 static int qdisc_change(struct Qdisc *sch, struct rtattr **tca) { if (tca[TCA_OPTIONS-1]) { int err; if (sch->ops->change == NULL) return -EINVAL; // 调用Qdisc操作结构的change函数完成修改参数工作 err = sch->ops->change(sch, tca[TCA_OPTIONS-1]); if (err) return err; } #ifdef CONFIG_NET_ESTIMATOR if (tca[TCA_RATE-1]) gen_replace_estimator(&sch->bstats, &sch->rate_est, sch->stats_lock, tca[TCA_RATE-1]); #endif return 0; } 4.2 Qdisc操作结构的一些基本操作 /* net/sched/sch_api.c */ // 登记Qdisc操作结构, 每种排队算法都是通过Qdisc操作结构实现的 int register_qdisc(struct Qdisc_ops *qops) { struct Qdisc_ops *q, **qp; int rc = -EEXIST; write_lock(&qdisc_mod_lock); // qdisc_base是全局变量, 系统的Qdisc操作结构链表头 // 遍历Qdisc操作链表 for (qp = &qdisc_base; (q = *qp) != NULL; qp = &q->next) // 如果ID相同, 返回已经存在错误 if (!strcmp(qops->id, q->id)) goto out; // 如果操作结构中没有定义入队,出队和重入队操作的话, 用系统缺省的 if (qops->enqueue == NULL) qops->enqueue = noop_qdisc_ops.enqueue; if (qops->requeue == NULL) qops->requeue = noop_qdisc_ops.requeue; if (qops->dequeue == NULL) qops->dequeue = noop_qdisc_ops.dequeue; // 将结构节点添加到链表, 注意这里没使用内核里最常见的list链表操作 // 这是个单向链表 qops->next = NULL; *qp = qops; rc = 0; out: write_unlock(&qdisc_mod_lock); return rc; } // 拆除Qdisc操作结构 int unregister_qdisc(struct Qdisc_ops *qops) { struct Qdisc_ops *q, **qp; int err = -ENOENT; write_lock(&qdisc_mod_lock); // 由于没有用list, 必须遍历链表找到节点在链表中的位置 for (qp = &qdisc_base; (q=*qp)!=NULL; qp = &q->next) if (q == qops) break; if (q) { // 将结构节点从链表中断开 *qp = q->next; q->next = NULL; err = 0; } write_unlock(&qdisc_mod_lock); return err; } /* Find queueing discipline by name */ // 根据名称查找;流控操作结构 static struct Qdisc_ops *qdisc_lookup_ops(struct rtattr *kind) { struct Qdisc_ops *q = NULL; if (kind) { read_lock(&qdisc_mod_lock); // 遍历Qdisc操作链表 for (q = qdisc_base; q; q = q->next) { // 比较ID if (rtattr_strcmp(kind, q->id) == 0) { // 增加Qdisc操作模块的计数 if (!try_module_get(q->owner)) q = NULL; break; } } read_unlock(&qdisc_mod_lock); } return q; } ...... 待续 ...... 发表于: 2007-07-21,修改于: 2007-07-28 21:28,已浏览6589次,有评论23条 推荐 投诉 网友: 本站网友 时间:2007-08-16 11:02:10 IP地址:222.68.182.★ qdisc_sleeping用于保存在网卡起效时使用的qdisc, 因为在网卡down或网线拔除不可用时, 网卡设备的qdisc指针会指向noqueue_qdisc, 该qdisc操作就只是丢包, 这就是为什么在没插网线情况下也可以调用发包函数处理的原因, 结果就是直接丢包。 noqueue_qdisc应该是noop_qdisc吧?我的msn:rtsovip@yahoo.com.cn 网友: 本站网友 时间:2007-08-16 11:02:47 IP地址:222.68.182.★ 我的msn:rtosvip@yahoo.com.cn 网友: yfydz 时间:2007-08-16 15:23:47 IP地址:218.247.216.★ noqueue_qdisc和noop_qdisc不完全相同, noqueue_qdisc没有定义enqueue成员函数 网友: 本站网友 时间:2007-11-21 10:36:44 IP地址:202.198.16.★ "输入流控好象不是必须的,目前内核需要配置CONFIG_NET_CLS_ACT选项才起作用" 想请教一下,想加载新的输入流控算法,比如说“RED”算法。我该在dev.c中的哪个函数里加载呢?不是很精通,请多多批评。 网友: yfydz 时间:2007-11-21 12:43:07 IP地址:218.247.216.★ 不加在dev.c的,登记到sched系统就行,就可通过tc命令设置网卡所用的流控算法,如果名称是非标准的,可能需要改一下tc命令 网友: 本站网友 时间:2007-11-25 00:22:45 IP地址:59.72.63.★ 可不可以详细介绍一下如何登记sched系统,及用tc命令设置网卡所用的流控算法RED 网友: yfydz 时间:2007-11-25 18:43:07 IP地址:123.118.7.★ 整个系列里都有算法介绍,自己依葫芦画一下就行,至于tc,就自己看看吧,那个更简单 网友: 本站网友 时间:2007-11-28 11:28:35 IP地址:202.198.16.★ 斑竹,你好.我想在linux\net\sched中添加一个新的QOS策略(非LINUX自带的),我该怎么做,大致步骤是怎样的?是不是需要重新编译内核,本人初识linux,理解能力较差,望斑竹能够耐心的写一下整个操作的详细过程. 网友: yfydz 时间:2007-11-29 08:46:56 IP地址:218.247.216.★ 写个qdisc_ops,编译成模块挂到内核,修改tc... 不过既然是初识,别指望一口吃成个胖子,先看过APUE,LDD,ULK...以后再说 网友: 本站网友 时间:2008-03-22 12:08:34 IP地址:202.198.16.★ 斑竹你好,想把red算法的平均队列,瞬时队列,以及时间作为日志输出到一文件中,却不知怎么下手,请指点.... 网友: yfydz 时间:2008-03-25 14:48:00 IP地址:218.247.216.★ 带个关键字printk,从日志文件中搜索该关键字 网友: 本站网友 时间:2008-04-12 19:53:14 IP地址:202.198.16.★ 谢谢斑竹的回答,我现在已按照斑竹的意思添加了printk函数,但是在messages和dmesg中没有找到我所需要的平均队列,瞬时队列的值,请斑竹提醒下我该在red.c文件的什么位置分别添加什么命令才能分别输出瞬时队列,平均队列及时间(精确到微妙)到日志文件中,现在急切需要帮助,不胜感激。。。 网友: 本站网友 时间:2008-04-12 19:53:14 IP地址:202.198.16.★ 谢谢斑竹的回答,我现在已按照斑竹的意思添加了printk函数,但是在messages和dmesg中没有找到我所需要的平均队列,瞬时队列的值,请斑竹提醒下我该在red.c文件的什么位置分别添加什么命令才能分别输出瞬时队列,平均队列及时间(精确到微妙)到日志文件中,现在急切需要帮助,不胜感激。。。 网友: yfydz 时间:2008-04-13 16:44:46 IP地址:58.31.243.★ 每隔一行有效代码加一个printk... 网友: 本站网友 时间:2008-04-14 00:58:51 IP地址:202.98.13.★ 我在linux源代码linux/net/sched/sch_red.c中有关瞬时队列,平均队列部分添加了printk也不知道位置正不正确(KERN_EMERG "MYLOG:%lu");(参数不知道该怎样添加,好象是个指针,不怎么懂,所以暂时没有添加参数)编译也成功了, 但是我没有在var/log/messages 下找到含有mlog(MYLOG)的信息呀?dmesg也没找到,有没有可能输出到其它地方去呢啊,是不是我的printk函数有语法错误啊,或则缺少头文件啊 ,还望斑竹指点,多谢 网友: 本站网友 时间:2008-04-14 00:58:57 IP地址:202.98.13.★ 我在linux源代码linux/net/sched/sch_red.c中有关瞬时队列,平均队列部分添加了printk也不知道位置正不正确(KERN_EMERG "MYLOG:%lu");(参数不知道该怎样添加,好象是个指针,不怎么懂,所以暂时没有添加参数)编译也成功了, 但是我没有在var/log/messages 下找到含有mlog(MYLOG)的信息呀?dmesg也没找到,有没有可能输出到其它地方去呢啊,是不是我的printk函数有语法错误啊,或则缺少头文件啊 ,还望斑竹指点,多谢 网友: yfydz 时间:2008-04-21 21:09:02 IP地址:58.31.248.★ 如果执行了就应该有的,没有就是没执行到那 网友: 本站网友 时间:2008-04-23 21:31:08 IP地址:202.198.16.★ 谢谢斑竹指教 我 在red.c里面添加了printk("hello world!\n")已经输出出来拉,但是不知道在red.c程序什么位置以什么样的格式添加printk语句才能输出平均队列,瞬时队列和时间等参数的数值。。 还望斑竹指点 网友: 本站网友 时间:2008-04-23 21:31:10 IP地址:202.198.16.★ 谢谢斑竹指教 我 在red.c里面添加了printk("hello world!\n")已经输出出来拉,但是不知道在red.c程序什么位置以什么样的格式添加printk语句才能输出平均队列,瞬时队列和时间等参数的数值。。 还望斑竹指点 网友: 本站网友 时间:2008-07-15 13:10:16 IP地址:219.239.50.★ 请问斑竹, TC支持带宽保证么。 如果支持有相关文档推荐一下。谢谢了。 网友: yfydz 时间:2008-07-16 18:43:56 IP地址:58.31.248.★ google 网友: 本站网友 时间:2009-02-07 16:56:37 IP地址:58.20.78.★ 你好: 我现在向做一个全局限速的控制,不知道怎么反方向!请指点一下!谢谢 网友: 本站网友 时间:2010-01-26 16:55:36 IP地址:221.214.7.★ 端木朋友: 你好,博客上拜读过你的一些文章,感觉很有收获。现在我想做一个用户态下的程序来实现一个简单的流控功能,不知道如何实现。我看过你的在内核中实现流控的文章。能给指点下思路吗?
发表评论
-
Linux内核中流量控制(24)
2011-01-10 16:33 2245本文档的Copyleft归yfydz所 ... -
Linux内核中流量控制(23)
2011-01-10 16:30 1531本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(22)
2011-01-10 16:29 1980本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(21)
2011-01-10 16:28 1401本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(20)
2011-01-10 16:27 1567本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(19)
2011-01-10 16:27 2021本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(18)
2011-01-10 16:26 1615Linux内核中流量控制(18) ... -
Linux内核中流量控制(17)
2011-01-10 16:25 1990本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(16)
2011-01-10 16:25 1848本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(15)
2011-01-10 16:24 1979本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(14)
2011-01-10 16:23 2001本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(13)
2011-01-10 16:22 2686本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(12)
2011-01-10 16:21 2165本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(11)
2011-01-10 16:21 3288本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(10)
2011-01-10 16:20 2040本文档的Copyleft归yfydz所 ... -
Linux内核中流量控制(9)
2011-01-10 16:19 1875本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(8)
2011-01-10 16:18 1543本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(7)
2011-01-10 16:18 2973本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(6)
2011-01-10 16:17 1538本文档的Copyleft归yfydz所有,使用GPL发布,可以 ... -
Linux内核中流量控制(5)
2011-01-10 16:16 1767本文档的Copyleft归yfydz所有,使用GPL发布,可以 ...
相关推荐
在Linux内核中,TCP和UDP模块处理连接建立、数据传输、流量控制和拥塞控制等问题。 5. **应用层**:这一层包含各种应用协议,如HTTP、FTP、SMTP等,它们直接与用户交互。Linux内核通过socket API为上层应用提供了与...
【基于Linux内核的BT流量控制的原理与实现】 Linux操作系统以其开源、可定制的特点,在系统开发领域广泛应用,尤其在网络流量控制方面具有显著优势。针对BitTorrent(BT)这种大量占用带宽的P2P协议,Linux内核提供...
4. **网络堆栈**:从硬件接口到应用层协议的整个网络传输流程,如TCP/IP协议族、套接字API、网络设备驱动程序以及流量控制策略。 5. **设备驱动**:内核如何与硬件交互,驱动程序的工作原理,包括字符设备、块设备...
通过分析源码,我们可以了解到数据包的接收与发送过程,理解TCP连接的建立与断开、拥塞控制、流量控制等机制,这对于网络编程和网络故障排查非常有帮助。 此外,Linux内核还涉及中断处理、设备驱动、I/O管理等多个...
【基于Linux内核扩展模块的P2P流量控制】这篇文献主要探讨了如何在Linux操作系统中,通过内核扩展模块来实现对P2P流量的有效控制。P2P(Peer-to-Peer)技术的兴起改变了互联网的中心化结构,使得资源分享更为便捷,...
基于Linux内核扩展模块的P2P流量控制
基于LQL库的流量控制方法可以直接在Linux内核的框架下实现,而不需要使用传统方法中的TC命令解析、netlink传输和内核空间执行的三层结构。这可以提高流量控制的效率和可靠性,同时也可以减少流量控制的延迟和资源...
书中的内容涵盖了从内核基础到高级技术的方方面面,为那些希望提升Linux内核理解和开发能力的读者提供了宝贵的资源。在本文中,我们将探讨几个关键的知识点,包括Linux内核的基本结构、进程管理、内存管理和设备驱动...
2.6.24版本在网络方面加强了IPv6的支持,并改进了网络流量控制算法。 6. **安全与权限管理**:Linux内核采用了用户和组的概念,通过权限系统(如chmod、chown等)来控制文件访问。此外,还有SELinux(Security-...
接着,作者深入剖析了网络设备数据结构net_device,它包含了设备的配置信息、统计信息、状态标志以及各种管理列表和流量控制字段,这些细节揭示了网络设备如何在内核中被抽象和管理。 通过以上内容,我们可以看到,...
1. **进程管理**:Linux内核中的进程管理是操作系统的核心功能之一,涉及进程的创建、销毁、调度和同步等操作。它包括进程状态转换、上下文切换、信号量与互斥锁等概念,是理解和优化系统性能的关键。 2. **内存...
在Linux操作系统中,高级路由和流量控制是网络管理员和系统管理员必须掌握的关键技能。这篇文档“Linux高级路由和流量控制HOWTO中文版”由牛老师翻译,为读者提供了深入理解这些概念的宝贵资源。以下是对其中核心...
该模型内置于Linux内核中,并利用队列算法对不同服务质量(Quality of Service, QoS)需求的数据流进行分类,以提供灵活且差异化的服务。实验结果表明,采用该流量控制模型后,网络性能显著提高,并能很好地适应未来...
同时,还会讨论TCP的流量控制和拥塞控制机制,如滑动窗口、慢启动、快速重传和快速恢复算法等,这些都是保证网络通信质量和效率的关键。 其次,关于IP协议,书里会涉及IP地址、子网掩码、路由选择等概念,以及IP分...
TC 工具基于 Linux 内核的网络设备驱动程序,通过对网络设备的控制,来实现流量控制。TC 的工作原理可以分为以下三个阶段: 1. 流量控制方式:TC 提供了多种流量控制方式,包括 Token Bucket Filter(TBF)、...
TC(Linux 下流量控制工具)详细说明及应用实例 TC 是 Linux 下的一种流量控制工具,用于控制和管理网络流量。它提供了一个灵活的方式来管理网络带宽、延迟和丢包率等网络性能参数,以满足不同应用场景的需求。 TC...
1. **网络层次结构**:Linux内核协议栈遵循OSI七层模型(物理层、数据链路层、网络层、传输层、会话层、表示层、应用层)的简化版,主要关注网络层、数据链路层和传输层。这些层次分别处理不同层面的网络通信问题,...
Linux内核中的sock和socket数据结构是网络编程的核心组成部分,它们是实现网络通信的基础构件。在Linux操作系统中,网络通信的实现依赖于BSD套接字接口,而这一接口在内核中是通过sock和socket数据结构来实现的。 ...