`

Linux内核中流量控制(4)

阅读更多
本文档的Copyleft归yfydz所有,使用GPL发布,可以自由拷贝,转载,转载时请保持文档的完整性,
严禁用于任何商业用途。
msn: yfydz_no1@hotmail.com
来源:http://yfydz.cublog.cn
5.4 PRIO(priority)

PRIO是PFIFO_FAST算法的扩展,PFIFO_FAST中一共是3个队列, 而PRIO最多可设置16个带(band),每
个带都相当于是一个PFIFO_FAST, 因此可以进行更细粒度地分类然后进行排队, 在
net/sched/sch_prio.c中定义。

5.4.1 操作结构定义
// 最大带数
#define TCQ_PRIO_BANDS 16
// 最小带数
#define TCQ_MIN_PRIO_BANDS 2

// PRIO私有数据结构
struct prio_sched_data
{
// 有效带数, 不超过16
 int bands;
// 协议过滤器链表
 struct tcf_proto *filter_list;
// 优先权转带值的转换数组, 数组是16个元素
 u8  prio2band[TC_PRIO_MAX+1];
// 16个qdisc指针的数组
 struct Qdisc *queues[TCQ_PRIO_BANDS];
};

// PRIO流控算法操作结构
static struct Qdisc_ops prio_qdisc_ops = {
 .next  = NULL,
 .cl_ops  = &prio_class_ops,
 .id  = "prio",
 .priv_size = sizeof(struct prio_sched_data),
 .enqueue = prio_enqueue,
 .dequeue = prio_dequeue,
 .requeue = prio_requeue,
 .drop  = prio_drop,
 .init  = prio_init,
 .reset  = prio_reset,
 .destroy = prio_destroy,
 .change  = prio_tune,
 .dump  = prio_dump,
 .owner  = THIS_MODULE,
};
// PRIO类别操作结构
static struct Qdisc_class_ops prio_class_ops = {
 .graft  = prio_graft,
 .leaf  = prio_leaf,
 .get  = prio_get,
 .put  = prio_put,
 .change  = prio_change,
 .delete  = prio_delete,
 .walk  = prio_walk,
 .tcf_chain = prio_find_tcf,
 .bind_tcf = prio_bind,
 .unbind_tcf = prio_put,
 .dump  = prio_dump_class,
};

5.4.2 初始化

static int prio_init(struct Qdisc *sch, struct rtattr *opt)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
 int i;
// 16个Qdisc都初始化为noop_qdisc
 for (i=0; i<TCQ_PRIO_BANDS; i++)
  q->queues[i] = &noop_qdisc;
 if (opt == NULL) {
  return -EINVAL;
 } else {
  int err;
// 根据参数选项设置PRIO算法内部参数
  if ((err= prio_tune(sch, opt)) != 0)
   return err;
 }
 return 0;
}

// 算法参数调整, 同时也是prio_qdisc_ops结构的change成员函数
// 指定有多少个带, 每个带对应一个pfifo_fast的流控节点
static int prio_tune(struct Qdisc *sch, struct rtattr *opt)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
// TC的PRIO的参数, 包括带数和优先权值到带值的转换数组
 struct tc_prio_qopt *qopt = RTA_DATA(opt);
 int i;
// 长度检查
 if (opt->rta_len < RTA_LENGTH(sizeof(*qopt)))
  return -EINVAL;
// 带数为2~16个
 if (qopt->bands > TCQ_PRIO_BANDS || qopt->bands < 2)
  return -EINVAL;
// 检查转换数组中的值是否都不超过带数, 否则非法
 for (i=0; i<=TC_PRIO_MAX; i++) {
  if (qopt->priomap[i] >= qopt->bands)
   return -EINVAL;
 }
 sch_tree_lock(sch);
// 有效带数
 q->bands = qopt->bands;
// 映射数组: 优先权值 -> 带值
 memcpy(q->prio2band, qopt->priomap, TC_PRIO_MAX+1);
// 将大于等于带值的的Qdisc数组项都释放掉, 指向noop_qdisc
 for (i=q->bands; i<TCQ_PRIO_BANDS; i++) {
  struct Qdisc *child = xchg(&q->queues[i], &noop_qdisc);
  if (child != &noop_qdisc)
   qdisc_destroy(child);
 }
 sch_tree_unlock(sch);
// 设置有效的Qdisc数组, 数量为指定的带数
 for (i=0; i<q->bands; i++) {
// 为noop_qdisc表示该qdisc数组项可用
  if (q->queues[i] == &noop_qdisc) {
   struct Qdisc *child;
// 创建一个pfifo_fast的Qdisc
   child = qdisc_create_dflt(sch->dev, &pfifo_qdisc_ops);
   if (child) {
    sch_tree_lock(sch);
// 将生成的PFIFO_FAST的Qdisc赋给PRIO的Qdisc中的一个数组元素
    child = xchg(&q->queues[i], child);
// 这个判断应该是unlikely的, 结果应该是假
    if (child != &noop_qdisc)
     qdisc_destroy(child);
    sch_tree_unlock(sch);
   }
  }
 }
 return 0;
}

值得注意的是在初始化赋值函数中没有设置过滤器链表q->filter_list, 应该是后续执行单独命令进
行绑定的。
 
5.4.3 入队

static int
prio_enqueue(struct sk_buff *skb, struct Qdisc *sch)
{
 struct Qdisc *qdisc;
 int ret;
// 根据skb数据包的优先权值(priority)确定带值, 返回该带值对应的Qdisc
 qdisc = prio_classify(skb, sch, &ret);
#ifdef CONFIG_NET_CLS_ACT
 if (qdisc == NULL) {
// 该处的qdisc为空, 丢包
  if (ret == NET_XMIT_BYPASS)
   sch->qstats.drops++;
  kfree_skb(skb);
  return ret;
 }
#endif
// 调用该qdisc的入队函数, 正常就是pfifo_fast流控算法的入队函数
 if ((ret = qdisc->enqueue(skb, qdisc)) == NET_XMIT_SUCCESS) {
// 入队成功, 统计值更新
  sch->bstats.bytes += skb->len;
  sch->bstats.packets++;
  sch->q.qlen++;
  return NET_XMIT_SUCCESS;
 }
 sch->qstats.drops++;
 return ret;
}

// PRIO分类操作
static struct Qdisc *
prio_classify(struct sk_buff *skb, struct Qdisc *sch, int *qerr)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
// 带值初始化为数据包优先权值
 u32 band = skb->priority;
 struct tcf_result res;
// 缺省返回错误值: 旁路
 *qerr = NET_XMIT_BYPASS;
// 优先权的低16位清零后不等于Qdisc的句柄值的情况
 if (TC_H_MAJ(skb->priority) != sch->handle) {
#ifdef CONFIG_NET_CLS_ACT
// 该内核选项表示Qdisc可以对数据包进行最终动作,如发送, 丢弃等
// TC分类
  switch (tc_classify(skb, q->filter_list, &res)) {
// STOLEN或QUEUED都表示成功
  case TC_ACT_STOLEN:
  case TC_ACT_QUEUED:
   *qerr = NET_XMIT_SUCCESS;
  case TC_ACT_SHOT:
   return NULL;
  };
// 没有过滤表
  if (!q->filter_list ) {
#else
// 没有过滤表或者分类不成功
  if (!q->filter_list || tc_classify(skb, q->filter_list, &res)) {
#endif
// 如果带值高16位非0, 带值取为0
   if (TC_H_MAJ(band))
    band = 0;
// 用带值的最低4位作为转换数组的索引返回相应的Qdisc流控结构
   return q->queues[q->prio2band[band&TC_PRIO_MAX]];
  }
// 分类成功, 将返回的类别值赋值为带值
  band = res.classid;
 }
// 优先权的低16位清零后等于Qdisc的句柄值的情况
// 带值为取priority的低16位
 band = TC_H_MIN(band) - 1;
// 如果超过Qdisc中的有效带数, 取0号优先权对应的带值对应的Qdisc数组项
 if (band > q->bands)
  return q->queues[q->prio2band[0]];
// 取带值对应的Qdisc数组项
 return q->queues[band];
}

/* net/sched/sch_api.c */
/* Main classifier routine: scans classifier chain attached
   to this qdisc, (optionally) tests for protocol and asks
   specific classifiers.
 */
// TC分类, 返回0表示分类成功, 负数表示没有合适的类, 正数是各种重新操作方法
int tc_classify(struct sk_buff *skb, struct tcf_proto *tp,
 struct tcf_result *res)
{
 int err = 0;
// 数据包协议, 是以太头中的协议类型
 u32 protocol = skb->protocol;
#ifdef CONFIG_NET_CLS_ACT
 struct tcf_proto *otp = tp;
reclassify:
#endif
 protocol = skb->protocol;
// 循环tcf_proto链表
 for ( ; tp; tp = tp->next) {
  if ((tp->protocol == protocol ||
   tp->protocol == __constant_htons(ETH_P_ALL)) &&
// 调用tcf_proto的分类算法
   (err = tp->classify(skb, tp, res)) >= 0) {
// 协议符合的情况
#ifdef CONFIG_NET_CLS_ACT
// 需要重新分类
   if ( TC_ACT_RECLASSIFY == err) {
// verdict: 对数据包的处理结果
    __u32 verd = (__u32) G_TC_VERD(skb->tc_verd);
    tp = otp;
    if (MAX_REC_LOOP < verd++) {
     printk("rule prio %d protocol %02x reclassify is
buggy packet dropped\n",
      tp->prio&0xffff, ntohs(tp->protocol));
     return TC_ACT_SHOT;
    }
//
    skb->tc_verd = SET_TC_VERD(skb->tc_verd,verd);
    goto reclassify;
   } else {
// 分类成功
// 设置数据包的TC处理结果
    if (skb->tc_verd)
     skb->tc_verd = SET_TC_VERD(skb->tc_verd,0);
// 返回分类结果
    return err;
   }
#else
如果内核没定义CONFIG_NET_CLS_ACT, 直接返回
   return err;
#endif
  }
 }
 return -1;
}

5.4.4 出队
static struct sk_buff *
prio_dequeue(struct Qdisc* sch)
{
 struct sk_buff *skb;
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
 int prio;
 struct Qdisc *qdisc;
// 从0号带开始循环
 for (prio = 0; prio < q->bands; prio++) {
// 该带的Qdisc
  qdisc = q->queues[prio];
// 执行该qdisc的出队操作, 应该就是pfifo_fast的出队操作
  skb = qdisc->dequeue(qdisc);
  if (skb) {
// 取得数据包, prio队列数减一
   sch->q.qlen--;
   return skb;
  }
 }
 return NULL;
}

由此可见, 0号带优先权最高, 15号带最低, 总是高优先级的带中的数据队列都清空后才发送低优先
级的带, 同时每个带实际有3个队列(见pfifo_fast), 因此最多可有48个队列,这样数据粒度就可以
比较细了,高优先权数据总是在低优先权数据之前发送。

5.4.5 重入队

static int
prio_requeue(struct sk_buff *skb, struct Qdisc* sch)
{
 struct Qdisc *qdisc;
 int ret;
// 查找该skb对应的qdisc
 qdisc = prio_classify(skb, sch, &ret);
#ifdef CONFIG_NET_CLS_ACT
 if (qdisc == NULL) {
// 查找失败丢包
  if (ret == NET_XMIT_BYPASS)
   sch->qstats.drops++;
  kfree_skb(skb);
  return ret;
 }
#endif
// 执行该qdisc的重入队操作, 就是pfifo_fast的requeue
 if ((ret = qdisc->ops->requeue(skb, qdisc)) == NET_XMIT_SUCCESS) {
// 统计数更新
  sch->q.qlen++;
  sch->qstats.requeues++;
  return 0;
 }
// 失败, 丢包
 sch->qstats.drops++;
 return NET_XMIT_DROP;
}
 
5.4.6 复位
static void
prio_reset(struct Qdisc* sch)
{
 int prio;
 struct prio_sched_data *q = qdisc_priv(sch);
// 循环有效带数, 不是所有带
 for (prio=0; prio<q->bands; prio++)
// 标准的qdisc复位操作
  qdisc_reset(q->queues[prio]);
 sch->q.qlen = 0;
}
 
5.4.7 输出

static int prio_dump(struct Qdisc *sch, struct sk_buff *skb)
{
 struct prio_sched_data *q = qdisc_priv(sch);
 unsigned char  *b = skb->tail;
 struct tc_prio_qopt opt;
// 输出当前的带数和优先权值到带值的转换数组
 opt.bands = q->bands;
 memcpy(&opt.priomap, q->prio2band, TC_PRIO_MAX+1);
 RTA_PUT(skb, TCA_OPTIONS, sizeof(opt), &opt);
 return skb->len;
rtattr_failure:
 skb_trim(skb, b - skb->data);
 return -1;
}

5.4.8 丢包

static unsigned int prio_drop(struct Qdisc* sch)
{
 struct prio_sched_data *q = qdisc_priv(sch);
 int prio;
 unsigned int len;
 struct Qdisc *qdisc;
// 倒序操作, 先丢优先权最低的
 for (prio = q->bands-1; prio >= 0; prio--) {
// 该带的qdisc
  qdisc = q->queues[prio];
// 调用该qdisc的drop函数, 问题是pfifo_fast算法中是没有drop函数的
  if (qdisc->ops->drop && (len = qdisc->ops->drop(qdisc)) != 0) {
   sch->q.qlen--;
   return len;
  }
 }
 return 0;
}

由于PFIFO_FAST中没有drop成员函数, 使得这个函数似乎没意义, 除非进行了嫁接操作, 使用了其他
类型的qdisc作为数组元素

5.4.9 PRIO类别操作

// 嫁接, 替换prio_qdisc中的内部qdisc数组中的qdisc元素
static int prio_graft(struct Qdisc *sch, unsigned long arg, struct Qdisc *new,
        struct Qdisc **old)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
 unsigned long band = arg - 1;
// 数组位置超过prio_qidsc中的带数, 错误
 if (band >= q->bands)
  return -EINVAL;
// 如果新qdisc为空,设为noop_qdisc
 if (new == NULL)
  new = &noop_qdisc;
 sch_tree_lock(sch);
// 老的qdisc
 *old = q->queues[band];
// 将该数组位置的qdisc设置为新的qdisc
 q->queues[band] = new;
// 将老qdisc的排队数去除
 sch->q.qlen -= (*old)->q.qlen;
// 复位老qdisc
 qdisc_reset(*old);
 sch_tree_unlock(sch);
 return 0;
}

// 返回叶子qdisc
static struct Qdisc *
prio_leaf(struct Qdisc *sch, unsigned long arg)
{
// prio私有数组
 struct prio_sched_data *q = qdisc_priv(sch);
 unsigned long band = arg - 1;
// 数组位置超过prio_qidsc中的带数, 错误
 if (band >= q->bands)
  return NULL;
// 返回指定位置的qdisc数组元素
 return q->queues[band];
}
// 将类别ID转换为带号
static unsigned long prio_get(struct Qdisc *sch, u32 classid)
{
 struct prio_sched_data *q = qdisc_priv(sch);
// 取类别ID的低16位
 unsigned long band = TC_H_MIN(classid);
// 如果超过了当前带数, 返回0
 if (band - 1 >= q->bands)
  return 0;
// 否则作为有效带值返回
 return band;
}
// 绑定, 获取与类别ID相关的带值
static unsigned long prio_bind(struct Qdisc *sch, unsigned long parent, u32 classid)
{
 return prio_get(sch, classid);
}

// 释放, 空函数
static void prio_put(struct Qdisc *q, unsigned long cl)
{
 return;
}
// 修改, 基本是空函数, 没进行任何修改
static int prio_change(struct Qdisc *sch, u32 handle, u32 parent, struct rtattr **tca,
unsigned long *arg)
{
 unsigned long cl = *arg;
 struct prio_sched_data *q = qdisc_priv(sch);
 if (cl - 1 > q->bands)
  return -ENOENT;
 return 0;
}
// 删除操作, 基本是空函数, 但没进行任何实际删除操作
static int prio_delete(struct Qdisc *sch, unsigned long cl)
{
 struct prio_sched_data *q = qdisc_priv(sch);
 if (cl - 1 > q->bands)
  return -ENOENT;
 return 0;
}

// 输出类别, cl指定类别
static int prio_dump_class(struct Qdisc *sch, unsigned long cl, struct sk_buff *skb,
      struct tcmsg *tcm)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
// 检查cl是否合法
 if (cl - 1 > q->bands)
  return -ENOENT;
// tc句柄或cl的低16位
 tcm->tcm_handle |= TC_H_MIN(cl);
// 如果Qdisc数组项非空(应该是非空的, 即使不用的也指向noop_qdisc), 保存其句柄值
 if (q->queues[cl-1])
  tcm->tcm_info = q->queues[cl-1]->handle;
 return 0;
}

// PRIO节点遍历进行某种操作
static void prio_walk(struct Qdisc *sch, struct qdisc_walker *arg)
{
// 私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
 int prio;
// 是否设置了停止标志
 if (arg->stop)
  return;
// 遍历有效的带值
 for (prio = 0; prio < q->bands; prio++) {
// 可以忽略一些元素
  if (arg->count < arg->skip) {
   arg->count++;
   continue;
  }
// 调用指定的操作
  if (arg->fn(sch, prio+1, arg) < 0) {
   arg->stop = 1;
   break;
  }
  arg->count++;
 }
}

// 查找协议分类, 返回结果是指针的指针
static struct tcf_proto ** prio_find_tcf(struct Qdisc *sch, unsigned long cl)
{
// PRIO私有数据
 struct prio_sched_data *q = qdisc_priv(sch);
// 定义了cl的话返回空
 if (cl)
  return NULL;
// 返回filter_list的地址
 return &q->filter_list;
}
 
...... 待续 ......

发表于: 2007-08-02,修改于: 2007-08-02 22:08,已浏览2757次,有评论3条 推荐 投诉
	网友: 本站网友 	时间:2007-08-20 13:53:14 IP地址:222.68.182.★
	

请问能具体解释一下tc_classify返回正数时代表什么意思吗?谢谢


	网友: yfydz 	时间:2007-08-25 21:38:33 IP地址:123.116.96.★
	

分类操作成功

分享到:
评论

相关推荐

    Linux网络体系结构 Linux内核中网络协议的设计与实现

    在Linux内核中,TCP和UDP模块处理连接建立、数据传输、流量控制和拥塞控制等问题。 5. **应用层**:这一层包含各种应用协议,如HTTP、FTP、SMTP等,它们直接与用户交互。Linux内核通过socket API为上层应用提供了与...

    基于Linux内核的BT流量控制的原理与实现.pdf

    【基于Linux内核的BT流量控制的原理与实现】 Linux操作系统以其开源、可定制的特点,在系统开发领域广泛应用,尤其在网络流量控制方面具有显著优势。针对BitTorrent(BT)这种大量占用带宽的P2P协议,Linux内核提供...

    Linux内核完全注释V3.0_linux内核_linux_

    4. **网络堆栈**:从硬件接口到应用层协议的整个网络传输流程,如TCP/IP协议族、套接字API、网络设备驱动程序以及流量控制策略。 5. **设备驱动**:内核如何与硬件交互,驱动程序的工作原理,包括字符设备、块设备...

    深入分析Linux内核源码

    文件系统部分,Linux内核支持多种文件系统,如EXT4、XFS、Btrfs等。源码中包含了文件的创建、读写、删除操作,以及目录管理、权限控制等。深入研究这部分代码,可以帮助我们理解文件系统的工作流程,解决文件操作中...

    基于Linux内核扩展模块的P2P流量控制.pdf

    【基于Linux内核扩展模块的P2P流量控制】这篇文献主要探讨了如何在Linux操作系统中,通过内核扩展模块来实现对P2P流量的有效控制。P2P(Peer-to-Peer)技术的兴起改变了互联网的中心化结构,使得资源分享更为便捷,...

    基于Linux内核扩展模块的P2P流量控制

    基于Linux内核扩展模块的P2P流量控制

    基于Linux LQL流量控制系统的研究与实现.pdf

    基于LQL库的流量控制方法可以直接在Linux内核的框架下实现,而不需要使用传统方法中的TC命令解析、netlink传输和内核空间执行的三层结构。这可以提高流量控制的效率和可靠性,同时也可以减少流量控制的延迟和资源...

    Linux内核修炼之道精华版

    书中的内容涵盖了从内核基础到高级技术的方方面面,为那些希望提升Linux内核理解和开发能力的读者提供了宝贵的资源。在本文中,我们将探讨几个关键的知识点,包括Linux内核的基本结构、进程管理、内存管理和设备驱动...

    Linux内核源码(2.6.24)

    4. **文件系统**:Linux内核支持多种文件系统,如EXT2、EXT3、EXT4、VFAT、NTFS等。在2.6.24中,文件系统的稳定性和性能得到了进一步优化。 5. **网络子系统**:Linux内核提供了TCP/IP协议栈,支持各种网络协议和...

    深入理解linux内核word版本

    接着,作者深入剖析了网络设备数据结构net_device,它包含了设备的配置信息、统计信息、状态标志以及各种管理列表和流量控制字段,这些细节揭示了网络设备如何在内核中被抽象和管理。 通过以上内容,我们可以看到,...

    Linux内核情景分析(上下全集高清版)

    它处理网络数据的接收和发送,进行网络层的路由选择,以及传输层的拥塞控制和流量控制。 5. **设备驱动**:设备驱动程序是内核与硬件之间的桥梁,使得内核能够控制硬件设备。Linux内核支持大量设备驱动,包括块设备...

    linux高级路由和流量控制HOWTO中文版(牛老师译)

    在Linux操作系统中,高级路由和流量控制是网络管理员和系统管理员必须掌握的关键技能。这篇文档“Linux高级路由和流量控制HOWTO中文版”由牛老师翻译,为读者提供了深入理解这些概念的宝贵资源。以下是对其中核心...

    基于Linux的网络流量控制机制

    该模型内置于Linux内核中,并利用队列算法对不同服务质量(Quality of Service, QoS)需求的数据流进行分类,以提供灵活且差异化的服务。实验结果表明,采用该流量控制模型后,网络性能显著提高,并能很好地适应未来...

    《Linux内核源码剖析 TCP IP实现(上册) 樊东东 莫澜 pdf扫描版.

    同时,还会讨论TCP的流量控制和拥塞控制机制,如滑动窗口、慢启动、快速重传和快速恢复算法等,这些都是保证网络通信质量和效率的关键。 其次,关于IP协议,书里会涉及IP地址、子网掩码、路由选择等概念,以及IP分...

    TC(linux下流量控制工具)详细说明及应用实例借鉴.pdf

    TC 工具基于 Linux 内核的网络设备驱动程序,通过对网络设备的控制,来实现流量控制。TC 的工作原理可以分为以下三个阶段: 1. 流量控制方式:TC 提供了多种流量控制方式,包括 Token Bucket Filter(TBF)、...

    TC(linux下流量控制工具)详细说明及应用实例.pdf

    TC(Linux 下流量控制工具)详细说明及应用实例 TC 是 Linux 下的一种流量控制工具,用于控制和管理网络流量。它提供了一个灵活的方式来管理网络带宽、延迟和丢包率等网络性能参数,以满足不同应用场景的需求。 TC...

    linux内核协议栈源码解析(2.6.18内核)

    4. **中断处理**:当硬件接收到网络数据时,会触发中断,Linux内核通过中断处理程序来响应。中断处理分为硬中断和软中断,其中软中断(例如NET_RX_ACTION)用于执行非实时性但需要快速处理的任务,如协议栈的数据包...

    linux内核中sock和socket数据结构

    Linux内核中的sock和socket数据结构是网络编程的核心组成部分,它们是实现网络通信的基础构件。在Linux操作系统中,网络通信的实现依赖于BSD套接字接口,而这一接口在内核中是通过sock和socket数据结构来实现的。 ...

Global site tag (gtag.js) - Google Analytics