- 浏览: 1403592 次
- 性别:
- 来自: 火星
文章分类
最新评论
-
aidd:
内核处理time_wait状态详解 -
ahtest:
赞一下~~
一个简单的ruby Metaprogram的例子 -
itiProCareer:
简直胡说八道,误人子弟啊。。。。谁告诉你 Ruby 1.9 ...
ruby中的类变量与类实例变量 -
dear531:
还得补充一句,惊群了之后,数据打印显示,只有一个子线程继续接受 ...
linux已经不存在惊群现象 -
dear531:
我用select试验了,用的ubuntu12.10,内核3.5 ...
linux已经不存在惊群现象
Receive packet steering简称rps,是google贡献给linux kernel的一个patch,主要的功能是解决多核情况下,网络协议栈的软中断的负载均衡。这里的负载均衡也就是指能够将软中断均衡的放在不同的cpu核心上运行。
简介在这里:
http://lwn.net/Articles/362339/
linux现在网卡的驱动支持两种模式,一种是NAPI,一种是非NAPI模式,这两种模式的区别,我前面的blog都有介绍,这里就再次简要的介绍下。
在NAPI中,中断收到数据包后调用__napi_schedule调度软中断,然后软中断处理函数中会调用注册的poll回掉函数中调用netif_receive_skb将数据包发送到3层,没有进行任何的软中断负载均衡。
在非NAPI中,中断收到数据包后调用netif_rx,这个函数会将数据包保存到input_pkt_queue,然后调度软中断,这里为了兼容NAPI的驱动,他的poll方法默认是process_backlog,最终这个函数会从input_pkt_queue中取得数据包然后发送到3层。
通过比较我们可以看到,不管是NAPI还是非NAPI的话都无法做到软中断的负载均衡,因为软中断此时都是运行在在硬件中断相应的cpu上。也就是说如果始终是cpu0相应网卡的硬件中断,那么始终都是cpu0在处理软中断,而此时cpu1就被浪费了,因为无法并行的执行多个软中断。
google的这个patch的基本原理是这样的,根据数据包的源地址,目的地址以及目的和源端口(这里它是将两个端口组合成一个4字节的无符数进行计算的,后面会看到)计算出一个hash值,然后根据这个hash值来选择软中断运行的cpu,从上层来看,也就是说将每个连接和cpu绑定,并通过这个hash值,来均衡软中断在多个cpu上。
这个介绍比较简单,我们来看代码是如何实现的。
它这里主要是hook了两个内核的函数,一个是netif_rx主要是针对非NAPI的驱动,一个是netif_receive_skb这个主要是针对NAPI的驱动,这两个函数我前面blog都有介绍过,想了解可以看我前面的blog,现在这里我只介绍打过patch的实现。
在看netif_rx和netif_receive_skb之前,我们先来看这个patch中两个重要的函数get_rps_cpu和enqueue_to_backlog,我们一个个看。
先来看相关的两个数据结构,首先是netdev_rx_queue,它表示对应的接收队列,因为有的网卡可能硬件上就支持多队列的模式,此时对应就会有多个rx队列,这个结构是挂载在net_device中的,也就是每个网络设备最终都会有一个或者多个rx队列。这个结构在sys文件系统中的表示类似这样的/sys/class/net/<device>/queues/rx-<n> 几个队列就是rx-n.
然后就是rps_map,其实这个也就是保存了能够执行数据包的cpu。
看完上面的结构,我们来看函数的实现。
get_rps_cpu主要是通过传递进来的skb然后来选择这个skb所应该被处理的cpu。它的逻辑很简单,就是通过skb计算hash,然后通过hash从对应的队列的rps_mapping中取得对应的cpu id。
这里有个要注意的就是这个hash值是可以交给硬件网卡去计算的,作者自己说是最好交由硬件去计算这个hash值,因为如果是软件计算的话会导致CPU 缓存不命中,带来一定的性能开销。
还有就是rps_mapping这个值是可以通过sys 文件系统设置的,位置在这里:
/sys/class/net/<device>/queues/rx-<n>/rps_cpus 。
然后是enqueue_to_backlog这个方法,首先我们知道在每个cpu都有一个softnet结构,而他有一个input_pkt_queue的队列,以前这个主要是用于非NAPi的驱动的,而这个patch则将这个队列也用与NAPI的处理中了。也就是每个cpu现在都会有一个input_pkt_queue队列,用于保存需要处理的数据包队列。这个队列作用现在是,如果发现不属于当前cpu处理的数据包,则我们可以直接将数据包挂载到他所属的cpu的input_pkt_queue中。
enqueue_to_backlog接受一个skb和cpu为参数,通过cpu来判断skb如何处理。要么加入所属的input_pkt_queue中,要么schecule 软中断。
还有个要注意就是我们知道NAPI为了兼容非NAPI模式,有个backlog的napi_struct结构,也就是非NAPI驱动会schedule backlog这个napi结构,而在enqueue_to_backlog中则是利用了这个结构,也就是它会schedule backlog,因为它会将数据放到input_pkt_queue中,而backlog的pool方法process_backlog就是从input_pkt_queue中取得数据然后交给上层处理。
这里还有一个会用到结构就是 rps_remote_softirq_cpus,它主要是保存了当前cpu上需要去另外的cpu schedule 软中断的cpu 掩码。因为我们可能将要处理的数据包放到了另外的cpu的input queue上,因此我们需要schedule 另外的cpu上的napi(也就是软中断),所以我们需要保存对应的cpu掩码,以便于后面遍历,然后schedule。
而这里为什么mask有两个元素,注释写的很清楚:
这里会有一个小问题,那就是假设此时一个属于cpu0的包进入处理,此时我们运行在cpu1,此时将数据包加入到input队列,然后cpu0上面刚好又来了一个cpu0需要处理的数据包,此时由于qlen不为0则又将数据包加入到input队列中,我们会发现cpu0上的napi没机会进行调度了。
google的patch对这个是这样处理的,在软中断处理函数中当数据包处理完毕,会调用net_rps_action来调度前面保存到其他cpu上的input队列。
下面就是代码片断(net_rx_action)
然后就是net_rps_action,这个函数很简单,就是遍历所需要处理的cpu,然后调度napi
上面我们看到会调用csd方法,而上面的csd回掉就是被初始化为trigger_softirq函数。
上面的函数都分析完毕了,剩下的就很简单了。
首先来看netif_rx如何被修改的,它被修改的很简单,首先是得到当前skb所应该被处理的cpu id,然后再通过比较这个cpu和当前正在处理的cpu id进行比较来做不同的处理。
然后是netif_receive_skb,这里patch将内核本身的这个函数改写为__netif_receive_skb。然后当返回值小于0,则说明不需要对队列进行处理,此时直接发送到3层。
最后来总结一下,可以看到input_pkt_queue是一个FIFO的队列,而且如果当qlen有值的时候,也就是在另外的cpu有数据包放到input_pkt_queue中,则当前cpu不会调度napi,而是将数据包放到input_pkt_queue中,然后等待trigger_softirq来调度napi。
因此这个patch完美的解决了软中断在多核下的均衡问题,并且没有由于是同一个连接会map到相同的cpu,并且input_pkt_queue的使用,因此乱序的问题也不会出现。
简介在这里:
http://lwn.net/Articles/362339/
linux现在网卡的驱动支持两种模式,一种是NAPI,一种是非NAPI模式,这两种模式的区别,我前面的blog都有介绍,这里就再次简要的介绍下。
在NAPI中,中断收到数据包后调用__napi_schedule调度软中断,然后软中断处理函数中会调用注册的poll回掉函数中调用netif_receive_skb将数据包发送到3层,没有进行任何的软中断负载均衡。
在非NAPI中,中断收到数据包后调用netif_rx,这个函数会将数据包保存到input_pkt_queue,然后调度软中断,这里为了兼容NAPI的驱动,他的poll方法默认是process_backlog,最终这个函数会从input_pkt_queue中取得数据包然后发送到3层。
通过比较我们可以看到,不管是NAPI还是非NAPI的话都无法做到软中断的负载均衡,因为软中断此时都是运行在在硬件中断相应的cpu上。也就是说如果始终是cpu0相应网卡的硬件中断,那么始终都是cpu0在处理软中断,而此时cpu1就被浪费了,因为无法并行的执行多个软中断。
google的这个patch的基本原理是这样的,根据数据包的源地址,目的地址以及目的和源端口(这里它是将两个端口组合成一个4字节的无符数进行计算的,后面会看到)计算出一个hash值,然后根据这个hash值来选择软中断运行的cpu,从上层来看,也就是说将每个连接和cpu绑定,并通过这个hash值,来均衡软中断在多个cpu上。
这个介绍比较简单,我们来看代码是如何实现的。
它这里主要是hook了两个内核的函数,一个是netif_rx主要是针对非NAPI的驱动,一个是netif_receive_skb这个主要是针对NAPI的驱动,这两个函数我前面blog都有介绍过,想了解可以看我前面的blog,现在这里我只介绍打过patch的实现。
在看netif_rx和netif_receive_skb之前,我们先来看这个patch中两个重要的函数get_rps_cpu和enqueue_to_backlog,我们一个个看。
先来看相关的两个数据结构,首先是netdev_rx_queue,它表示对应的接收队列,因为有的网卡可能硬件上就支持多队列的模式,此时对应就会有多个rx队列,这个结构是挂载在net_device中的,也就是每个网络设备最终都会有一个或者多个rx队列。这个结构在sys文件系统中的表示类似这样的/sys/class/net/<device>/queues/rx-<n> 几个队列就是rx-n.
struct netdev_rx_queue { //保存了当前队列的rps map struct rps_map *rps_map; //对应的kobject struct kobject kobj; //指向第一个rx队列 struct netdev_rx_queue *first; //引用计数 atomic_t count; } ____cacheline_aligned_in_smp;
然后就是rps_map,其实这个也就是保存了能够执行数据包的cpu。
struct rps_map { //cpu的个数,也就是cpus数组的个数 unsigned int len; //RCU锁 struct rcu_head rcu; //保存了cpu的id. u16 cpus[0]; };
看完上面的结构,我们来看函数的实现。
get_rps_cpu主要是通过传递进来的skb然后来选择这个skb所应该被处理的cpu。它的逻辑很简单,就是通过skb计算hash,然后通过hash从对应的队列的rps_mapping中取得对应的cpu id。
这里有个要注意的就是这个hash值是可以交给硬件网卡去计算的,作者自己说是最好交由硬件去计算这个hash值,因为如果是软件计算的话会导致CPU 缓存不命中,带来一定的性能开销。
还有就是rps_mapping这个值是可以通过sys 文件系统设置的,位置在这里:
/sys/class/net/<device>/queues/rx-<n>/rps_cpus 。
static int get_rps_cpu(struct net_device *dev, struct sk_buff *skb) { struct ipv6hdr *ip6; struct iphdr *ip; struct netdev_rx_queue *rxqueue; struct rps_map *map; int cpu = -1; u8 ip_proto; u32 addr1, addr2, ports, ihl; //rcu锁 rcu_read_lock(); //取得设备对应的rx 队列 if (skb_rx_queue_recorded(skb)) { .......................................... rxqueue = dev->_rx + index; } else rxqueue = dev->_rx; if (!rxqueue->rps_map) goto done; //如果硬件已经计算,则跳过计算过程 if (skb->rxhash) goto got_hash; /* Skip hash computation on packet header */ switch (skb->protocol) { case __constant_htons(ETH_P_IP): if (!pskb_may_pull(skb, sizeof(*ip))) goto done; //得到计算hash的几个值 ip = (struct iphdr *) skb->data; ip_proto = ip->protocol; //两个地址 addr1 = ip->saddr; addr2 = ip->daddr; //得到ip头 ihl = ip->ihl; break; case __constant_htons(ETH_P_IPV6): .......................................... break; default: goto done; } ports = 0; switch (ip_proto) { case IPPROTO_TCP: case IPPROTO_UDP: case IPPROTO_DCCP: case IPPROTO_ESP: case IPPROTO_AH: case IPPROTO_SCTP: case IPPROTO_UDPLITE: if (pskb_may_pull(skb, (ihl * 4) + 4)) //我们知道tcp头的前4个字节就是源和目的端口,因此这里跳过ip头得到tcp头的前4个字节 ports = *((u32 *) (skb->data + (ihl * 4))); break; default: break; } //计算hash skb->rxhash = jhash_3words(addr1, addr2, ports, hashrnd); if (!skb->rxhash) skb->rxhash = 1; got_hash: //通过rcu得到对应rps map map = rcu_dereference(rxqueue->rps_map); if (map) { //取得对应的cpu u16 tcpu = map->cpus[((u64) skb->rxhash * map->len) >> 32]; //如果cpu是online的,则返回计算出的这个cpu,否则跳出循环。 if (cpu_online(tcpu)) { cpu = tcpu; goto done; } } done: rcu_read_unlock(); //如果上面失败,则返回-1. return cpu; }
然后是enqueue_to_backlog这个方法,首先我们知道在每个cpu都有一个softnet结构,而他有一个input_pkt_queue的队列,以前这个主要是用于非NAPi的驱动的,而这个patch则将这个队列也用与NAPI的处理中了。也就是每个cpu现在都会有一个input_pkt_queue队列,用于保存需要处理的数据包队列。这个队列作用现在是,如果发现不属于当前cpu处理的数据包,则我们可以直接将数据包挂载到他所属的cpu的input_pkt_queue中。
enqueue_to_backlog接受一个skb和cpu为参数,通过cpu来判断skb如何处理。要么加入所属的input_pkt_queue中,要么schecule 软中断。
还有个要注意就是我们知道NAPI为了兼容非NAPI模式,有个backlog的napi_struct结构,也就是非NAPI驱动会schedule backlog这个napi结构,而在enqueue_to_backlog中则是利用了这个结构,也就是它会schedule backlog,因为它会将数据放到input_pkt_queue中,而backlog的pool方法process_backlog就是从input_pkt_queue中取得数据然后交给上层处理。
这里还有一个会用到结构就是 rps_remote_softirq_cpus,它主要是保存了当前cpu上需要去另外的cpu schedule 软中断的cpu 掩码。因为我们可能将要处理的数据包放到了另外的cpu的input queue上,因此我们需要schedule 另外的cpu上的napi(也就是软中断),所以我们需要保存对应的cpu掩码,以便于后面遍历,然后schedule。
而这里为什么mask有两个元素,注释写的很清楚:
/* * This structure holds the per-CPU mask of CPUs for which IPIs are scheduled * to be sent to kick remote softirq processing. There are two masks since * the sending of IPIs must be done with interrupts enabled. The select field * indicates the current mask that enqueue_backlog uses to schedule IPIs. * select is flipped before net_rps_action is called while still under lock, * net_rps_action then uses the non-selected mask to send the IPIs and clears * it without conflicting with enqueue_backlog operation. */ struct rps_remote_softirq_cpus { //对应的cpu掩码 cpumask_t mask[2]; //表示应该使用的数组索引 int select; };
static int enqueue_to_backlog(struct sk_buff *skb, int cpu) { struct softnet_data *queue; unsigned long flags; //取出传递进来的cpu的softnet-data结构 queue = &per_cpu(softnet_data, cpu); local_irq_save(flags); __get_cpu_var(netdev_rx_stat).total++; //自旋锁 spin_lock(&queue->input_pkt_queue.lock); //如果保存的队列还没到上限 if (queue->input_pkt_queue.qlen <= netdev_max_backlog) { //如果当前队列的输入队列长度不为空 if (queue->input_pkt_queue.qlen) { enqueue: //将数据包加入到input_pkt_queue中,这里会有一个小问题,我们后面再说。 __skb_queue_tail(&queue->input_pkt_queue, skb); spin_unlock_irqrestore(&queue->input_pkt_queue.lock, flags); return NET_RX_SUCCESS; } /* Schedule NAPI for backlog device */ //如果可以调度软中断 if (napi_schedule_prep(&queue->backlog)) { //首先判断数据包该不该当前的cpu处理 if (cpu != smp_processor_id()) { //如果不该, struct rps_remote_softirq_cpus *rcpus = &__get_cpu_var(rps_remote_softirq_cpus); cpu_set(cpu, rcpus->mask[rcpus->select]); __raise_softirq_irqoff(NET_RX_SOFTIRQ); } else //如果就是应该当前cpu处理,则直接schedule 软中断,这里可以看到传递进去的是backlog __napi_schedule(&queue->backlog); } goto enqueue; } spin_unlock(&queue->input_pkt_queue.lock); __get_cpu_var(netdev_rx_stat).dropped++; local_irq_restore(flags); kfree_skb(skb); return NET_RX_DROP; }
这里会有一个小问题,那就是假设此时一个属于cpu0的包进入处理,此时我们运行在cpu1,此时将数据包加入到input队列,然后cpu0上面刚好又来了一个cpu0需要处理的数据包,此时由于qlen不为0则又将数据包加入到input队列中,我们会发现cpu0上的napi没机会进行调度了。
google的patch对这个是这样处理的,在软中断处理函数中当数据包处理完毕,会调用net_rps_action来调度前面保存到其他cpu上的input队列。
下面就是代码片断(net_rx_action)
//得到对应的rcpus. rcpus = &__get_cpu_var(rps_remote_softirq_cpus); select = rcpus->select; //翻转select,防止和enqueue_backlog冲突 rcpus->select ^= 1; //打开中断,此时下面的调度才会起作用. local_irq_enable(); //这个函数里面调度对应的远程cpu的napi. net_rps_action(&rcpus->mask[select]);
然后就是net_rps_action,这个函数很简单,就是遍历所需要处理的cpu,然后调度napi
static void net_rps_action(cpumask_t *mask) { int cpu; /* Send pending IPI's to kick RPS processing on remote cpus. */ //遍历 for_each_cpu_mask_nr(cpu, *mask) { struct softnet_data *queue = &per_cpu(softnet_data, cpu); if (cpu_online(cpu)) //到对应的cpu调用csd方法。 __smp_call_function_single(cpu, &queue->csd, 0); } //清理mask cpus_clear(*mask); }
上面我们看到会调用csd方法,而上面的csd回掉就是被初始化为trigger_softirq函数。
static void trigger_softirq(void *data) { struct softnet_data *queue = data; //调度napi可以看到依旧是backlog 这个napi结构体。 __napi_schedule(&queue->backlog); __get_cpu_var(netdev_rx_stat).received_rps++; }
上面的函数都分析完毕了,剩下的就很简单了。
首先来看netif_rx如何被修改的,它被修改的很简单,首先是得到当前skb所应该被处理的cpu id,然后再通过比较这个cpu和当前正在处理的cpu id进行比较来做不同的处理。
int netif_rx(struct sk_buff *skb) { int cpu; /* if netpoll wants it, pretend we never saw it */ if (netpoll_rx(skb)) return NET_RX_DROP; if (!skb->tstamp.tv64) net_timestamp(skb); //得到cpu id。 cpu = get_rps_cpu(skb->dev, skb); if (cpu < 0) cpu = smp_processor_id(); //通过cpu进行队列不同的处理 return enqueue_to_backlog(skb, cpu); }
然后是netif_receive_skb,这里patch将内核本身的这个函数改写为__netif_receive_skb。然后当返回值小于0,则说明不需要对队列进行处理,此时直接发送到3层。
int netif_receive_skb(struct sk_buff *skb) { int cpu; cpu = get_rps_cpu(skb->dev, skb); if (cpu < 0) return __netif_receive_skb(skb); else return enqueue_to_backlog(skb, cpu); }
最后来总结一下,可以看到input_pkt_queue是一个FIFO的队列,而且如果当qlen有值的时候,也就是在另外的cpu有数据包放到input_pkt_queue中,则当前cpu不会调度napi,而是将数据包放到input_pkt_queue中,然后等待trigger_softirq来调度napi。
因此这个patch完美的解决了软中断在多核下的均衡问题,并且没有由于是同一个连接会map到相同的cpu,并且input_pkt_queue的使用,因此乱序的问题也不会出现。
发表评论
-
内核中拥塞窗口初始值对http性能的影响分析
2010-07-11 00:20 9708这个是google的人提出的 ... -
linux 内核tcp拥塞处理(一)
2010-03-12 16:17 9579这次我们来分析tcp的拥塞控制,我们要知道协议栈都是很保守的, ... -
内核tcp协议栈SACK的处理
2010-01-24 21:13 12184上一篇处理ack的blog中我 ... -
内核tcp的ack的处理
2010-01-17 03:06 11162我们来看tcp输入对于ack,段的处理。 先是ack的处理, ... -
内核处理time_wait状态详解
2010-01-10 17:39 6822这次来详细看内核的time_wait状态的实现,在前面介绍定时 ... -
tcp协议栈处理各种事件的分析
2009-12-30 01:29 13638首先我们来看socket如何将一些状态的变化通知给对应的进程, ... -
linux内核sk_buff的结构分析
2009-12-25 00:42 47921我看的内核版本是2.6.32. 在内核中sk_buff表示一 ... -
tcp的输入段的处理
2009-12-18 00:56 8362tcp是全双工的协议,因此每一端都会有流控。一个tcp段有可能 ... -
内核协议栈tcp层的内存管理
2009-11-28 17:13 12088我们先来看tcp内存管理相关的几个内核参数,这些都能通过pro ... -
linux内核定时器的实现
2009-10-31 01:44 10196由于linux还不是一个实时的操作系统,因此如果需要更高精度, ... -
linux内核中tcp连接的断开处理
2009-10-25 21:47 10342我们这次主要来分析相关的两个断开函数close和shotdow ... -
linux内核tcp的定时器管理(二)
2009-10-05 20:52 5432这次我们来看后面的3个定时器; 首先是keep alive定 ... -
linux内核tcp的定时器管理(一)
2009-10-04 23:29 9837在内核中tcp协议栈有6种 ... -
linux 内核tcp接收数据的实现
2009-09-26 20:24 14529相比于发送数据,接收数据更复杂一些。接收数据这里和3层的接口是 ... -
linux 内核tcp数据发送的实现
2009-09-10 01:41 19794在分析之前先来看下SO_RCVTIMEO和SO_SNDTIME ... -
tcp connection setup的实现(三)
2009-09-03 00:34 5206先来看下accept的实现. 其实accept的作用很简单, ... -
tcp connection setup的实现(二)
2009-09-01 00:46 8439首先来看下内核如何处理3次握手的半连接队列和accept队列( ... -
tcp connection setup的实现(一)
2009-08-23 04:10 5826bind的实现: 先来介绍几个地址结构. struct ... -
linux内核中socket的实现
2009-08-15 04:38 21109首先来看整个与socket相关的操作提供了一个统一的接口sys ... -
ip层和4层的接口实现分析
2009-08-08 03:50 6211首先来看一下基于3层的ipv4以及ipv6实现的一些4层的协议 ...
相关推荐
Packet Tracer 5 使用详解手册 Packet Tracer 5 是一款功能强大的网络模拟器软件,由Cisco Systems开发,旨在帮助学习和实践计算机网络和网络安全相关知识。该软件提供了交互式的学习环境,使用户可以模拟真实的...
通过深入详解Packet Tracer 5,我们可以掌握以下几个关键知识点: 1. **界面介绍**:Packet Tracer 5的界面包括工作区、工具栏、设备库、时间线、日志和控制面板等部分。工作区是放置和操作网络设备的地方,工具栏...
本教程将深入详解Packet Tracer的使用方法,并结合pkt实验,帮助你全面掌握这款软件。 1. **Packet Tracer的基本界面** Packet Tracer的界面分为多个部分:顶部菜单栏、工具栏、设备库、工作区、属性编辑器、日志...
Cisco Packet Tracer26个实例企业组网详解(思科模拟器)
实战思科 Cisco 模拟器 Packet tracer 使用教程详解,对新手菜鸟有很大帮助! 第一篇、熟悉界面 第二篇、设备管理 第三篇、实战 实例1、研究应用层和传输层协议 实例2、检查路由 实例3、研究 ICMP 数据包 实例4、...
"Packet Tracer 5.0软件使用教程深入详解(附实例)"这一教程很可能会涵盖以下内容: 1. 软件安装与界面介绍 2. 基本操作,如添加设备、拖拽连接、配置设备 3. 创建网络拓扑,包括VLAN划分、子网划分等 4. 协议配置...
DatagramPacket receivePacket = new DatagramPacket(receiveData, receiveData.length); serverSocket.receive(receivePacket); String sentence = new String(receivePacket.getData(), 0, receivePacket....
The "ptsaplayer.dll" in the .zip package is the patch to fix the issue that Packet Tracer 7.2.2's PTSAPlayer plugin does not work on Windows 7. Apply the patch will fix the issue. Only users using...
思科Packet tracer 实验内容,包括详解 ,那个不错的
【miflashi-刷机工具】是一款专为小米设备设计的专业刷机软件,它能够帮助用户方便快捷地对小米手机、平板等设备进行系统升级、恢复出厂设置或解决设备故障。这款工具集成了多种刷机功能,适用于不同技术水平的用户...
《Cisco Packet Tracer 漢化包》是一个专为Cisco Packet Tracer设计的语言转换资源,包含四个PTL文件,使得用户可以根据个人需求将软件界面从默认的英文切换为简体中文、繁体中文、法语或德语。这一功能极大地便利了...
小米刷机工具miflash是一款专为小米手机用户设计的官方刷机软件,它能够帮助用户轻松快捷地在电脑上对小米设备进行系统升级、降级或者恢复出厂设置等操作。这款工具支持多种小米手机型号,是小米用户进行刷机过程中...
Packet Tracer 5.0软件深入详解(含8实列pka文件).rar ---- 网上收集的 ...........................................................
The "ptsaplayer.dll" in the .zip package is the patch to fix the issue that Packet Tracer 7.2.2's PTSAPlayer plugin does not work on Windows 7. Apply the patch will fix the issue. Only users using...
我自己做项目中遇到了不少问题,现将其解决方法共享,大家探讨下: (1)解决MYSQL乱码问题 (2)传递参数中文乱码 (3)jsp导包问题 (4)Hibernate基于外键的查询方法 (5)Hibernate Session中的 flush方法的作用 ...
Packet Tracer 5.0是一款由Cisco公司推出的网络模拟和设计工具,主要用于教育和培训目的。这个软件允许用户创建、配置、分析和故障排查复杂的网络拓扑,是学习和理解网络原理的重要辅助工具。本教程将深入讲解Packet...
《packet tracer 5.0使用教程详解》 Packet Tracer是一款强大的网络设计和模拟软件,尤其在学习和教学网络技术时极为有用。本教程将详细讲解如何使用Packet Tracer 5.0,从设备的选择与连接,到设备的编辑,再到...
**地址解析协议(ARP)详解** 地址解析协议(ARP)是局域网(LAN)通信中的关键组件,它允许网络设备将IP地址映射到物理层的MAC地址。在Packet Tracer 5.0这样的网络模拟软件中,理解并熟练运用ARP对于构建和分析网络模型...