`

linux双网卡绑定(1)

阅读更多

从开始翻译到现在已经过去一年多时间了,期间也有好久几乎没有用过bonding了,有很长一段时间已经没有打算把它继续下去的决心了,不过最后终于还是决定有始有终,虽然”始“和”终“隔了很久~~~

这里先发个初稿,很多地方还没有review,问题应该也有很多,估计重看一遍会发现很多地方翻译得辞不达意,各位先将就着看了

如果各位同好发现有些内容翻译得部队,或有些翻译内容翻译不清,或有更好的表达,请不吝留下宝贵修改意见,或直接给偶发信(zoufeiyy@163.com),在此谢过各位大大~~~

==================================================================================

Linux Ethernet Bonding Driver HOWTO

更新时间:2006年4月24日

发布者:Tomas Davis <tadavis at lbl.gov>
修正,增加高可靠性:2000/10/03-15:
  - Willy Tarreau <willy at meta-x.org>
  - Constantine Gavrilov <const-g at xpert.com>
  - Chad N. Tindel <ctindel at ieee dot org>
  - Janice Girouard <girouard at us dot ibm dot com>
  - Jay Vosburgh <fubar at us dot ibm dot com>

Jay Vosburgh于2005年2月重新组织并更新文档
增加Sysfs相关内容:2006/04/24
  - Mitch Williams <mitch.a.williams at intel.com>

简介
=============================

  Linux bonding驱动提供了一种方法,用以把多个网络接口(network interface)组合成一个逻辑的"bonded"接口。Bonded接口的工作方式取决于驱动的模式:不同的模式提供了热备份或负载均衡等不同的服务。此外,驱动还会监控链路的可用性。

  Bonding驱动最早来自Donald Becker针对Linux 2.0内核的beowulf补丁。现在已经有了很多的变化,最早的来自beowulf网站的工具已经不能和现在的驱动一起使用。

  如果你希望得到最新的版本,或者最新的用户工具,或者寻求相关的帮助,请留意本文末尾的链接。

目录
============================

1. Bonding驱动简介

2. Bonding驱动选项

3. 配置Bonding驱动
3.1 通过Sysconfig配置Bonding
3.1.1  通过Sysconfig使用DHCP
3.1.2  通过Sysconfig配置多个Bond
3.2 通过Initscripts配置Bonding
3.2.1  通过Initscripts使用DHCP
3.2.2  通过Initscripts配置多个Bond
3.3 通过Ifenslave手工配置Bonding
3.3.1  手工配置多个Bond
3.4 通过Sysfs手工配置Bonding

4. 查询Bonding配置
4.1 Bonding配置
4.2 网络配置

5. Switch(交换机)配置

6. 802.1q VLAN

7.链路监控
7.1 ARP监控
7.2 配置多个ARP监控目标
7.3 MII监控

8. 可能的问题
8.1 Routing(路由)
8.2 Ethernet设备重命名
8.3 网速变慢或Mii监控无法发现出错的链接

9. SNMP代理

10. Promiscuous(混杂)模式

11. 配置Bonding用于高可靠性
11.1 单一Switch下的高可靠性
11.2 多Switch下的高可靠性
11.2.1  多Switch下的Bonding模式选择
11.2.1  多Switch下的链路监控

12. 配置Bonding用于大吞吐量
12.1 单一Switch下的大吞吐量网络配置
12.1.1  单一Switch下的Bonding模式选择
12.1.2  单一Switch下的链路监控
12.2 多Switch下的大吞吐量网络配置
12.2.1  多Switch下的Bonding模式选择
12.2.1  多Switch下的链路监控

13. Switch的问题
13.1 链路建立和Failover延时
13.2 Incoming包重复

14. 硬件相关
14.1 IBM刀片服务器

15. FAQ

16. 相关资源和链接


1. Bonding驱动简介
=================================
  大多数目前发布的Linux内核都以模块(module)方式带了bonding驱动,ifenslave工具也都已经安装好。如果你的Linux没有,或者你确实需要自己来编译bonding(比如要配置或安装自己的Linux内核),请参考如下步骤:

1.1 配置并编译支持bonding的内核
---------------------------------

  当前版本的bonding驱动位于Linux内核源码(从http://kernel.org下载)的drivers/net/bonding子目录中。你可以在kerenl.org下载到最新版本的内核源码。

  通过"make menuconfig"(或"make xconfig" "make config")配置内核,在“Network device support”下选择“Bonding driver support”。建议你将bonding驱动配置为模块(module)方式,因为如果你要给驱动传递参数或者希望配置多个bonding驱动,只有通过模块方式。

  编译并安装新的内核和编译出的模块,然后参照下面的步骤安装ifenslave。

1.2 安装ifenslave控制工具
--------------------------------

  ifenslave控制工具也在内核源码中:Documentation/networking/ifenslave.c。一般建议最好使用和内核匹配的 ifenslave(同一份源码中或同一个发布中),然而较老的内核中的ifenslave也应该能够正常工作(较新的一些功能将不能使用),不过更新的内核中的ifenslave将可能不能工作。

  参照如下步骤以安装ifenslave:

# gcc -Wall -O -I/usr/src/linux/include ifenslave.c -o ifenslave
# cp ifenslave /sbin/ifenslave

  如果你的内核源码不在“/usr/src/linux”下,请将上面的“/usr/src/linux/include”替换成相应的正确目录。

  如果希望备份现有的/sbin/ifenslave,或者只是试用一下,你可以把ifenslave文件名加上内核版本信息(比如,/sbin/ifenslave-2.6.10)

重要提示:

  如果你忽略了"-I"参数或者指定了一个不正确的目录,你可能会得到一个和内核不兼容的ifenslave。有些发布(比如Red Hat 7.1之前的版本)没有/usr/include/linux符号链接指向当前内核的include目录。

另一个重要提示:
  如果你打算使用sysfs来配置bonding,你不需要使用ifenslave。

2. Bonding驱动选项
=================================

  Bonding驱动的选项是通过在加载时指定参数来设定的。可以通过insmod或modprobe命令的命令行参数来指定,但通常在/etc /modules.conf或/etc/modprobe.conf配置文件中指定,或其他的配置文件中(下一节将会提及几个具体的细节)

  下面列出可用的bonding驱动参数。如果参数没有指定,驱动会使用缺省参数。刚开始配置bond的时候,建议在一个终端窗口中运行"tail -f /var/log/messages"来观察bonding驱动的错误信息【译注:/var/log/messages一般会打印内核中的调试信息】。

  有些参数必须要正确的设定,比如miimon、arp_interval和arp_ip_target,否则在链接故障时会导致严重的网络性能退化。很少的设备不支持miimon,因此没有任何理由不使用它们。

  有些选项不仅支持文本值的设定,出于兼容性的考虑,也支持数值的设定,比如,"mode=802.3ad"和"mode=4"效果是一样的。

  具体的参数列表:

arp_interval

  指定ARP链路监控频率,单位是毫秒(ms)。如果APR监控工作于以太兼容模式(模式0和模式2)下,需要把switch(交换机)配置为在所有链路上均匀的分发网络包。如果switch(交换机)被配置为以XOR方式分发网络包,所有来自ARP目标的应答将会被同一个链路上的其他设备收到,这将会导致其他设备的失败。ARP监控不应该和miimon同时使用。设定为0将禁止ARP监控。缺省值为0。

arp_ip_target

  指定一组IP地址用于ARP监控的目标,它只在arp_interval > 0时有效。这些IP地址是ARP请求发送的目标,用于判定到目标地址的链路是否工作正常。该设定值为ddd.ddd.ddd.ddd格式。多个IP地址通过逗号分隔。至少指定一个IP地址。最多可以指定16个IP地址。缺省值是没有IP地址。

downdelay

  指定一个时间,用于在发现链路故障后,等待一段时间然后禁止一个slave,单位是毫秒(ms)。该选项只对miimon监控有效。downdelay值应该是miimon值的整数倍,否则它将会被取整到最接近的整数倍。缺省值为0。

lacp_rate

  指定在802.3ad模式下,我们希望的链接对端传输LACPDU包的速率。可能的选项:

  slow 或者 0
    请求对端每30s传输LACPDU

  fast 或者 1
    请求对端每1s传输LACPDU

  缺省值是slow

max_bonds

  为bonding驱动指定创建bonding设备的数量。比如,如果max_bonds为3,而且bonding驱动还没有加载,那么bond0,bond1,bond2将会被创建。缺省值为1。

miimon

  指定MII链路监控频率,单位是毫秒(ms)。这将决定驱动检查每个slave链路状态频率。0表示禁止MII链路监控。100可以作为一个很好的初始参考值。下面的use_carrier选项将会影响如果检测链路状态。更多的信息可以参考“高可靠性”章节。缺省值为0。

mode

  指定bonding的策略。缺省是balance-rr (round robin,循环赛)。可选的mode包括:

  balance-rr 或者 0

    Round-robin(循环赛)策略:按顺序传输数据包,从第一个可用的slave到最后一个可用的slave。该模式提供了负载均衡和容错机制。

  active-backup 或者 1

    Active-backup(激活-备份)策略:只有一个slave是激活的(active)。其他的slave只有在当前激活的slave故障后才会变为激活的(active)。从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。

    在bonding 2.6.2和以后的版本中,如果在active-backup模式下出现failover【译注:指一个slave发生故障,另一个slave变为激活的设备】,bonding将会在新的slave上发出一个或多个ARP请求,其中一个ARP请求针对bonding master接口及它上面配置的每个VLAN接口,从而保证该接口至少配置了一个IP地址。针对VLAN接口的ARP请求将会被打上相应的VLAN id。

----------------------------------------------------------------------------------------
        In bonding version 2.6.2 or later, when a failover
        occurs in active-backup mode, bonding will issue one
        or more gratuitous ARPs on the newly active slave.
        One gratuitous ARP is issued for the bonding master
        interface and each VLAN interfaces configured above
        it, provided that the interface has at least one IP
        address configured.  Gratuitous ARPs issued for VLAN
        interfaces are tagged with the appropriate VLAN id.
----------------------------------------------------------------------------------------

    该模式提供了容错机制。下面的primary选项将会影响该工作模式的行为。

  balance-xor 或者 2

    XOR策略:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,下文将会对之介绍。

    该模式提供了负载均衡和容错机制。

  broadcast 或者 3

    Broadcase(广播)策略:在每个slave接口上传输每个数据包。该模式提供了容错机制。

  802.3ad 或者 4

    IEEE 802.3ad Dynamic link aggregation(动态链接聚合)。创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。

    外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

    必要条件:

    1. ethtool支持获取每个slave的速率和双工设定;

    2. switch(交换机)支持IEEE 802.3ad Dynamic link aggregation。

    大多数switch(交换机)需要经过特定配置才能支持802.3ad模式。

  balance-tlb 或者 5

    自适应的传输负载均衡:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

    必要条件:

    ethtool支持获取每个slave的速率。

  balance-alb 或者 6

    自适应均衡负载:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

    来自服务器端的接收流量也会被均衡。当本机发送ARP请求时,bonding驱动把对端的IP信息从ARP包中复制并保存下来。当ARP应答从对端到达时,bonding驱动把它的硬件地址提取出来,并发起一个ARP应答给bond中的某个slave。使用ARP协商进行负载均衡的一个问题是:每次广播 ARP请求时都会使用bond的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部刘翔当前的slave。这个问题通过给所有的对端发送更新(ARP应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。当新的slave加入到bond中时,或者某个未激活的slave重新激活时,接收流量也要重新分布。接收的负载被顺序地分布(round robin)在bond中最高速的slave上。

    当某个链路被重新接上,或者一个新的slave加入到bond中,接收流量在所有当前激活的slave中全部重新分配,通过使用指定的MAC地址给每个 client发起ARP应答。下面介绍的updelay参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保证发往对端的ARP应答不会被switch(交换机)阻截。

    必要条件:

    1. ethtool支持获取每个slave的速率;

    2. 底层驱动支持设置某个设备的硬件地址,从而使得总是有个slave(curr_active_slave)使用bond的硬件地址,同时保证每个bond 中的slave都有一个唯一的硬件地址。如果curr_active_slave出故障,它的硬件地址将会被新选出来的 curr_active_slave接管。

primary

  指定哪个slave成为主设备(primary device),取值为字符串,如eth0,eth1等。只要指定的设备可用,它将一直是激活的slave。只有在主设备(primary device)断线时才会切换设备。这在希望某个slave设备优先使用的情形下很有用,比如,某个slave设备有更高的吞吐率。

  primary选项只对active-backup模式有效。

updelay

  指定当发现一个链路恢复时,在激活该链路之前的等待时间,以毫秒计算。该选项只对miimon链路侦听有效。updelay应该是miimon值的整数倍,如果不是,它将会被向下取整到最近的整数。缺省值为0。

use_carrier

  指定miimon是否需要使用MII或者ETHTOOL ioctls还是netif_carrier_ok()来判定链路状态。MII或ETHTOOL ioctls更低效一些,而且使用了内核里废弃的旧调用序列;而netif_carrier_ok()依赖于设备驱动来维护状态(判断载波),在本文写作时,大多数但不是全部设备驱动支持这个特性。

  如果bonding总是认为链路是通的,但实际上是断的,这有可能是由于你的网络设备驱动不支持netif_carrier_on/off。因为 netif_carrier的缺省状态是"carrier on",因此如果驱动不支持netif_carrier,则会显示链路永远正常。在这种情况下,把use_carrier设为0,从而让bonding使用MII/ETHTOOL ictl来判定链路状态。

  该选项设为1会使用netif_carrier_ok(),而设为0则会使用废弃的MII/ETHTOOL ioctls,缺省值是1。

xmit_hash_policy

  在balance-xor和802.3ad模式下选择不同的hash模式,以用于slave选举。可能的取值有:

  layer2

    使用硬件MAC地址的XOR来生成hash。公式为:

    (源MAC地址 XOR 目的MAC地址)% slave数目

    该算法会将某个网络对(network peer)上所有的流量全部分配到同一个slave上。

  layer3+4

    该策略在可能的时候使用上层协议的信息来生成hash。这将允许特定网络对(network peer)的流量分摊到多个slave上,尽管同一个连接(connection)不会分摊到多个slave上。

    针对未分片的TCP和UDP包的计算公式为:

    ((源端口 XOR 目的端口) XOR ((源IP XOR 目的IP) AND 0xFFFF) % slave数目

    对于已分片TCP或UDP包,以及其他的IP包,源端口和目的端口的信息被忽略了;对于非IP流量,采用和layer2一样的hash策略。

    该策略期望模仿某些交换机的行为,比如带PFC2的Cisco交换机,以及某些Foundry和IBM的产品。

    该算法不完全适应802.3ad,一个单一的TCP或UDP会话同时包含有分片和未分片的包将会导致包在两个接口上传递,这将会导致投递乱序。大多数流量不会满足这种条件,正如TCP很少分片,而大多数UDP流量不会在长期的会话中存在。其他的802.3ad实现有可能不能容忍这样的不适应性。

  缺省设置是layer2。该选项在bonding 2.6.3加入,在早期版本中,该参数不存在,只只是layer2策略。

分享到:
评论

相关推荐

    Linux双网卡绑定配置

    Linux双网卡绑定配置 Linux双网卡绑定配置是指将多个网络接口绑定到一个逻辑网络接口上,以提高网络可用性和带宽。这种配置可以在多种Linux发行版中实现,包括CentOS、Ubuntu、Debian等。 在本文中,我们将使用...

    Linux双网卡绑定

    ### Linux双网卡绑定知识点详解 #### 一、双网卡绑定的概念与作用 在Linux系统中,双网卡绑定(或称为网卡绑定、网卡聚合)是一种将多个物理网络接口合并为一个逻辑接口的技术。通过这种方式可以提高网络连接的带宽...

    linux双网卡绑定

    Linux 双网卡绑定详解 Linux 双网卡绑定是指将两块网卡虚拟成为一块网卡,使其看起来是一个单独的以太网接口设备。这种技术早已存在于 Sun 和 Cisco 中,被称为 Trunking 和 Etherchannel 技术。在 Linux 的 2.4.x ...

    Linux双网卡绑定一个IP原理与实现

    Linux 双网卡绑定一个 IP 原理与实现 Linux 双网卡绑定实现是两块网卡绑定同一个 IP,是进行双网络热备的一个成熟方案。该技术在 Sun 和 Cisco 中早已存在,被称为 Trunking 和 Etherchannel 技术,在 Linux 的 ...

    linux 双网卡bond绑定

    在 Linux 系统中,我们可以通过编辑网卡配置文件和 Bond 绑定模块来实现双网卡绑定。 Bond 绑定模式 Linux 双网卡 Bond 绑定支持两种模式:Mode 0 和 Mode 1。 * Mode 0:负载均衡模式。在这个模式下,两个物理...

    linux双网卡绑定脚本

    linux系统双网卡绑定脚本,直接可用,可根据实际情况自行修改脚本,通俗易懂。

    suse linux双网卡绑定.rar

    "suse linux双网卡绑定.rar"这个压缩包文件显然包含了关于如何在SUSE Linux中实现这一功能的详细步骤。 首先,双网卡绑定主要有以下几种模式: 1. **平衡-轮询(balance-rr)**:数据包在所有接口之间平均分配,...

    linux6.4双网卡绑定

    ### Linux 6.4 双网卡绑定详细指南 #### 一、引言 在网络配置中,为了提高网络连接的可靠性和带宽,通常会采用双网卡绑定技术。Linux 系统支持多种类型的网卡绑定模式,如负载均衡、故障转移等。本文将详细介绍如何...

    Linux双网卡绑定实现负载均衡和失效保护

    ### Linux双网卡绑定实现负载均衡和失效保护 #### 一、引言 在现代网络环境中,为了提高网络连接的可靠性和性能,采用多种技术手段是必不可少的。其中,Linux下的双网卡绑定技术(Bonding)作为一种有效的解决方案...

    linux双网卡绑定 bonding

    Linux双网卡绑定 Bonding Linux双网卡绑定 Bonding是一种将多个网络接口组合成一个逻辑的"bonded"接口的方法,提供了热备份或负载均衡等不同的服务。Bonding 驱动可以监控链路的可用性,并提供了多种模式来满足不同...

    linux 实现双网卡绑定

    Linux双网卡绑定,亦称为网卡聚合或Bonding,是一种通过软件手段将多张物理网卡合并成一个逻辑上的接口的技术。这一技术的核心目的是增强网络连接的稳定性和带宽,尤其是在服务器环境中,通过增加冗余性和提升网络...

    服务器双网卡绑定

    【服务器双网卡绑定】是一种网络技术,常用于提高服务器的网络连接稳定性和带宽,同时也能增强网络的冗余性。在Linux操作系统中,这种技术通常被称为“网卡聚合”或“网络 bonding”。本篇将重点介绍在Windows环境下...

    linux 双网卡绑定

    ### Linux 双网卡绑定详解 #### 一、概述 在Linux系统中,为了提高网络连接的稳定性和带宽利用率,经常会用到双网卡绑定技术。本文将详细介绍如何在Red Hat Linux 6中实现双网卡绑定,并提供具体步骤。 #### 二、...

    Linux下双网卡绑定

    ### Linux下双网卡绑定技术详解 在现代企业级IT环境中,确保服务器的高可用性和网络连接的稳定性至关重要。为了实现这一目标,双网卡绑定技术成为了一个热门且实用的解决方案,尤其在Linux环境下,其提供了强大的...

    双网卡绑定软件

    1. 安装和配置双网卡绑定的步骤。 2. 配置不同绑定模式的详细说明。 3. 对不同操作系统的兼容性和支持信息。 4. 解决常见问题和故障排查指南。 如果是一个软件,那么它可能是一个自动化工具,简化了双网卡绑定的...

    Redhat_6.0双网卡绑定

    ### Redhat 6.0 双网卡绑定详解 #### 一、双网卡绑定概述 在Redhat 6.0系统中,双网卡绑定技术可以将两个物理网络接口虚拟化为一个逻辑上的单一接口,以此来提高网络连接的稳定性和带宽。通过这种方式,不仅可以...

    windows2008Broadcom双网卡绑定.pdf

    通过以上知识点可以了解到,Windows Server 2008和Linux环境下实现双网卡绑定涉及到一系列的技术步骤和配置文件的修改。具体实施时,需要对网络基础、操作系统、硬件特性有深刻理解,才能成功设置并维护双网卡绑定...

    Linux下双网卡绑定技术实现负载均衡

    配置Linux双网卡绑定通常包括以下步骤: 1. 创建虚拟网络接口配置文件:首先,你需要创建一个新的配置文件,如`ifcfg-bond0`,并指定虚拟接口的配置,包括IP地址、子网掩码、广播地址等。同时,确保原网卡配置文件...

Global site tag (gtag.js) - Google Analytics