`
loamy
  • 浏览: 322578 次
  • 性别: Icon_minigender_1
  • 来自: 北京
社区版块
存档分类
最新评论

双网卡绑定实现负载均衡

阅读更多

Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。

绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片 



1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP  
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  
[root@rhas5 root]# cp  /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0  
将第一行改成 DEVICE=bond0  
# cat ifcfg-bond0 
DEVICE=bond0 
BOOTPROTO=static 
IPADDR=172.31.0.13 
NETMASK=255.255.252.0 
BROADCAST=172.31.3.254 
ONBOOT=yes
USERCTL=no 
TYPE=Ethernet 
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 

编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0  
DEVICE=eth0 
ONBOOT=yes
BOOTPROTO=static  
SLAVE=yes
MASTER=bond0
编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1  
DEVICE=eth0 
ONBOOT=yes 
BOOTPROTO=static 
SLAVE=yes
MASTER=bond0


3.# vi /etc/modules.conf (linux其他版本用这个) 
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1 primary=eth0 
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 
   mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
   mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.   
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

4.# vi /etc/modprobe.conf  
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1  use_carrier=0  

缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。

当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。

  而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。


为保证能够其他版本可用,我们两个都编辑,不影响使用。


1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP  
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0  
[root@rhas5 root]# cp  /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0 
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0  
将第一行改成 DEVICE=bond0  
# cat ifcfg-bond0 
DEVICE=bond0 
BOOTPROTO=static 
IPADDR=133.96.5.76 
NETMASK=255.255.252.224
GATEWAY=133.96.5.67
BROADCAST=133.96.5.95 
ONBOOT=yes
USERCTL=no 
TYPE=Ethernet 
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。 

编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0  
DEVICE=eth0 
ONBOOT=yes
BOOTPROTO=static  
SLAVE=yes
MASTER=bond0
USERCTL=no 

编辑物理网卡eth1,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1  
DEVICE=eth0 
ONBOOT=yes 
BOOTPROTO=static 
SLAVE=yes
MASTER=bond0
USERCTL=no 

3.# vi /etc/modules.conf (linux其他版本用这个) 
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1 primary=eth0 
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。 
   mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。 
   mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.   
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用 

4.# vi /etc/modprobe.conf  
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0  
  
加入下列两行  
alias bond0 bonding  
options bond0 miimon=100 mode=1  use_carrier=0  

缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。

当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。

  而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。


为保证能够其他版本可用,我们两个都编辑,不影响使用。

重新启动机器 如果成功在终端命令行下输入: ifconfig -a |more ,查看如果bond0和eth0、eth1的mac地址相同,那么我们设置成功否则十有八九是失败的。
还有要注意一定要手工敲打,如果批量修改注意权限,如是批量替换要记得删除原文件重新启动后再替换。否则系统会使用swap分区缓存的文件。

分享到:
评论

相关推荐

    Linux双网卡绑定实现负载均衡和失效保护

    ### Linux双网卡绑定实现负载均衡和失效保护 #### 一、引言 在现代网络环境中,为了提高网络连接的可靠性和性能,采用多种技术手段是必不可少的。其中,Linux下的双网卡绑定技术(Bonding)作为一种有效的解决方案...

    Linux双网卡绑定实现负载均衡和失效保护.pdf

    双网卡绑定是网络设备绑定的一种常见情况,即将两个物理网卡(eth0和eth1)绑定成一个逻辑网卡(bond0),以实现特定的网络配置目的。Linux系统中,通过修改网络脚本配置文件、内核参数配置文件,以及在启动脚本中...

    Linux 配置双网卡绑定实现负载均衡.docx

    在Linux系统中,配置双网卡绑定的主要目的是实现网络负载均衡和提高网络连接的冗余性。这通过使用Linux bonding驱动来实现,该驱动能够将多个网络接口设备(如网卡)绑定为单一的网络接口,从而提升网络的稳定性和...

    Linux双网卡绑定实现负载均衡详解

    Linux双网卡绑定实现负载均衡,供大家参考,具体内容如下 系统环境:CentOS release 6.9 (Final) Linux centos6 2.6.32-696.10.1.el6.x86_64 Ubuntu系统下使用ifenslave进行网卡配置,方法大同小异。 关闭...

    Linux下双网卡绑定技术实现负载均衡

    Linux下的双网卡绑定技术,也称为bonding,是一种网络冗余和负载均衡策略,它允许两块或多块网络接口卡(NICs)协同工作,形成一个逻辑上的单一网络接口。这种技术在Sun和Cisco系统中称为Trunking和Etherchannel,而...

    BoradCOM双网卡绑定驱程

    BoradCOM双网卡绑定驱动程序就是一种优化网络性能的技术解决方案,它允许两块BoradCOM网络适配器通过特定的驱动程序进行绑定,实现负载均衡、故障冗余或更高的带宽。在本案例中提到的"control suit 3"可能是指...

    Linux下双网卡绑定技术实现负载均衡和失效保护

    在Linux操作系统中,双网卡绑定(bonding)技术是一种实现网络负载均衡和冗余的解决方案,尤其适用于服务器环境,以提高网络连接的稳定性和性能。这种技术允许将多个物理网络接口(网卡)组合成一个逻辑接口,共享...

    AIX 双网卡绑定

    在IBM AIX操作系统中,双网卡绑定是一种...总的来说,AIX系统的双网卡绑定提供了网络连接的冗余和负载均衡,提高了系统的稳定性和效率。通过合理选择绑定模式和配置,可以根据业务需求实现最佳的网络性能和容错能力。

    双网卡绑定软件

    双网卡绑定技术,也称为网络接口聚合(NIC Teaming)或负载均衡,是一种网络冗余和性能优化策略。在IT领域,它被广泛应用于服务器和网络设备中,以提高网络连接的稳定性和带宽。当您提到的“双网卡绑定软件”时,...

    windows2008Broadcom双网卡绑定.pdf

    根据提供的文件信息,可以看出这篇文档主要涉及Windows Server 2008操作系统下实现双网卡绑定的相关知识。双网卡绑定是一种网络技术,也被称为网络接口卡聚合、网卡绑定或链路聚合。它能够将多块网卡的物理链路聚合...

    多网卡绑定实现负载平衡

    结合负载均衡器(如HAProxy、Nginx或硬件负载均衡设备),多网卡绑定能够进一步提高服务器的可扩展性和可用性。 总之,多网卡绑定技术是提升服务器网络性能和稳定性的有效手段,通过合理配置和选择适当的负载平衡...

    Intel双网卡绑定方法

    Intel双网卡绑定是指将两个或多个网卡组合成一个逻辑网卡,以实现负载均衡、提高网络可用性和带宽的技术。这种技术常用于服务器环境中,以提高服务器的网络性能和可靠性。 在Windows Server 2003/2008环境中,Intel...

    实现双网卡绑定

    ### 实现双网卡绑定——IBM服务器实例 在IT领域,网络配置对于保证系统的稳定性和高效性至关重要。本文将深入探讨如何在IBM服务器上实现双网卡绑定,并对其原理及步骤进行详细介绍。 #### 双网卡绑定概述 双网卡...

    linux 实现双网卡绑定

    Linux双网卡绑定,亦称为网卡聚合或Bonding,是一种通过软件手段将多张物理网卡合并成一个逻辑上的接口的技术。这一技术的核心目的是增强网络连接的稳定性和带宽,尤其是在服务器环境中,通过增加冗余性和提升网络...

    XP下双网卡绑定工具

    双网卡绑定是一种网络技术,通常用于提升网络性能或实现负载均衡。在Windows XP系统中,用户可以通过特定的工具来实现这一功能,如"XP下双网卡绑定工具"所提及的NICExpressW2KEE.exe。这个工具专门设计用于在XP环境...

    Windows双网卡绑定

    通过以上介绍可以看出,在Windows和Linux系统下实现双网卡绑定都是可行的。对于Windows系统,推荐使用Intel PROSet或者NICExpress这样的工具;而对于Linux系统,则主要通过修改配置文件的方式来实现。无论是哪种方法...

    Redhat_6.0双网卡绑定

    通过以上步骤,可以有效地在Redhat 6.0系统中实现双网卡绑定。这不仅能够提高网络连接的稳定性,还能通过负载均衡或故障转移等方式增强网络性能。需要注意的是,在实际操作过程中,根据具体的网络环境和需求,可能还...

Global site tag (gtag.js) - Google Analytics