- 浏览: 322578 次
- 性别:
- 来自: 北京
文章分类
最新评论
-
chen3888015:
更方便、更实用的IDC机房服务器监控软件UNNOC -
PV_love:
沙发一个,看的人多,没人顶
Oracle查询优化 -
sanpic:
好文章,好东西
关键点的第5条,logfile,少打了个字母f ...
oracle create database -
kimmking:
lz不厚道,从dell网站复制过来的。
DELL R900 服务器 RAID 配置详解 -
wxq594808632:
记性不好...
DELL R900 服务器 RAID 配置详解
Linux双网卡绑定实现就是使用两块网卡虚拟成为一块网卡,这个聚合起来的设备看起来是一个单独的以太网接口设备,通俗点讲就是两块网卡具有相同的IP地址而并行链接聚合成一个逻辑链路工作。其实这项技术在Sun和Cisco中早已存在,被称为Trunking和Etherchannel技术,在Linux的2.4.x的内核中也采用这这种技术,被称为bonding。bonding技术的最早应用是在集群——beowulf上,为了提高集群节点间的数据传输而设计的。下面我们讨论一下bonding 的原理,什么是bonding需要从网卡的混杂(promisc)模式说起。我们知道,在正常情况下,网卡只接收目的硬件地址(MAC Address)是自身Mac的以太网帧,对于别的数据帧都滤掉,以减轻驱动程序的负担。但是网卡也支持另外一种被称为混杂promisc的模式,可以接收网络上所有的帧,比如说tcpdump,就是运行在这个模式下。bonding也运行在这个模式下,而且修改了驱动程序中的mac地址,将两块网卡的Mac地址改成相同,可以接收特定mac的数据帧。然后把相应的数据帧传送给bond驱动程序处理。
绑定的前提条件:芯片组型号相同,而且网卡应该具备自己独立的BIOS芯片
1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0
[root@rhas5 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0
将第一行改成 DEVICE=bond0
# cat ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
IPADDR=172.31.0.13
NETMASK=255.255.252.0
BROADCAST=172.31.3.254
ONBOOT=yes
USERCTL=no
TYPE=Ethernet
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=static
SLAVE=yes
MASTER=bond0
编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=static
SLAVE=yes
MASTER=bond0
3.# vi /etc/modules.conf (linux其他版本用这个)
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
加入下列两行
alias bond0 bonding
options bond0 miimon=100 mode=1 primary=eth0
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
4.# vi /etc/modprobe.conf
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
加入下列两行
alias bond0 bonding
options bond0 miimon=100 mode=1 use_carrier=0
缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。
当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。
而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。
为保证能够其他版本可用,我们两个都编辑,不影响使用。
1.创建虚拟网卡
编辑虚拟网络接口配置文件,指定网卡IP
vi /etc/sysconfig/ network-scripts/ ifcfg-bond0
[root@rhas5 root]# cp /etc/sysconfig/network-scripts/ifcfg-eth0 ifcfg-bond0
2.编辑虚拟网卡和物理网卡
#vi ifcfg-bond0
将第一行改成 DEVICE=bond0
# cat ifcfg-bond0
DEVICE=bond0
BOOTPROTO=static
IPADDR=133.96.5.76
NETMASK=255.255.252.224
GATEWAY=133.96.5.67
BROADCAST=133.96.5.95
ONBOOT=yes
USERCTL=no
TYPE=Ethernet
这里要注意,不要指定单个网卡的IP 地址、子网掩码或网卡 ID。将上述信息指定到虚拟适配器(bonding)中即可。
编辑物理网卡eth0,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=static
SLAVE=yes
MASTER=bond0
USERCTL=no
编辑物理网卡eth1,删除多余的内容,只留下如下内容。包括空格和注释。
[root@rhas5 network-scripts]# cat ifcfg-eth1
DEVICE=eth0
ONBOOT=yes
BOOTPROTO=static
SLAVE=yes
MASTER=bond0
USERCTL=no
3.# vi /etc/modules.conf (linux其他版本用这个)
编辑 /etc/modules.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
加入下列两行
alias bond0 bonding
options bond0 miimon=100 mode=1 primary=eth0
说明:miimon是用来进行链路监测的。 比如:miimon=100,那么系统每100ms监测一次链路连接状态,如果有一条线路不通就转入另一条线路;mode的值表示工作模式,他共有0,1,2,3四种模式,常用的为0,1两种。
mode=0表示load balancing (round-robin)为负载均衡方式,两块网卡都工作。
mode=1表示fault-tolerance (active-backup)提供冗余功能,工作方式是主备的工作方式,也就是说默认情况下只有一块网卡工作,另一块做备份.
bonding只能提供链路监测,即从主机到交换机的链路是否接通。如果只是交换机对外的链路down掉了,而交换机本身并没有故障,那么bonding会认为链路没有问题而继续使用
4.# vi /etc/modprobe.conf
编辑 /etc/modprobe.conf 文件,加入如下一行内容,以使系统在启动时加载bonding模块,对外虚拟网络接口设备为 bond0
加入下列两行
alias bond0 bonding
options bond0 miimon=100 mode=1 use_carrier=0
缺省地,bonding会启用use_carrier选项,这将使得bonding信任设备来维护载波状态。
当启用use_carrier,bonding将会永远认为链路是正常的,而不管它们的实际状态。
而且,某些驱动虽然支持netif_carrier,但并不实时维护它,比如只是以某个固定的间隔轮训。在这种情况下,miimon会检测到链路异常,但是可能在某个很长的时间间隔后,如果发现miimon很慢才能检测到链路异常,尝试着设置use_carrier=0,看看能不能改善。如果可以改善,则很可能是驱动需要一个很长的固定间隔才会检查载波状态,而且没有缓存MII寄存器的值(因此当use_carrier=0时查询寄存器可以正常工作);如果use_carrier=0不能解决问题,则可能是驱动缓存了MII寄存器的值,或者是其它的问题。
为保证能够其他版本可用,我们两个都编辑,不影响使用。
重新启动机器 如果成功在终端命令行下输入: ifconfig -a |more ,查看如果bond0和eth0、eth1的mac地址相同,那么我们设置成功否则十有八九是失败的。
还有要注意一定要手工敲打,如果批量修改注意权限,如是批量替换要记得删除原文件重新启动后再替换。否则系统会使用swap分区缓存的文件。
发表评论
-
linux 常见错误解决方法
2010-12-27 11:20 405610、pam 11、拒绝ssh登录(用户)a./etc/s ... -
理解 Linux 配置文件
2010-09-29 16:03 1452介绍 每个 Linux 程序都是一个可执行文件,它含 ... -
linux iscsi initiator 安装配置
2010-06-24 15:28 4378实现环境:vmware workstation, ... -
iscsi配置
2010-06-17 16:31 19861 指定连接iSCSI的前兆网口IP, 与IP-SAN的端口 ... -
Linux 2.6.31内核优化-2
2010-03-24 14:43 2455Device Drivers ---> Gene ... -
Linux 2.6.31内核优化-1
2010-03-24 14:42 3142介绍 本文档是一篇关于Linux Kernel 2.6. ... -
solaris 常用检查系统命令
2010-03-10 15:57 2387/usr/platform/sun4u/sbin/prt ... -
vsftpd配置文件
2010-02-09 16:23 1522vsftpd配置文件采用“#” ... -
solaris10 xmanager登录
2010-01-29 10:48 10141. 关闭默认的cde服务 ... -
ubuntu美化grub
2009-12-24 16:44 946安装grub-splashimages,只是集成了一套 ... -
linux内核参数
2009-12-21 15:58 1219以下是内核的主要配置 ... -
Consistent Non-Locking Reads 与Locking Reads的区别
2009-11-30 09:08 993一直以来,都认为mysql 在普通的select下会根据主键 ... -
大量LAST_ACK 分析过程
2009-11-30 09:06 18499现象:在netstat的时候发现大量处于LAST_ACK状态的 ... -
阵列Lun
2009-11-10 11:26 1205a、lun的概念 lun的全称是logical ... -
TAR命令参数详解
2009-11-05 09:58 2852tar 程序用于储存或展开 tar 存档文件。存档文件可放在磁 ... -
linux下无法在分区中创建新文件问题
2009-10-20 09:13 2890linux下无法在分区中创建新文件问题 故障现象: ... -
vim使用技巧
2009-10-09 14:09 2168读本文之前请注意: 1. 本文的目标是提供一些vim的使用技 ... -
基于linux构建一个多功能(防火墙/防毒墙/进出邮件扫描/GFW穿越)透明网关
2009-09-27 09:07 997基于linux 构建一个全功能(防火墙/防毒墙/进出邮件 ... -
Rhythmbox, Totem 不支持 mp3的解决办法
2009-09-08 11:01 1375为什么 Linux 不支持 mp3 呢?这个问题在 Linux ... -
LEMP构建高性能WEB服务器
2009-08-24 13:39 1157平台搭建环境 : CentOS5.2 32/x86_6 ...
相关推荐
### Linux双网卡绑定实现负载均衡和失效保护 #### 一、引言 在现代网络环境中,为了提高网络连接的可靠性和性能,采用多种技术手段是必不可少的。其中,Linux下的双网卡绑定技术(Bonding)作为一种有效的解决方案...
双网卡绑定是网络设备绑定的一种常见情况,即将两个物理网卡(eth0和eth1)绑定成一个逻辑网卡(bond0),以实现特定的网络配置目的。Linux系统中,通过修改网络脚本配置文件、内核参数配置文件,以及在启动脚本中...
在Linux系统中,配置双网卡绑定的主要目的是实现网络负载均衡和提高网络连接的冗余性。这通过使用Linux bonding驱动来实现,该驱动能够将多个网络接口设备(如网卡)绑定为单一的网络接口,从而提升网络的稳定性和...
Linux双网卡绑定实现负载均衡,供大家参考,具体内容如下 系统环境:CentOS release 6.9 (Final) Linux centos6 2.6.32-696.10.1.el6.x86_64 Ubuntu系统下使用ifenslave进行网卡配置,方法大同小异。 关闭...
Linux下的双网卡绑定技术,也称为bonding,是一种网络冗余和负载均衡策略,它允许两块或多块网络接口卡(NICs)协同工作,形成一个逻辑上的单一网络接口。这种技术在Sun和Cisco系统中称为Trunking和Etherchannel,而...
BoradCOM双网卡绑定驱动程序就是一种优化网络性能的技术解决方案,它允许两块BoradCOM网络适配器通过特定的驱动程序进行绑定,实现负载均衡、故障冗余或更高的带宽。在本案例中提到的"control suit 3"可能是指...
在Linux操作系统中,双网卡绑定(bonding)技术是一种实现网络负载均衡和冗余的解决方案,尤其适用于服务器环境,以提高网络连接的稳定性和性能。这种技术允许将多个物理网络接口(网卡)组合成一个逻辑接口,共享...
在IBM AIX操作系统中,双网卡绑定是一种...总的来说,AIX系统的双网卡绑定提供了网络连接的冗余和负载均衡,提高了系统的稳定性和效率。通过合理选择绑定模式和配置,可以根据业务需求实现最佳的网络性能和容错能力。
双网卡绑定技术,也称为网络接口聚合(NIC Teaming)或负载均衡,是一种网络冗余和性能优化策略。在IT领域,它被广泛应用于服务器和网络设备中,以提高网络连接的稳定性和带宽。当您提到的“双网卡绑定软件”时,...
根据提供的文件信息,可以看出这篇文档主要涉及Windows Server 2008操作系统下实现双网卡绑定的相关知识。双网卡绑定是一种网络技术,也被称为网络接口卡聚合、网卡绑定或链路聚合。它能够将多块网卡的物理链路聚合...
结合负载均衡器(如HAProxy、Nginx或硬件负载均衡设备),多网卡绑定能够进一步提高服务器的可扩展性和可用性。 总之,多网卡绑定技术是提升服务器网络性能和稳定性的有效手段,通过合理配置和选择适当的负载平衡...
Intel双网卡绑定是指将两个或多个网卡组合成一个逻辑网卡,以实现负载均衡、提高网络可用性和带宽的技术。这种技术常用于服务器环境中,以提高服务器的网络性能和可靠性。 在Windows Server 2003/2008环境中,Intel...
### 实现双网卡绑定——IBM服务器实例 在IT领域,网络配置对于保证系统的稳定性和高效性至关重要。本文将深入探讨如何在IBM服务器上实现双网卡绑定,并对其原理及步骤进行详细介绍。 #### 双网卡绑定概述 双网卡...
Linux双网卡绑定,亦称为网卡聚合或Bonding,是一种通过软件手段将多张物理网卡合并成一个逻辑上的接口的技术。这一技术的核心目的是增强网络连接的稳定性和带宽,尤其是在服务器环境中,通过增加冗余性和提升网络...
双网卡绑定是一种网络技术,通常用于提升网络性能或实现负载均衡。在Windows XP系统中,用户可以通过特定的工具来实现这一功能,如"XP下双网卡绑定工具"所提及的NICExpressW2KEE.exe。这个工具专门设计用于在XP环境...
通过以上介绍可以看出,在Windows和Linux系统下实现双网卡绑定都是可行的。对于Windows系统,推荐使用Intel PROSet或者NICExpress这样的工具;而对于Linux系统,则主要通过修改配置文件的方式来实现。无论是哪种方法...
通过以上步骤,可以有效地在Redhat 6.0系统中实现双网卡绑定。这不仅能够提高网络连接的稳定性,还能通过负载均衡或故障转移等方式增强网络性能。需要注意的是,在实际操作过程中,根据具体的网络环境和需求,可能还...