`
emcome
  • 浏览: 304128 次
  • 性别: Icon_minigender_1
  • 来自: 重庆
社区版块
存档分类
最新评论

在RHEL5服务器系统下双网卡使用bonding

阅读更多

转自:http://www.wangchao.net.cn/bbsdetail_1786805.html

 

所谓bonding,就是将多块网卡绑定同一IP地址对外提供服务,可以实现高可用或者负载均衡。当然,直接给两块网卡设置同一IP地址是不可能的。通过 bonding,虚拟一块网卡对外提供连接,物理网卡的被修改为相同的MAC地址。Kernels 2.4.12及以后的版本均提供bonding模块,以前的版本可以通过patch实现。
  1.确认你目前使用的网卡,检查/etc/sysconfig/network-scripts目录下以ifcfg-开头的文件,应该为eth0, eth1...
  2.配置虚拟网卡bond0
  可以使用DHCP,也可以配置static IP,最好通过vi编辑配置文件
  
  [root@server1 ~]# cd /etc/sysconfig/network-scripts

写道
[root@server1 network-scripts]# cat ifcfg-bond0
  DEVICE=bond0
  BOOTPROTO=none
  ONBOOT=yes
  NETWORK=192.168.0.0
  NETMASK=255.255.255.0
  IPADDR=192.168.0.10
  USERCTL=no
  GATEWAY=192.168.0.254
  TYPE=Ethernet
 

  3.修改eth0, eth1配置文件
  
  [root@server1 network-scripts]# ifcfg-eth0

写道

 

写道
DEVICE=eth0
  BOOTPROTO=none
  ONBOOT=yes
  MASTER=bond0
  SLAVE=yes
  USERCTL=yes
 

  [root@server1 network-scripts]# ifcfg-eth1

写道
DEVICE=eth1
  BOOTPROTO=none
  ONBOOT=yes
  MASTER=bond0
  SLAVE=yes
  USERCTL=yes
 

   4.将新添加的bond0设备加入modprobe.conf中,以便kernel识别。加入设置参数,miimon值表示两块网卡相互监测的时间,以 ms为单位。mode值为工作模式,可设置为高可用还是负载均衡,0为高可用(默认值),1为负载均衡,另外还有一种XOR模式。
  alias bond0 bonding
  options bond0 miimon=100 mode=1
  文章来源: baike.duba.net

 

但是这样在外网ping的时候会有一个小问题,不不知道如何解决。。

写道
$ ping 10.10.10.150
PING 10.10.10.150 (10.10.10.150) 56(84) bytes of data.
64 bytes from 10.10.10.150: icmp_seq=1 ttl=64 time=0.410 ms
64 bytes from 10.10.10.150: icmp_seq=1 ttl=64 time=0.501 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=2 ttl=64 time=0.266 ms
64 bytes from 10.10.10.150: icmp_seq=2 ttl=64 time=0.329 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=3 ttl=64 time=0.258 ms
64 bytes from 10.10.10.150: icmp_seq=3 ttl=64 time=0.316 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=4 ttl=64 time=0.454 ms
64 bytes from 10.10.10.150: icmp_seq=4 ttl=64 time=0.672 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=5 ttl=64 time=0.228 ms
64 bytes from 10.10.10.150: icmp_seq=5 ttl=64 time=0.287 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=6 ttl=64 time=0.270 ms
64 bytes from 10.10.10.150: icmp_seq=6 ttl=64 time=0.351 ms (DUP!)
64 bytes from 10.10.10.150: icmp_seq=7 ttl=64 time=0.460 ms
64 bytes from 10.10.10.150: icmp_seq=7 ttl=64 time=0.684 ms (DUP!)

 ping 的时候会有两个回复。。不知道如何解决。。

分享到:
评论

相关推荐

    rhel centos 6系列双网卡绑定文档并附脚本

    在Linux操作系统中,特别是在服务器环境中,双网卡绑定(Bonding)是一种常用的技术,它可以将两个或多个网络接口(NICs)组合成一个逻辑接口,从而提供更高的带宽、冗余性和可靠性。在这个场景中,我们关注的是RHEL...

    常用操作系统双网卡绑定方法

    在本篇内容中,我们将会了解到在不同版本的Linux操作系统(RHEL5.7、RHEL6、SUSE10、SUSE11)以及Windows系统下进行双网卡绑定设置的方法。 首先,对于RHEL5.7 Linux系统,网卡绑定的配置通常涉及到修改网络配置...

    CentOS7和6双网卡绑定.pdf

    在 CentOS7 中,双网卡绑定技术使用 teaming 技术实现,而在 RHEL6/CentOS6 中,使用的是 bonding 技术。teaming 技术是一种较新的技术,提供了更好的性能和灵活性。 二、双网卡绑定模式 双网卡绑定技术提供了多种...

    Linux双网卡绑定

    ### Linux双网卡绑定知识点详解 #### 一、双网卡绑定的概念与作用 ...以上是对Linux双网卡绑定配置过程的详细介绍,通过以上步骤,可以在RHEL6系统中成功实现双网卡的绑定,从而提升系统的网络性能和稳定性。

    Centos7/RHEL7双网卡绑定的方法

    双网卡绑定技术在centos7中使用了teaming技术,而在rhel6/centos7中使用的是bonding技术,在centos7中双网卡绑定既能使用teaming也可以使用bonding,这里推荐使用teaming技术,方便与查看和监控。 2. 原理 这里介绍...

    linux双网卡绑定配置

    本文将详细介绍在Red Hat Enterprise Linux (RHEL)系统中如何配置Linux双网卡绑定。 #### 二、Bonding 驱动概述 Linux bonding驱动为用户提供了一种将多个网络接口(例如eth0、eth1)合并为一个逻辑上绑定接口的...

    RedHat安装双网卡绑定数据库安装手册.doc

    《RedHat安装双网卡绑定数据库安装手册》文档主要涵盖了在Red Hat Enterprise Linux (RHEL) 6版本中进行系统安装、双网卡绑定以及数据库安装的详细步骤。以下是根据文档内容提取的关键知识点: 1. **安装选项**: ...

    Oracle_11gR2_RAC+DG_11.2.0.4的安装与配置(DELL_R910_RHEL_6.5) .docx

    在DELL R910服务器上使用Red Hat Enterprise Linux 6.5操作系统进行安装和配置,本文档提供了一步步的实操教程。 **一、目的** 本教程旨在指导用户成功地在RHEL 6.5系统上安装Oracle 11g Release 2 (11.2.0.4) RAC...

    cluster安装配置手册范本.pdf

    4. **网络配置**:为了实现双网卡冗余,使用bonding技术将eth0和eth1配置为slave设备,形成bond0主设备。bond0的工作模式设为mode=1(负载均衡),miimon=100表示每100ms检查链路状态以确保高可用性。 5. **安装包...

Global site tag (gtag.js) - Google Analytics