精华内容
下载资源
问答
  • 2021-05-11 23:23:41

    《suse linux双网卡绑定设置详解》由会员分享,可在线阅读,更多相关《suse linux双网卡绑定设置详解(2页珍藏版)》请在人人文库网上搜索。

    1、suse linux双网卡绑定设置详解双网卡的绑定可以实现冗余和高可用性,在suse linux 10中和redhat linux 5中设置双网卡绑定是不太一样的,下面详解一下suse linux 下的双网卡绑定:1、首先确保两个网卡上都连接线缆并且工作是正常的,然后cd /etc/sysconfig/network下,新建一个文件vi ifcfg-bond0,输入如下内容保存BOOTPROTO=staticBROADCAST=IPADDR=172.29.141.130/25 #要绑定的ip地址NETMASK=255.255.255.128#网段的掩码NETWORK=STARTMODE=aut。

    2、oBONDING_MASTER=yesBONDING_MODULE_OPTS=mode=1 miimon=100 use_carrier=0# mode=1是主备模式 mode=0是平衡模式BONDING_SLAVE0=eth-id-68:B5:99:77:3C:66 #第一块网卡的mac地址BONDING_SLAVE1=eth-id-68:B5:99:77:3C:68 #第二块网卡的mac地址ETHTOOL_OPTIONS=MTU=NAME=REMOTE_IPADDR=USERCONTROL=no2、使用yast进入网卡的配置界面,把原有的两块网卡设置为没有ip3 、注意网关的配置,使用yast进入路由设置界面,在这里可以配置网关。4、然后输入rcnetwork restart重启网络服务5、然后输入cat /proc/net/bonding/bond0看网卡工作状态,看到bond0,eth0,eth1都是正常的就ok 了。6、输入ifconfig可以看到bond0已经运行了。7、拔到两块网卡上的任一根网线,发现网络都是连通的,自动在两块网卡上切换。注意:SUSE中不需要手动加载bonding模块。

    更多相关内容
  • 一、Linux双网卡绑定bond详解 1.1 bond 介绍 网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术 通过以下命令确定内核是否支持 bonding cat /...

    目录

    一、Linux双网卡绑定bond详解

    1.1 bond 介绍

    1.2  bond的七种模式 

    1.3 Linux下bond双网卡绑定


    一、Linux双网卡绑定bond详解

    1.1 bond 介绍

    网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术

    通过以下命令确定内核是否支持 bonding

    cat /boot/config-3.10.0-957.el7.x86_64 | grep -i bonding

    1.2  bond的七种模式 

    mode=0(balance-rr)轮询
    表示负载分担round-robin,并且是轮询的方式比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。
    优点:流量提高一倍
    缺点:需要接入交换机做端口聚合,否则可能无法使用
    特点:增加了带宽,同时支持容错能力,当有链路出问题,会把流量切换到正常的链路上。

    mode=1(active-backup)主备
    一个端口处于主状态 ,一个处于从状态,所有流量都在主链路上处理,从不会有任何流量。当主端口down掉时,从端口接手主状态。
    优点:冗余性高
    缺点:链路利用率低,两块网卡只有1块在工作
    不需要交换机端支持

    mode=2(balance-xor)(平衡策略)
    该模式将限定流量,以保证到达特定对端的流量总是从同一个接口上发出。既然目的地是通过MAC地址来决定的,因此该模式在“本地”网络配置下可以工作得很好。如果所有流量是通过单个路由器(比如 “网关”型网络配置,只有一个网关时,源和目标mac都固定了,那么这个算法算出的线路就一直是同一条,那么这种模式就没有多少意义了。),那该模式就不是最好的选择。和balance-rr一样,交换机端口需要能配置为“port channel”。这模式是通过源和目标mac做hash因子来做xor算法来选路的
    需要交换机配置聚合口
    此模式提供负载平衡和容错能力

    mode=3(broadcast)(广播策略)
    这种模式的特点是一个报文会复制两份往bond下的两个接口分别发送出去,当有对端交换机失效,我们感觉不到任何downtime,但此法过于浪费资源;不过这种模式有很好的容错机制。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题

    mode=4(802.3ad)(IEEE 802.3ad 动态链接聚合
    表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy).标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。
    特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性
    必要条件:
    • 条件1:ethtool支持获取每个slave的速率和双工设定
    • 条件2:switch(交换机)支持IEEE802.3ad Dynamic link aggregation
    • 条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式

    mode=5(balance-tlb)(适配器传输负载均衡)
    是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。
    特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。
    必要条件:
    • ethtool支持获取每个slave的速率

    mode=6(balance-alb)(适配器适应性负载均衡)
    在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的.
    特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receiveload balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。来自服务器端的接收流量也会被均衡
    mode5和mode6不需要交换机端的设置,网卡能自动聚合。mode4需要支持802.3ad。mode0,mode2和mode3理论上需要静态聚合方式。

    1.3 Linux下bond双网卡绑定

    案例一:mode=1(active-backup):一个网卡处于活动状态 ,一个处于备份状态,所有流量都在主链路上处理。当活动网卡down掉时,启用备份的网卡。

    2个物理网口分别是:ens33 、ens36
    绑定后的虚拟口是:bond0
    服务器IP是:192.168.111.100

    测试服务器IP:192.168.111.30    

    1. 设置虚拟机双网卡

    2. 进入cd /etc/sysconfig/network-scripts/目录下,复制ens33文件内容到ens36和bond0  

    Cd   /etc/sysconfig/network-scripts/

     cp   ifcfg-ens33  ifcfg-bond0        #生成一个bond0的虚拟网卡

    vim   ifcfg-bond0                #编辑该网卡内容

    3. 设置两个物理网卡

    修改ens33配置文件

    DEVICE="ens33"
    ONBOOT="yes"
    BOOTPROTO=none
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
     

    修改ens36配置文件

    DEVICE="ens36"
    ONBOOT="yes"
    BOOTPROTO=none
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
     

    4. 在/etc/modprobe.d/目录下建立bonding.conf文件,文件内容如下:
    alias bond0 bonding

    options bond0 miimon=100 mode=1

    5. vim /etc/rc.d/rc.local        #编辑该开机脚本,将eth0和eth1网卡进行绑定

    6. 关闭防火墙,并重启网卡

     7. ifconfig      #查看网卡信息

    8. cat   /proc/net/bonding/bond0      #查看模式及网卡信息

    9.  两台服务器上都安装httpd服务,并开启

    10 .再192.168.111.30 的服务器上使用: ab  -c  1000  -n  50000 http://192.168.111.100压力测试

    11. 查看192.168.111.100的状态

    使用sar -n DEV 1 2检测数据流向

    命令后面1 2 意思是:每一秒钟取1次值,取2次。

    DEV显示网络接口信息

    12.  关闭ens33 网卡 ens36接替工作

    13. 关闭ens36 ,ens33开始接替工作

    展开全文
  • Linux双网卡绑定bond详解 1、 什么是bond 网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。Kernels 2.4.12及以后的版本均供bonding模块,以前...

    Linux双网卡绑定bond详解 

    1、 什么是bond

       网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。Kernels 2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。可以通过以下命令确定内核是否支持 bonding:

    [root@lixin network-scripts]#cat /boot/config-2.6.32-573.el6.x86_64 |grep -i bonding
    CONFIG_BONDING=m

    2、 bond的模式

    bond的模式常用的有两种:

      mode=0(balance-rr)

        表示负载分担round-robin,并且是轮询的方式比如第一个包走eth0,第二个包走eth1,直到数据包发送完毕。

        优点:流量提高一倍

        缺点:需要接入交换机做端口聚合,否则可能无法使用

      mode=1(active-backup)

        表示主备模式,即同时只有1块网卡在工作。

        优点:冗余性高

        缺点:链路利用率低,两块网卡只有1块在工作

    bond其他模式:

      mode=2(balance-xor)(平衡策略)

        表示XOR Hash负载分担,和交换机的聚合强制不协商方式配合。(需要xmit_hash_policy,需要交换机配置port channel)

        特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力

      mode=3(broadcast)(广播策略)

        表示所有包从所有网络接口发出,这个不均衡,只有冗余机制,但过于浪费资源。此模式适用于金融行业,因为他们需要高可靠性的网络,不允许出现任何问题。需要和交换机的聚合强制不协商方式配合。

        特点:在每个slave接口上传输每个数据包,此模式提供了容错能力

      mode=4(802.3ad)(IEEE 802.3ad 动态链接聚合)

        表示支持802.3ad协议,和交换机的聚合LACP方式配合(需要xmit_hash_policy).标准要求所有设备在聚合操作时,要在同样的速率和双工模式,而且,和除了balance-rr模式外的其它bonding负载均衡模式一样,任何连接都不能使用多于一个接口的带宽。

        特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

        必要条件:

            条件1:ethtool支持获取每个slave的速率和双工设定

            条件2:switch(交换机)支持IEEE802.3ad Dynamic link aggregation

            条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式

      mode=5(balance-tlb)(适配器传输负载均衡)

        是根据每个slave的负载情况选择slave进行发送,接收时使用当前轮到的slave。该模式要求slave接口的网络设备驱动有某种ethtool支持;而且ARP监控不可用。

        特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

        必要条件:

            ethtool支持获取每个slave的速率

      mode=6(balance-alb)(适配器适应性负载均衡)

        在5的tlb基础上增加了rlb(接收负载均衡receiveload balance).不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的.

        特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receiveload balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。来自服务器端的接收流量也会被均衡。当本机发送ARP请求时,bonding驱动把对端的IP信息从ARP包中复制并保存下来。当ARP应答从对端到达时,bonding驱动把它的硬件地址提取出来,并发起一个ARP应答给bond中的某个slave。使用ARP协商进行负载均衡的一个问题是:每次广播 ARP请求时都会使用bond的硬件地址,因此对端学习到这个硬件地址后,接收流量将会全部流向当前的slave。这个问题可以通过给所有的对端发送更新(ARP应答)来解决,应答中包含他们独一无二的硬件地址,从而导致流量重新分布。当新的slave加入到bond中时,或者某个未激活的slave重新激活时,接收流量也要重新分布。接收的负载被顺序地分布(round robin)在bond中最高速的slave上当某个链路被重新接上,或者一个新的slave加入到bond中,接收流量在所有当前激活的slave中全部重新分配,通过使用指定的MAC地址给每个 client发起ARP应答。下面介绍的updelay参数必须被设置为某个大于等于switch(交换机)转发延时的值,从而保证发往对端的ARP应答不会被switch(交换机)阻截。

    bond模式小结:

        mode5和mode6不需要交换机端的设置,网卡能自动聚合。mode4需要支持802.3ad。mode0,mode2和mode3理论上需要静态聚合方式。

    3、 配置bond

    测试环境:

    [root@lixin ~]# cat/etc/redhat-release
    CentOS release 6.7 (Final)
    [root@lixin ~]# uname -r
    2.6.32-573.el6.x86_64

    (1)配置物理网卡

    [root@lixin network-scripts]#cat ifcfg-eth0    
    DEVICE=eth0
    TYPE=Ethernet
    ONBOOT=yes
    BOOTPROTO=none
    MASTER=bond0
    SLAVE=yes         //可以没有此字段,就需要开机执行ifenslave bond0 eth0 eth1命令了。
    [root@lixin network-scripts]#
    [root@lixin network-scripts]#cat ifcfg-eth1    
    DEVICE=eth1
    TYPE=Ethernet
    ONBOOT=yes
    BOOTPROTO=none
    MASTER=bond0
    SLAVE=yes      

    (2)配置逻辑网卡bond0

    [root@lixin network-scripts]#cat ifcfg-bond0     //需要我们手工创建
    DEVICE=bond0
    TYPE=Ethernet
    ONBOOT=yes
    BOOTPROTO=static
    IPADDR=10.0.0.10
    NETMASK=255.255.255.0
    DNS2=4.4.4.4
    GATEWAY=10.0.0.2
    DNS1=10.0.0.2

    由于没有这个配置文件我们可以使用拷贝一个ifcfg-eth1来用:cp ifcfg-{eth0,bond1}

    (3)加载模块,让系统支持bonding

    [root@lixin ~]# cat/etc/modprobe.conf  //不存在的话,手动创建(也可以放在modprobe.d下面)
    alias bond0 bonding
    options bond0 miimon=100 mode=0

    配置bond0的链路检查时间为100ms,模式为0。

    注意:

      linux网卡bonging的备份模式实验在真实机器上做完全没问题(前提是linux内核支持),但是在vmware workstation虚拟中做就会出现如下图问题。  

    配置完成后出现如上图问题,但是bond0能够正常启动也能够正常使用,只不过没有起到备份模式的效果。当使用ifdown eth0后,网络出现不通现象。

    内核文档中有说明:bond0获取mac地址有两种方式,一种是从第一个活跃网卡中获取mac地址,然后其余的SLAVE网卡的mac地址都使用该mac地址;另一种是使用fail_over_mac参数,是bond0使用当前活跃网卡的mac地址,mac地址或者活跃网卡的转换而变。  

      既然vmware workstation不支持第一种获取mac地址的方式,那么可以使用fail_over_mac=1参数,所以这里我们添加fail_over_mac=1参数

    [root@lixin etc]# cat/etc/modprobe.d/modprobe.conf
    alias bond0 bonding
    options bond0 miimon=100 mode=0fail_over_mac=1

    (4)加载bond module

    [root@lixin etc]# modprobe bonding

    (5)查看绑定结果

    [root@lixin etc]# cat/proc/net/bonding/bond0
    Ethernet Channel BondingDriver: v3.7.1 (April 27, 2011)
      
    Bonding Mode: load balancing(round-robin)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0
      
    Slave Interface: eth0
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr:00:50:56:28:7f:51
    Slave queue ID: 0
      
    Slave Interface: eth1
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr:00:50:56:29:9b:da
    Slave queue ID: 0

    4、 测试bond

       由于使用的是mode=0,负载均衡的方式,这时我们ping百度,然后断开一个网卡,此时ping不会中断。

    [root@lixin etc]# pingbaidu.com
    PING baidu.com (111.13.101.208)56(84) bytes of data.
    64 bytes from 111.13.101.208:icmp_seq=1 ttl=128 time=10.6 ms
    64 bytes from 111.13.101.208:icmp_seq=2 ttl=128 time=9.05 ms
    64 bytes from 111.13.101.208:icmp_seq=3 ttl=128 time=11.7 ms
    64 bytes from 111.13.101.208:icmp_seq=4 ttl=128 time=7.93 ms
    64 bytes from 111.13.101.208:icmp_seq=5 ttl=128 time=9.50 ms
    64 bytes from 111.13.101.208:icmp_seq=6 ttl=128 time=7.17 ms
    64 bytes from 111.13.101.208:icmp_seq=7 ttl=128 time=21.2 ms
    64 bytes from 111.13.101.208:icmp_seq=8 ttl=128 time=7.46 ms
    64 bytes from 111.13.101.208:icmp_seq=9 ttl=128 time=7.82 ms
    64 bytes from 111.13.101.208:icmp_seq=10 ttl=128 time=8.15 ms
    64 bytes from 111.13.101.208:icmp_seq=11 ttl=128 time=6.89 ms
    64 bytes from 111.13.101.208: icmp_seq=12ttl=128 time=8.33 ms
    64 bytes from 111.13.101.208:icmp_seq=13 ttl=128 time=8.65 ms
    64 bytes from 111.13.101.208:icmp_seq=14 ttl=128 time=7.16 ms
    64 bytes from 111.13.101.208:icmp_seq=15 ttl=128 time=9.31 ms
    64 bytes from 111.13.101.208:icmp_seq=16 ttl=128 time=10.5 ms
    64 bytes from 111.13.101.208:icmp_seq=17 ttl=128 time=7.61 ms
    64 bytes from 111.13.101.208:icmp_seq=18 ttl=128 time=10.2 ms
    ^C
    --- baidu.com ping statistics---
    18 packets transmitted, 18received, 0% packet loss, time 17443ms
    rtt min/avg/max/mdev = 6.899/9.417/21.254/3.170 ms
    //用另一个终端手动关闭eth0网卡,ping并没有中断
    [root@lixin etc]# !ca
    cat /proc/net/bonding/bond0
    Ethernet Channel BondingDriver: v3.7.1 (April 27, 2011)
      
    Bonding Mode: load balancing(round-robin)
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0
      
    Slave Interface: eth0
    MII Status: down
    Speed: Unknown
    Duplex: Unknown
    Link Failure Count: 1
    Permanent HW addr:00:50:56:28:7f:51
    Slave queue ID: 0
      
    Slave Interface: eth1
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr:00:50:56:29:9b:da
    Slave queue ID: 0

    //查看bond0状态,发现eth0,down了,但是bond正常

     

     

    Linux网卡配置与绑定

    Redhat Linux的网络配置,基本上是通过修改几个配置文件来实现的,虽然也可以用ifconfig来设置IP,用route来配置默认网关,用hostname来配置主机名,但是重启后会丢失。

    相关的配置文件

    /ect/hosts 配置主机名和IP地址的对应

    /etc/sysconfig/network 配置主机名和网关

    /etc/sysconfig/network-scripts/ifcfg-eth0 eth0配置文件,eth1则文件名为ifcfg-eth1,以此类推

    一、网卡配置

    假设我们要配置主机名为test,eth0的IP地址192.168.168.1/24,网关地址192.168.168.250

    则/etc/sysconfig/network文件内容如下:

    NETWORKING=yes
    HOSTNAME=test
    GATEWAY=192.168.168.250

    eth0对应的配置文件/etc/sysconfig/network-scripts/ifcfg-eth0内容如下:

    DEVICE=eth0
    BOOTPROTO=static
    IPADDR=192.168.168.1
    NETMASK=255.255.255.0
    TYPE=Ethernet
    ONBOOT=yes

    二、单网卡绑定多个IP

    有时,我们需要在一块网卡上配置多个IP,例如,在上面的例子中,我们还需要为eth0配置IP 192.168.168.2和192.168.168.3。那么需要再在/etc/sysconfig/network-scripts下新建两个配置文件:

    ifcfg-eth0:0内容如下:

    DEVICE=eth0:0
    BOOTPROTO=static
    IPADDR=192.168.168.2
    NETMASK=255.255.255.0
    ONBOOT=yes

    ifcfg-eth0:1内容如下:

    DEVICE=eth0:1
    BOOTPROTO=static
    IPADDR=192.168.168.3
    NETMASK=255.255.255.0
    ONBOOT=yes

    三、多个网卡绑定成一块虚拟网卡

    为了提供网络的高可用性,我们可能需要将多块网卡绑定成一块虚拟网卡对外提供服务,这样即使其中的一块物理网卡出现故障,也不会导致连接中断。比如我们可以将eth0和eth1绑定成虚拟网卡bond0

    首先在/etc/sysconfig/network-scripts/下创建虚拟网卡bond0的配置文件ifcfg-bond0,内容如下

    DEVICE=bond0
    BOOTPROTO=none
    BROADCAST=192.168.168.255
    IPADDR=192.168.168.1
    NETMASK=255.255.255.0
    NETWORK=192.168.168.0
    ONBOOT=yes
    TYPE=Ethernet
    GATEWAY=192.168.168.250
    USERCTL=no

    然后分别修改eth0和eth1的配置文件
    ifcfg-eth0内容:

    DEVICE=eth0
    BOOTPROTO=none
    ONBOOT=yes
    USERCTL=no
    MASTER=bond0
    SLAVE=yes

    ifcfg-eth1内容

    DEVICE=eth1
    BOOTPROTO=none
    ONBOOT=yes
    USERCTL=no
    MASTER=bond0
    SLAVE=yes

    因为linux的虚拟网卡是在内核模块中实现的,所以需要安装的时候已经装好该module。在/etc/modules.conf文件中添加如下内容(如果没有该文件,则新建一个):

    alias bond0 bonding
    options bond0 miimon=100 mode=1 primary=eth0

    其中miimon=100表示每100ms检查一次链路连接状态,如果不通则会切换物理网卡
    mode=1表示主备模式,也就是只有一块网卡是active的,只提供失效保护。如果mode=0则是负载均衡模式的,所有的网卡都是active,还有其他一些模式很少用到
    primary=eth0表示主备模式下eth0为默认的active网卡

    miimon是毫秒数,每100毫秒触发检测线路稳定性的事件。
    mode 是ifenslave的工作状态。
    一共有7种方式:
    =0: (balance-rr) Round-robin policy: (平衡抡循环策略):传输数据包顺序是依次传输,直到最后一个传输完毕, 此模式提供负载平衡和容错能力。
    =1: (active-backup) Active-backup policy:(主-备份策略):只有一个设备处于活动状态。 一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得。 此模式提供了容错能力。 
    =2:(balance-xor) XOR policy:(平衡 策略): 传输根据原地址布尔值选择传输设备。 此模式提供负载平衡和容错能力。 
    =3:(broadcast) broadcast policy:  (广播策略):将所有数据包传输给所有接口。 此模式提供了容错能力。  
    =4:(802.3ad) IEEE 802.3ad Dynamic link aggregation.   IEEE 802.3ad 动态链接聚合:创建共享相同的速度和双工设置的聚合组。(我不是太懂。)
    =5:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡):没有特殊策略,第一个设备传不通就用另一个设备接管第一个设备正在处理的mac地址,帮助上一个传。
    =6:(balance-alb) Adaptive load balancing: (适配器传输负载均衡):大致意思是包括mode5,bonding驱动程序截获 ARP 在本地系统发送出的请求,用其中之一的硬件地址覆盖从属设备的原地址。就像是在服务器上不同的人使用不同的硬件地址一样。

    这些选项可以用命令:# modinfo bonding 来查看

    最后,在/etc/rc.local中加入

    modprobe bonding miimon=100 mode=1

    重启机器后可以看到虚拟网卡已经生效,可以通过插拔两个物理网卡的网线来进行测试,不过linux中网卡接管的时间好象比较长

    ====================================================

    需要说明的是如果想做成负载均衡,仅仅设置这里modprode bonding miimon=100 mode=0是不够的,还需要设置交换机的端口.

     

    转载于:https://www.cnblogs.com/sinsenliu/p/9166405.html

    展开全文
  • Linux双网卡绑定配置bond,以及bridge

    系统版本

    #  cat /etc/redhat-release
    CentOS Linux release 7.6.1810 (Core)

    相关网卡:

    em1

    em2

    关闭防火墙

    systemctl stop firewalld 

    systemctl disable firewalld

    关闭selinux

    setenforce 0

    sed -i ‘s/SELINUX=enforcing/SELINUX=disabled/‘ /etc/selinux/config

    禁用NetworkManager

    systemctl stop NetworkManager

    systemctl disable NetworkManager

    配置bond参数

    vim /etc/modprobe.d/bond.conf

    alias bond0 bonding
    options bond0 miimon=100 mode=6

    mode的几种模式

     0 (balance-rr模式)网卡的负载均衡模式
     1 (active-backup模式)网卡的容错模式
     2 (balance-xor模式)需要交换机支持
     3 (broadcast模式)
     4 (IEEE 802.3ad动态链路聚合模式)需要交换机支持
     5 自适应传输负载均衡模式
     6 网卡虚拟化方式

    编辑em1网卡

    cd /etc/sysconfig/network-scripts

    vim ifcfg-em1

    TYPE=Ethernet
    BOOTPROTO=none
    DEFROUTE=yes
    NAME=em1
    DEVICE=em1
    ONBOOT=yes
    NM_CONTROLLED=no
    USERCTL=no
    MASTER=bond0
    SLAVE=yes

    编辑em2网卡

    vim ifcfg-em2

    TYPE=Ethernet
    BOOTPROTO=none
    DEFROUTE=yes
    NAME=em2
    DEVICE=em2
    ONBOOT=yes
    NM_CONTROLLED=no
    USERCTL=no
    MASTER=bond0
    SLAVE=yes

    配置bond0

     vim ifcfg-bond0

    fail_over_mac=1
    mode=active-backup
    TYPE=Bond
    NAME=Bond
    DEVICE=bond0
    NM_CONTROLLED=no
    BONDING_MASTER=yes
    BOOTPROTO=none
    NM_CONTROLLED=no
    BRIDGE=br0
    ONBOOT=yes
    USERCTL=no
    PEERDNS=yes

    由于要用的kvm相关,要配置网桥

    配置br0

    TYPE=Bridge
    DEVICE=br0
    #PROXY_METHOD=none
    #BROWSER_ONLY=no
    BOOTPROTO=static
    DEFROUTE=yes
    NAME=br0
    ONBOOT=yes
    IPADDR=xxx.xxx.xxx.xxx
    PREFIX=24
    GATEWAY=xxx.xxx.xxx.xxx

    PREFIX=24相当于NETMASK=255.255.255.0

    展开全文
  • 主要为大家详细介绍了Linux双网卡绑定实现负载均衡,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
  • centos 7.5双网卡绑定

    2019-01-03 13:07:47
    在centos linux7.5操作系统层面上利用bond技术构建双网卡绑定
  • 网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。kernels 2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。 二、bond的配置...
  • suse linux双网卡绑定设置详解双网卡的绑定可以实现冗余和高可用性,在suse linux 10中和redhat linux 5中设置双网卡绑定是不太一样的,下面详解一下suse linux 下的双网卡绑定:步骤1:进入到网络配置目录# cd /etc...
  • 在我们日常Linux使用中,一般对于生产网都会使用双网卡或多网卡接入,这样既能添加网络带宽,同时又能做相应的冗余,可谓好处多多。而一般我们都会使用Linux操作系统下自带的网卡绑定模式。这一点不像Windows2008,...
  • 1 编辑/etc/modprobe.conf在/etc/modprobe.conf里加入如下两行:alias bond0 bondingoptions bond0 mode=1 miimon=100 use_carrier=02 创建bond0虚拟设备vim /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond...
  • Linux-bond网络配置(双网卡绑定

    千次阅读 2021-05-17 20:41:31
    摘要网卡bond是通过把多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡。在应用部署中是一种常用的技术。bond模式Mode=0(balance-rr) 表示负载分担round-robin,和交换机的聚合强制不协商的方式...
  • 详解Linux双网卡绑定bond0

    万次阅读 2018-06-08 16:42:32
     网卡bond是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。Kernels 2.4.12及以后的版本均供bonding模块,以前的版本可以通过patch实现。2、实现原理:...
  • CentOS7双网卡绑定bond

    2022-04-14 15:01:31
    CentOS7双网卡绑定bond1.bond简介 生产环境必须提供 7×24 小时的网络传输服务。借助于网卡绑定技术,不仅可以提高网络传输速度,更重要的是,还可以确保在其中一块网卡出现故障时,依然可以正常提供网络服务。假设...
  • Linux 配置双网卡绑定,实现负载均衡 1、Bond的工作模式 Linux bonding驱动提供了一个把多个网络接口设备捆绑为单个的网络接口设置来使用,用于网络负载均衡及网络冗余。 bonding一共有7种工作模式(mode): 1...
  • redhat8.0双网卡绑定技术bond模式

    千次阅读 2020-05-10 13:16:40
    在英语中,bond的意思有团结的意思,但是在网卡绑定技术中 bond的意思是:是通过多张网卡绑定为一个逻辑网卡,实现本地网卡的冗余,带宽扩容和负载均衡,在生产场景中是一种常用的技术。 bond的模式有6种 其中主要...

空空如也

空空如也

1 2 3 4 5 ... 10
收藏数 195
精华内容 78
关键字:

linux双网卡绑定bond详解