精华内容
下载资源
问答
  • 2021-06-30 10:17:37

    配置bond方法

    原始配置文件1

    DEVICE="eth0"
    BOOTPROTO="dhcp"
    HWADDR="00:0C:29:04:AE:65"
    IPV6INIT="no"
    NM_CONTROLLED="no"
    ONBOOT="yes"
    TYPE="Ethernet"

    原始配置文件2

    DEVICE="eth1"
    BOOTPROTO="dhcp"
    HWADDR="00:0C:29:04:AE:6F"
    IPV6INIT="no"
    NM_CONTROLLED="no"
    ONBOOT="yes"
    TYPE="Ethernet"

    创建/etc/sysconfig/network-scripts/ifcfg-bond0
     

    DEVICE="bond0"
    BOOTPROTO="dhcp"
    IPV6INIT="no"
    NM_CONTROLLED="no"
    ONBOOT="yes"
    TYPE="bond"
    BONDING_MASTER=yes
    BONDING_OPTS="mode=0 miimon=100"
    DEVICE="eth0"
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
    BOOTPROTO=none
    ONBOOT=yes
    HWADDR="00:0C:29:04:AE:65"
    NM_CONTROLLED="no"
    DEVICE="eth1"
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
    BOOTPROTO=none
    ONBOOT=yes
    HWADDR="00:0C:29:04:AE:6F"
    NM_CONTROLLED="no"

    换模式重启就可以了
    检查bond模式
    cat /proc/net/bonding/bond0
     

    更多相关内容
  • linux bond配置

    2021-05-14 02:18:57
    执行IntelMPI自带的环境变量配置脚本 $ source /opt/intel/compilers_and_libraries/linux/bin/compilervars.sh intel64 $ which mpicc /opt/intel/impi/2018.3.222/bin64/mpicc 设置MPI编译参数 完成MPI环境变量...

    SCC(超级计算集群)简介 SCC概述 超级计算集群(Super Computing Cluster,SCC)使用高速RDMA网络互联的CPU以及GPU等异构加速设备,面向高性能计算、人工智能/机器学习、科学/工程计算、数据分析、音视频处理等应用,提供极致计算性能和并行效率的计算集群服务。

    SCC实例类型 类型 CPU Memory 网络 存储 适用场景 ecs.scch5.16xlarge 64核 Skylake Xeon Gold 6149 3.1GHz 192GB 50 Gbps RDMA 高效云盘(容量可选) + SSD云盘(容量可选) CPU主频高,单核计算能力强,适用于多数计算密集型应用场景 ecs.sccg5.24xlarge 96核 Skylake Xeon Platinum 8163 2.5GHz 384GB 50 Gbps RDMA 高效云盘(容量可选) + SSD云盘(容量可选) CPU核数多,内存容量大,适用于内存需求较高、扩展性好的科学计算场景以及高并发的批处理场景 使用SCC实例创建E-HPC集群 创建过程 目前配备有SCC实例的可用区主要有:华东1可用区H、华东2可用区B、华北1可用区C、华北3可用区A。考虑到库存的变化,用户在创建集群之前可以通过ECS管理控制台查看SCC实例在不同可用区的分布情况。 从E-HPC管理控制台进入集群创建页面,在计算节点下划栏中勾选SCC实例。 勾选SCC注意:上图中SCC实例的CPU核数是按照vCPU数目来显示的,而实际交付的SCC实例为超线程关闭(HT off)状态,即scch5.16xlarge和sccg5.24xlarge的CPU核数分别为32物理核和48物理核。

    后续创建过程请参考E-HPC集群创建与配置 硬件信息 相比于普通ECS实例,SCC实例的核心硬件升级之一在于配备了50Gbps的RoCE(RDMA over Converged Ethernet)网络,故网络信息与普通ECS实例相比有明显差异。

    网络硬件信息 相比于普通ECS实例,SCC实例同时拥有10Gbps VPC网络和50Gbps RoCE网络的网口,因此在会ECS管理控制台上会同时显示两个IP地址。 SCC IP

    正常的SCC实例会显示如下网口信息,其中bond0为RoCE网口,eth0为VPC网口。 SCC网口信息

    网络连通性验证 同一个E-HPC集群下的SCC实例间的VPC网络IP和RoCE网络IP均可以相互ping通 同一个E-HPC集群下的SCC实例间可以通过VPC网络IP和RoCE网络IP进行ssh登陆 RoCE网络性能测试 测试RoCE网络的峰值带宽与延迟 带宽测试样例 ##读带宽测试 ib_read_bw -a -q 20 --report_gbits ##服务端compute0执行 ib_read_bw -a -q 20 --report_gbits compute0 ##用户端compute1执行 ##写带宽测试 ib_write_bw -a -q 20 --report_gbits ##服务端compute0执行 ib_write_bw -a -q 20 --report_gbits compute0 ##用户端compute1执行 延迟测试样例 ##读延迟测试 ib_read_lat -a ##服务端compute0执行 ib_read_lat -F -a compute0 ##用户端compute1执行 ##写延迟测试 ib_write_lat -a ##服务端compute0执行 ib_write_lat -F -a compute0 ##用户端compute1执行 监测RoCE网络的实际带宽利用情况 在SCC实例root用户下执行rdma_monitor -s实时获取RoCE网络信息 rdma_monitor

    使用E-HPC性能监控与分析引擎集谛来监测各SCC实例RoCE网络带宽随时间的变化情况。 集谛监测RoCE

    在SCC集群上编译和运行MPI程序 由于SCC实例同时支持50Gbps RoCE网络和10Gbps VPC网络,用户在执行跨节点MPI程序时可能会遇到节点间数据流量默认走VPC网口的情况,这里我们推荐用户在SCC集群上使用IntelMPI来编译和运行跨节点MPI程序。

    编译跨节点MPI程序 安装IntelMPI E-HPC集成了IntelMPI 2018版本,用户只需在E-HPC控制台集群创建或软件管理功能界面中勾选IntelMPI 2018进行安装即可。

    intelmpi

    配置MPI环境变量 方法一:使用E-HPC集成的Module管理工具 $ module avail --------------------------------- /opt/ehpcmodulefiles -------------------------------- intel-mpi/2018 $ module load intel-mpi/2018 $ which mpicc /opt/intel/impi/2018.3.222/bin64/mpicc 方法二:执行IntelMPI自带的环境变量配置脚本 $ source /opt/intel/compilers_and_libraries/linux/bin/compilervars.sh intel64 $ which mpicc /opt/intel/impi/2018.3.222/bin64/mpicc 设置MPI编译参数 完成MPI环境变量配置后,需要在软件Makefile或预编译脚本中指定MPI编译器的相对/绝对路径,然后执行编译过程。

    -DCMAKE_C_COMPILER=mpicc -DCMAKE_CXX_COMPILER=mpicxx 运行跨节点MPI程序 对于在E-HPC软件环境中采用IntelMPI编译的软件,提交任务时无需额外指定网口参数,便可以直接通过RoCE网络进行跨节点数据通信。 #!/bin/sh #PBS -j oe #PBS -l select=:ncpus=:mpiprocs= module load intel-mpi/2018 mpirun 对于在用户本地环境编译的软件或预编译的商用软件,可以在提交MPI任务时指定RoCE网卡信息来避免可能出现的数据流量不走RoCE网络或网卡设备not found等问题。 #!/bin/sh #PBS -j oe #PBS -l select=:ncpus=:mpiprocs= export I_MPI_FABRICS=shm:dapl module load intel-mpi/2018 mpirun -genv I_MPI_DAPL_PROVIDER ofa-v2-mlx5_bond_0 用户可以使用集谛性能监测功能对SCC实例的CPU利用率、访存带宽、RoCE网络带宽等性能数据进行实时监测。 SCC性能

    展开全文
  • 本文主要介绍linux bond配置步骤中的七种bond模式,希望对您的学习有所帮助。
  • linux bond配置步骤,七种bond模式说明

    千次阅读 2020-06-05 09:27:19
    linux bond配置步骤,七种bond模式说明 https://www.cnblogs.com/suzhigang/p/6140018.html 一、网卡绑定: 第一步:创建一个ifcfg-bondX #vi/etc/sysconfig/network-scripts/ifcfg-bond0 DEVICE=bond0 ...

    linux bond配置步骤,七种bond模式说明

    https://www.cnblogs.com/suzhigang/p/6140018.html

    一、网卡绑定:

    第一步:创建一个ifcfg-bondX

    复制代码

    # vi /etc/sysconfig/network-scripts/ifcfg-bond0
    DEVICE=bond0
    BONDING_OPTS="mode=0 miimon=100"
    BOOTPROTO=none
    ONBOOT=yes
    BROADCAST=192.168.0.255
    IPADDR=192.168.0.180
    NETMASK=255.255.255.0
    NETWORK=192.168.0.0
    USERCTL=no
    BONDING_OPTS="mode=0 miimon=100" ,mode有多种模式实现不同的功能,

    复制代码

    第二步:修改/etc/sysconfig/network-scripts /ifcfg-ethX

    复制代码

    # vi /etc/sysconfig/network-scripts /ifcfg-eth0
    DEVICE=eth0
    BOOTPROTO=none
    ONBOOT=yes
    MASTER=bond0
    SLAVE=yes
    USERCTL=no
    # vi /etc/sysconfig/network-scripts /ifcfg-eth1
    DEVICE=eth1
    BOOTPROTO=none
    ONBOOT=yes
    MASTER=bond0
    SLAVE=yes
    USERCTL=no

    复制代码

    第三步:配置/etc/modprobe.conf,添加alias bond0 bonding 

    复制代码

    alias scsi_hostadapter mptbase
    alias scsi_hostadapter1 mptspi
    alias scsi_hostadapter2 ata_piix
    alias scsi_hostadapter3 ahci
    alias net-pf-10 off
    alias ipv6 off
    options ipv6 disable=1
    alias eth0 b0                                      后面分组的名字,eth0 和 eth3 对应的是bond0
    alias eth1 b1
    alias eth2 e1000
    alias eth3 b0
    alias eth4 b1
    alias bond0 bonding
    alias bond1 bonding
    options bond0 miimon=100 mode=1 primary=eth0
    options bond1 miimon=100 mode=1 primary=eth1
    #options bonding max_bonds=2 miimon=200 mode=1

    复制代码

    第四步:重启网络服务

    #service network restart

     通过查看/proc/net/bonding/bond0,查看当前是用什么mode,如果是主备的话,当前是哪个网卡工作。

    复制代码

    cat /proc/net/bonding/bond0 
    Ethernet Channel Bonding Driver: v3.4.0-1 (October 7, 2008)
    
    Bonding Mode: fault-tolerance (active-backup)
    Primary Slave: eth0 (primary_reselect always)
    Currently Active Slave: eth0
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0
    
    Slave Interface: eth0
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:0c:29:c8:7f:34
    
    Slave Interface: eth3
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:0c:29:c8:7f:52

    复制代码

     

    复制代码

    cat /proc/net/bonding/bond1
    Ethernet Channel Bonding Driver: v3.4.0-1 (October 7, 2008)
    
    Bonding Mode: fault-tolerance (active-backup)
    Primary Slave: None
    Currently Active Slave: eth1
    MII Status: up
    MII Polling Interval (ms): 100
    Up Delay (ms): 0
    Down Delay (ms): 0
    
    Slave Interface: eth1
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:0c:29:c8:7f:3e
    
    Slave Interface: eth4
    MII Status: up
    Speed: 1000 Mbps
    Duplex: full
    Link Failure Count: 0
    Permanent HW addr: 00:0c:29:c8:7f:5c

    复制代码

    七种bond模式说明:

    第一种模式:mod=0 ,即:(balance-rr) Round-robin policy(平衡抡循环策略)

     

    特点:传输数据包顺序是依次传输(即:第1个包走eth0,下一个包就走eth1….一直循环下去,直到最后一个传输完毕),此模式提供负载平衡和容错能力;但是我们知道如果一个连接或者会话的数据包从不同的接口发出的话,中途再经过不同的链路,在客户端很有可能会出现数据包无序到达的问题,而无序到达的数据包需要重新要求被发送,这样网络的吞吐量就会下降

     

    第二种模式:mod=1,即: (active-backup) Active-backup policy(主-备份策略)

    特点:只有一个设备处于活动状态,当一个宕掉另一个马上由备份转换为主设备。mac地址是外部可见得,从外面看来,bond的MAC地址是唯一的,以避免switch(交换机)发生混乱。此模式只提供了容错能力;由此可见此算法的优点是可以提供高网络连接的可用性,但是它的资源利用率较低,只有一个接口处于工作状态,在有 N 个网络接口的情况下,资源利用率为1/N

    第三种模式:mod=2,即:(balance-xor) XOR policy(平衡策略)

     

    特点:基于指定的传输HASH策略传输数据包。缺省的策略是:(源MAC地址 XOR 目标MAC地址) % slave数量。其他的传输策略可以通过xmit_hash_policy选项指定,此模式提供负载平衡和容错能力

     

    第四种模式:mod=3,即:broadcast(广播策略)

     

    特点:在每个slave接口上传输每个数据包,此模式提供了容错能力

    第五种模式:mod=4,即:(802.3ad) IEEE 802.3adDynamic link aggregation(IEEE 802.3ad 动态链接聚合)

     

    特点:创建一个聚合组,它们共享同样的速率和双工设定。根据802.3ad规范将多个slave工作在同一个激活的聚合体下。

    外出流量的slave选举是基于传输hash策略,该策略可以通过xmit_hash_policy选项从缺省的XOR策略改变到其他策略。需要注意的是,并不是所有的传输策略都是802.3ad适应的,尤其考虑到在802.3ad标准43.2.4章节提及的包乱序问题。不同的实现可能会有不同的适应性。

    必要条件:

    条件1:ethtool支持获取每个slave的速率和双工设定

    条件2:switch(交换机)支持IEEE 802.3ad Dynamic link aggregation

    条件3:大多数switch(交换机)需要经过特定配置才能支持802.3ad模式

    第六种模式:mod=5,即:(balance-tlb) Adaptive transmit load balancing(适配器传输负载均衡)

     

    特点:不需要任何特别的switch(交换机)支持的通道bonding。在每个slave上根据当前的负载(根据速度计算)分配外出流量。如果正在接受数据的slave出故障了,另一个slave接管失败的slave的MAC地址。

    该模式的必要条件:ethtool支持获取每个slave的速率

     

    第七种模式:mod=6,即:(balance-alb) Adaptive load balancing(适配器适应性负载均衡)

     

    特点:该模式包含了balance-tlb模式,同时加上针对IPV4流量的接收负载均衡(receive load balance, rlb),而且不需要任何switch(交换机)的支持。接收负载均衡是通过ARP协商实现的。bonding驱动截获本机发送的ARP应答,并把源硬件地址改写为bond中某个slave的唯一硬件地址,从而使得不同的对端使用不同的硬件地址进行通信。

    展开全文
  • linux bond配置步骤和七种bond模式说明一、网卡绑定:第一步:创建一个ifcfg-bondX# vi /etc/sysconfig/network-scripts/ifcfg-bond0DEVICE=bond0BONDING_OPTS="mode=0 miimon=100"BOOTPROTO=noneONBOOT=...

    linux bond配置步骤和七种bond模式说明

    一、网卡绑定:

    第一步:创建一个ifcfg-bondX

    # vi /etc/sysconfig/network-scripts/ifcfg-bond0

    DEVICE=bond0

    BONDING_OPTS="mode=0 miimon=100"

    BOOTPROTO=none

    ONBOOT=yes

    BROADCAST=192.168.0.255

    IPADDR=192.168.0.180

    NETMASK=255.255.255.0

    NETWORK=192.168.0.0

    USERCTL=no

    BONDING_OPTS="mode=0 miimon=100" ,mode有多种模式实现不同的功能,

    第二步:修改/etc/sysconfig/network-scripts /ifcfg-ethX

    # vi /etc/sysconfig/network-scripts /ifcfg-eth0

    DEVICE=eth0

    BOOTPROTO=none

    ONBOOT=yes

    MASTER=bond0

    SLAVE=yes

    USERCTL=no

    # vi /etc/sysconfig/network-scripts /ifcfg-eth1

    DEVICE=eth1

    BOOTPROTO=none

    ONBOOT=yes

    MASTER=bond0

    SLAVE=yes

    USERCTL=no

    第三步:配置/etc/modprobe.conf,添加alias bond0 bonding

    alias scsi_hostadapter mptbase

    alias scsi_hostadapter1 mptspi

    alias scsi_hostadapter2 ata_piix

    alias scsi_hostadapter3 ahci

    alias net-pf-10 off

    alias ipv6 off

    options ipv6 disable=1

    alias eth0 b0 后面分组的名字,eth0 和 eth3 对应的是bond0

    alias eth1 b1

    alias eth2 e1000

    alias eth3 b0

    alias eth4 b1

    alias bond0 bonding

    alias bond1 bonding

    options bond0 miimon=100 mode=1 primary=eth0

    展开全文
  • linux配置bond+trunk

    2018-01-29 10:20:04
    希望可以给到大家帮助,此文档用户linux7配置端口聚合
  • 文章目录前言一、bond概述1、bond概念2、bond优点二、bond模式1、mode=0 (round-robin)2、mode=1 (active-backup)3、mode=2(XOR)4、mode=3(broadcast)5、mode=4(802.3ad)6、mode=5(balance-tlb)7、mode=6...
  • Linux系统bond配置

    千次阅读 2020-02-23 15:19:24
    linux系统下配置bond,通过网卡绑定可增加服务器可靠性,同时可增加网络带宽,提供稳定的网络服务。 3、bond模式 (1)mode=1:在主备模式下,只有主网卡工作,备份网卡不工作,只有当一个网络接口失效时(例如...
  • linux bond网络配置

    2021-08-17 10:40:13
    文章目录1、bonding简述1.1 bonding原理1.2 Bonding模式(bonding mode)2、网卡配置文件的配置2.1 配置环境2.2 需要添加或修改的配置文件有5个(mode=1)2.2.1 /etc/sysconfig/network-scripts/ifcfg-{eth0,eth1,...
  • 配置示例:网卡名为eno2和eno3,bond名为bond0 前期准备 需要一个叫 ifenslave_2.7kord1_all的包 我这里有arm环境的 下载地址 1.配置eno2 vim /etc/sysconfig/network-scripts/ifcfg-eno2 配置如下 DEVICE=eno2 NAME...
  • linux bond 配置步骤

    2021-05-12 03:34:32
    一、网卡绑定:1:创建一个ifcfg-bond0#cd /etc/sysconfig/network-scripts/#vi ifcfg-bond0DEVICE=bond0TYPE=EthernetONBOOT=yesBOOTPROTO=staticIPADDR=10.5.20.13NETMASK=255.255.252.0GATEWAY=10.5.20.253...
  • Linux如何配置bond

    2020-09-01 14:52:23
     在linux配置bond,通过网卡绑定技术既能增加服务器的可靠性,又增加了可用网络宽带,为用户提供不间断的网络服务。 原理:  网卡工作在混杂(promisc)模式,接收到达网卡的所有数据包,tcpdump工作用的也...
  • Linux虚拟网卡bond配置

    2022-05-15 23:37:01
    目录 ...引言:当linux系统上有多个单独网卡,又想充分利用这些网卡,同时对外提供一个统一的网络地址,以使得增大网络的吞吐量,同时也提高网络的可用性,这时就需要bond来帮助我们解决这个问题。 一
  • linux配置bond

    2014-07-11 14:15:27
    linux bond配置 主要是redhat 6.4版本
  • linux 配置bond

    2021-06-24 11:23:17
    零 修订记录 序号 修订内容 修订时间 ...本文主要介绍网卡bond 配置 ...CentOS Linux release 7.6.1810 (Core) ...新增配置bond1,采用mode4 (一)linux 上网卡配置bond 3.1.1 查看当前网卡信息 [root@localhost
  • Redhat Linux的网络配置,基本上是通过修改几个配置文件来实现的,虽然也可以用ifconfig来设置IP,用route来配置默认网关,用hostname来配置主机名,但是重启后会丢失。 相关的配置文件 /ect/hosts 配置主机名和IP...
  • linux bond4

    2020-12-23 11:49:08
    选择bond4模式 纯属为了扩大服务器的带宽 但前提是接入交换是单点或堆叠我们使用cisco交换3850只需连接好线就行 最主要就是交换机上的配置 废话不多说两个接入口绑定一个channel 就ok 然后服务器上设置bond 就...
  • 按照一下命令就可以配置成功,我是在vm8.0虚拟机上配置的1.创建bond网卡文件在/etc/sysconfig/network-scripts/ 目录下创建ifcfg-bond0命令:vi /etc/sysconfig/network-scripts/ifcfg-bond0或者复制物理网卡也行: ...
  • Linux配置bond0

    千次阅读 2021-04-07 16:05:04
    Linux配置bond0 1.使用network接管网络服务,停止使用NetworkManager,如若没有network服务,安装network-scripts安装包即可 2.做之前备份网卡配置文件。 配置模板 前景要求:6个网口,两两配置bond0,连接名分别...
  • 对于多物理网卡的 Bond 网卡而言,其中一块物理网卡会被设置为 Master(主设备),其他的网卡都是 Slave(从设备),Bond 网卡的 MAC 地址取自标志为 Master 的物理 网卡,然后将这个 MAC 地址复制到其他物理网卡上...
  • Linux 系统 bond网卡配置 CentOS 7 配置: [root@svn-zt:/root]# modprobe bonding 查看模块是否被加载 [root@svn-zt:/root]# lsmod | grep bonding bonding 152979 0 创建 bond4 配置文件 vim ifcfg-bond4...
  • 一、配置bond Centos设备使用nmtui命令 (注意勾选require ipv4 address for this connection) 二、关于bond下的子网卡 1.如果bond下的子网卡存在IP,记得勾选Automatically connect; 2.如果bond下的子网...
  • Linux网卡bond

    2021-05-11 00:58:01
    网卡bond的模式网卡绑定mode共有七种(0~6) bond0、bond1、bond2、bond3、bond4、bond5、bond6。 常用的有三种:mode=0:平衡负载模式,有自动备援,但需要”Switch”支援及设定。...配置网卡bond确认Networ...
  • Linux学习之配置bond

    2021-08-21 08:39:29
    Linux学习之配置bond简介什么是bond为什么要配置bond主备模式负载均衡模式配置方法 简介 什么是bond bond的英文释义为纽带、联系,那么在Linux中,bond是一种虚拟网卡的技术,可以把几块网卡联系起来,虚拟成一块...
  • Linux BOND接口配置

    千次阅读 2018-07-31 22:04:31
    如下使用ip命令创建一个bond接口不指定参数: / # ip link add bond1 type bond 指定bond接口的mode:/ # ip link add bond2 type bond mode balance-xor 查看新创建的bond接口,bond1未指定mode,其默认为...
  • bondLinux下叫bonding,IBM称为etherchanel,broadcom叫team,但是名字怎么变,效果都是将两块或更多的网卡当做一块网卡使用,在增加带宽的同时也可以提高冗余性。 实现双网卡绑定的方法有两种: bond和team 这里先...
  • linux配置bond脚本

    2020-12-29 18:42:57
    脚本为bond0,可直接在linux系统下执行,修改相应ip地址即可
  • Linux Bond4模式

    万次阅读 2018-06-27 17:34:21
    linux系统上有多个单独网卡,又想充分利用这些网卡,同时对外提供一个统一的网络地址,以使得增大网络的吞吐量,同时也提高网络的... bond配置在很简单,但是配置不好,很容易造成严重的网络问题。bonding功...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 7,709
精华内容 3,083
关键字:

linuxbond配置