精华内容
下载资源
问答
  • 基于windows server 2012的多网卡链路聚合实验设计与实现Design and Implementation of NICs and Link Aggregation Experiment Based on Windows Server 2012DOI:10.12677/CSA.2017.71002,PDF, 下载:1,799浏览:7,680...

    基于windows server 2012的多网卡链路聚合实验设计与实现

    Design and Implementation of NICs and Link Aggregation Experiment Based on Windows Server 2012

    DOI: 10.12677/CSA.2017.71002,

    PDF, 下载:

    1,799  浏览:

    7,680

    科研立项经费支持

    作者:

    姜延丰*:华北科技学院计算机学院,北京

    摘要:

    NIC Teaming与链路聚合技术的使用能够扩展网络设备和服务器的带宽、增加吞吐量,并在链路上实现冗余和负载均衡。论文介绍了NIC Teaming与链路聚合原理和技术,重点介绍NIC Teaming与链路聚合实验的设计与实现。实验证明,利用NIC Teaming与链路聚合技术可以扩展网络设备和服务器的带宽、增加吞吐量,并在链路上实现冗余和负载均衡,提高服务器可用性和可靠性。

    Abstract:

    The use of NIC Teaming and Link Aggregation provides an efficient way to expand the bandwidth of network equipment and server, increase network throughput, and achieve redundancy and load balance on the link. This paper introduces the principle and technology of Teaming NIC and link aggregation, the design and implementation of NIC Teaming and Link Aggregation experi-mental are introduced. Experiments show that the use of NIC Teaming and the link aggregation technology can extend the network equipment and server bandwidth, increase network throughput, achieve redundancy and load balancing in link, improve server reliability and availability.

    文章引用:

    姜延丰. 基于windows server 2012的多网卡链路聚合实验设计与实现[J]. 计算机科学与应用, 2017, 7(1): 8-16. http://dx.doi.org/10.12677/CSA.2017.71002

    参考文献[1]

    彭海云, 李亚. 基于Linux 的多网卡负载均衡技术[J]. 实验室研究与探索, 2012(9): 77-80.

    [2]

    姚学军. 使用双网卡增加服务器带宽[J]. 芜湖职业技术学院学报, 2006(4): 56-57.

    [3]

    唐国军. 多网卡绑定技术在服务器系统中的应用[J]. 计算机光盘软件与应用, 2013(2): 67-68.

    [4]

    Mark Minasi, Kevin Greene, 等, 著. 精通Windows server 2012 R2 (第5版) [M]. 张楚雄, 孟秋菊, 译. 北京: 清华大学出版社, 2015: 128-134.

    [5]

    谢克峰. 网络链路聚合技术的应用分类与常见故障排除[J]. 网络安全技术与应用, 2015(1): 28-29.

    [6]

    杭州华三通信技术有限公司. 路由交换技术第1卷(下册) [M]. 北京: 清华大学出版社, 2012: 64-66.

    [7]

    许军, 鲁志萍. 网络设备配置项目化教程[M]. 北京: 清华大学出版社, 2012: 79-82.

    [8]

    汪双顶, 姚羽. 网络互联技术与实践教程[M]. 北京: 清华大学出版社, 2010: 123-129.

    展开全文
  • 服务器双网卡捆绑与交换机链路聚合排障1例熊虹【摘要】@@1故障现象rn在实际组网环境中,将1台HPDL380服务器集成的双网卡进行双千兆网卡捆绑,并与盒式千兆3层交换机H3CS5500-28TP-SI的2个GE光口进行连接,该交换机的2个...

    服务器双网卡捆绑与交换机链路聚合排障

    1

    【摘

    要】

    @@ 1

    故障现象

    rn

    在实际组网环境中

    ,

    1

    HPDL380

    服务器集成

    的双网卡进行双千兆网卡捆绑

    ,

    并与盒式千兆

    3

    层交换机

    H3CS5500-28TP-SI

    2

    GE

    光口进行连接

    ,

    该交换机的

    2

    GE

    光口进行

    (link

    aggre-gation

    control protocol,LACP)

    链路聚分控制协议的端口链路捆绑

    .

    【期刊名称】

    医疗卫生装备

    【年

    (

    ),

    期】

    2010(031)003

    【总页数】

    2

    1

    故障现象

    在实际组网环境中,将

    1

    HP

    DL380

    服务器集成的双网卡进行双千兆网卡捆

    绑,并与盒式千兆

    3

    层交换机

    H3C

    S5500-28TP-SI

    2

    GE

    光口进行连接,

    该交换机的

    2

    GE

    光口进行(

    link aggregation control protocol

    LACP

    )

    链路聚分控制协议的端口链路捆绑。

    在网络调测阶段,发现将服务器双网卡与交换机双链路连接后,

    HPDL380

    务器与交换机之间

    2

    条链路无法正常互通。尝试将其中

    2

    条链路中任意一条链

    路与交换机端口手工物理切断后,则剩余的一条链路又可以正常与交换机通信,

    但无法达到预期的双网卡绑定后

    2

    条链路同时负载分担的效果。

    2

    故障原理

    由于此次组网方式相对简单,只涉及到

    1

    台盒式千兆交换机,与其相连的一台

    双网卡服务器和多个客户端组成的星形网络。故排查该故障时,分别进行服务

    器端故障排除和交换机侧故障排除。预期排障后要达到的使用效果为:正常情

    展开全文
  • Win10绑定双网卡或多网卡做Nic Teaming链路聚合1、重命名网卡名win10左下角LOGO->设置->网络和internet->(左侧)以太网->(右侧)网络和共享中心->(左侧)更改适配器设置,默认情况下两个网卡名称改为...

    Win10绑定双网卡或多网卡做Nic Teaming链路聚合

    1、重命名网卡名

    win10左下角LOGO->设置->网络和internet->(左侧)以太网->(右侧)网络和共享中心->(左侧)更改适配器设置,默认情况下两个网卡名称改为“nic1”,“nic2”。

    2、Power Shell

    打开Win10的power shell使用命令行设置,在win10左下角LOGO输入powershell,右键点击“Windows PowerShell”,以管理员身份运行,会有弹出对话框,选择“是”。

    3、命令行

    在弹出的窗口中输入new-netLbfoteam “teamingname” -teamingmode switchindependent接下来会提示输入需要绑定的网卡名,如图:

    4、效果

    回到电脑的网络适配器,网卡已经绑定成功,此时原来的两个独立的网卡已经不见了,显示的是绑定的网卡聚合的名称,如图:

    5、删除网卡聚合

    若想恢复原来的网卡配置,可输入命令remove-netLbfoteam -name teamingname删除指定网卡组,get-netLbfoteam | remove-netLbfoteam删除所有网卡组。

     

    标签:windows

    分类:WIN系统

    | 发布:wanglei | 评论:0条 | 发表时间:2020-1-15 9:01 Wednesday

    引用:

    上一篇: 华三交换机如何设置时间

    下一篇:H3C Password Control

    展开全文
  • 考虑到万兆网卡和(万兆上行端口的)交换机都还太贵,决定还是使用链路聚合。交换机上用4个千兆口连接电脑,电脑上使用一块4口千兆网卡做聚合。最初的测试尽管我的目标是10台相机同时传数据给电脑,但第一步还是用4...

    60d9a42fffda02b6980466781612f1e2.png

    最近碰到的一个诡异的案例,让我对链路聚合有了更深入的理解,可能对你也会有所启发。

    问题

    需要从多台相机采集图片传给电脑,总流速超过千兆,但在4千兆以下。考虑到万兆网卡和(万兆上行端口的)交换机都还太贵,决定还是使用链路聚合。

    交换机上用4个千兆口连接电脑,电脑上使用一块4口千兆网卡做聚合。

    236748df2c472e9a5eec6cd0f214a4a5.png

    最初的测试

    尽管我的目标是10台相机同时传数据给电脑,但第一步还是用4个相机做测试。4个相机对应于4个网口,预期的效果是应该和划分为4个子网的方式相同,即每个相机都可以跑到接近千兆。

    为什么不用4个子网呢(即一个网口一个子网,带一个相机)?——因为聚合的方案配置简单,且更灵活,可以适用于N个相机,能够动态平衡负载。相当于电脑和交换机有一条4千兆的链路,随便多少个相机去分这个带宽。

    聚合的缺点是有可能增加CPU负载。但这个要看聚合的模式。由于电脑主要是收数据,交换机转发来自相机来数据,所以需要交换机端也支持聚合。

    使用的交换机是支持802.3ad的,所以在电脑端也要配置为802.3ad模式。下面是Ubuntu下的配置文件。

    auto enp5s0f0
      iface enp5s0f0 inet manual
      bond-master bond0
    
    auto enp5s0f1
      iface enp5s0f1 inet manual
      bond-master bond0
    
    auto enp5s0f2
      iface enp5s0f2 inet manual
      bond-master bond0
    
    auto enp5s0f3
      iface enp5s0f3 inet manual
      bond-master bond0
    
    auto bond0
      iface bond0 inet static
      address 10.8.5.1
      netmask 255.255.255.0
      mtu 9000
    
      bond-slaves enp5s0f0 enp5s0f1 enp5s0f2 enp5s0f3
      bond-mode 802.3ad
      bond-miimon 100
      bond-lacp-rate 1

    实际测试下来,网卡聚合驱动(bonding)的CPU占用不高(可以通过/proc/interrupts查看)。

    在交换机管理界面上可以看到数据流量的情况。

    f656ac7b597b1bdd69b30e21bda0fc95.png

    图中可以看到连接相机的4个网口和连接电脑的4个网口流量相当,并且是均匀的。这个效果完全符合预期。

    进一步的测试

    于是开始增加更多的相机(当然,同时把相机的流速调低,以满足总速度不超过4千兆),但发现4个网口的流量并不均匀!

    于是减少相机,退回到4个相机的情况。———诡异的事出现了,4个相机也不正常了!表现为流量只走3个网口(当然会有一个网口超流量,表现为丢帧)。

    继续减少相机,结果,,3个相机也挤在两个网口上。如图(我甚至还换了一台交换机做测试)。

    d29056ccda2512d08aff1d32ee8baa7e.png

    不断地尝试后,发现了一点规律。

    比如说A, B, C 三个相机发数据,正常(分流到3个端口);

    加入相机D后,不正常,表现为A和D都走了交换机的同一端口。

    这时,即使只接A和D,也是不常的,因为它俩还是走同一端口;

    问题出在哪里?

    碰到这种问题,首先想到的是,是不是有参数配置不对?

    首先看聚合模式,有好几种流量均衡的模式,比如:balance-rr, balance-xor, balance-tlb。但它们都是说的电脑端发送数据的情况,用不同的算法,选择从哪个网口将数据发出。而我的情况是交换机发数据,交换机选择从哪个端口将数据发出,那几种模式都不是用于控制交换机的。

    在交换机上,如果启用聚合,就是使用交换机支持的802.3ad模式,这时,电脑端相应的也要配置为802.3ad模式,所以对于模式,我们没什么选择的余地。

    再看802.3ad模式下,还有什么参数可以配置?

    有一个相关的参数是:transmit hash policy

    在802.3ad模式下,有layer2和layer2+3可以选择。看文档中的说明:

    xmit_hash_policy
    
    Selects the transmit hash policy to use for slave selection in
    balance-xor, 802.3ad, and tlb modes.Possible values are:
    
    layer2
    
    Uses XOR of hardware MAC addresses and packet type ID
    field to generate the hash. The formula is
    
    hash = source MAC XOR destination MAC XOR packet type ID
    slave number = hash modulo slave count
    
    This algorithm will place all traffic to a particular
    network peer on the same slave.
    
    This algorithm is 802.3ad compliant.

    这个文档来自于Linux Ethernet Bonding Driver HOWTO。由于是标准,我们可以认为交换机上也是使用同样的算法。

    这个算法的意思是:用源地址、目标地址以及包类型得到一个hash值,然后除以4(聚合的端口/网口数),根据余数,决定数据发往哪个端口。

    这里面首先说明了,来自同一个相机的数据(这里的应用协议是固定的,所以packet type ID固定)一定是发往同一个端口的,而不是像Round-robin这样的策略,使用不同的端口轮流发送。

    第二点说明了,它是根据hash降以总端口数的余数来选择端口。另一个策略 layer2+3 我没有贴出来,它只不过是hash算法不同,最后也是看余数。

    那么,问题就在这里了。

    我的运气有多好?

    这是一个数学问题:随机生成4个0~3之间的整数,它们完全不同的概率是多少?

    概率组合有点忘了,好像应该是 3/4 * 2/4 * 1/4 = 3/32 = 9.375%.

    这就是在交换机上随便接4个相机,在4个端口聚合的模式下,它们的数据正好从4个不同的端口转发出去的概率。

    我最初接的4个相机正好中了这9.375%的彩。而后来回退到4个相机的时候,其实是慌乱中换了相机,接着再怎么换相机,都有冲突。因为90.625%的概率就是会相撞,所以有冲突才是常态。

    模拟实验

    为了理解什么场景下适合使用聚合,我们可以做一个模拟实验。

    交换机使用4个端口聚合。模拟在接N个设备的情况下,每个端口会转发多少个设备的流量。

    模拟代码(Python)如下:

    import matplotlib.pyplot as plt
    import random
    
    def simulate(device, round=100):
        plt.figure(figsize=(10, 7))
        fof = [0 for x in range(device + 1)]
        for i in range(round):
            freq = [0, 0, 0, 0]
            for j in range(device):
                port = random.randint(0, 3)
                freq[port] += 1
            for f in freq:
                fof[f] += 1
        plt.plot(fof)
        plt.title("N of device traffic to ports: {} devices {} rounds".format(device, round))
        plt.show()
    • 内循环用一个简单的随机数模拟每个设备来的流量会经哪个端口转发出去;
    • freq 统计每个端口转发了几个设备的流量;
    • 最后的结果fof是统计频率的频率。

    举个例子,比如freq = [1, 2, 1, 0]表示:

    • 1个设备的流量走了端口0,
    • 2个走了端口1,
    • 1个走了端口2,
    • 没有流量走端口3;

    相应的fof的统计是:

    • 0流量的情况加1次(没有流量走端口3),
    • 1流量的情况加2次(端口0和端口2各1次),
    • 2流量的情况加1次(端口1)。

    模拟的结果:

    9fb964bb3c5952b322c19b4f6beeb15b.png

    在这个图中,可以看到,只有4个设备时,经常有端口没有流量。1万次试验就有1.25万个端口没流量,这几乎平均每次都有一个端口没流量,有端口没流量就意味着有的端口会转发来自至少两个设备来的流量,这就是前面说的流量不均衡的情况。

    b8894bca69126c5eaa6c114158fa848e.png

    ee1c2bfb116511aa6b111e314309697d.png

    随着设备的增多,流量会越来越平均。比如400个设备时,一个端口大多数情况下都会转发100个左右(80~120)设备的流量。

    结语

    链路聚合适用于终端数量多,每个终端流速不太高的情况。这样很容易从统计上达到平衡,不至于出现某一聚合端口流速超出带宽的情况。其实这也是服务器上的常见场景。比如一台服务器,要接受成千上万的访问,每个访问的流量都不高,但总体上会超过单网口的带宽,这样就适合用多网口做链路聚合。

    而对于我这个案例,终端数量少,每个终端的流速高(接近单网口的带宽),加上是终端发数据为主,交换机上的聚合模式有限,这样就很容易由于流量不平衡导致单个聚合端口超出带宽。

    通过这个例子,还理解了为什么要有那么多种聚合模式、hash策略。比如服务器上的应用,可能并不能完全用Mac地址来做hash,于是有了layer3, layer4的hash,这样才可以标识区分internet上的终端,以达到流量均衡。

    另一个感受是:在技术上,再诡异的事情总会有一个合理的解释。

    展开全文
  • 链路聚合的两种模式:根据是否启用链路聚合控制协议 LACP,链路聚合分为手工负载分担模式和LACP 模式。一、手工负载分担模式链路聚合手工负载分担模式下, Eth-Trunk 的建立、成员接口的加入由手工配置,没有链路...
  • 摘要:NIC Teaming与链路聚合技术的使用能够扩展网络设备和服务器的带宽,增加吞吐量,并在链路上实现冗余和负载均衡.论文介绍了NIC Teaming与链路聚合原理和技术,重点介绍NIC Teaming与链路聚合实验的设计与实现.实验...
  • 题目要求:配置链路聚合在 server0 和 desktop0 之间按以下要求配置链路聚合l 此链路使用接口 eth1 和 eth2l 此链路在一个接口失效后,仍然能工作l 此链路在 server0 上使用地址 192.168.0.11/24l 此链路在 desktop0...
  • title: 网卡链路聚合 tags: linux/network top: true cover: true 链路聚合 场景: 在数据量较大的服务器上,必须确保网络不中断的条件下,建立链路聚合,如果服务器一张网上宕机,另一张网上接替工作,而服务器的...
  • 一、基本概念如图所示,DeviceA 与DeviceB 之间通过三条以太网物理链路相连,将这三条链路捆绑在一起,就成为了一条逻辑链路,这条逻辑链路的最大带宽等于原先三条以太网物理链路的带宽总和,从而...链路聚合接口...
  • 展开全部1、重抄命名网卡名win10左下角LOGO->设置->网络2113和5261internet->(左侧)以太网->(右侧)网络和共享中心->(左侧)更4102改适配器设置,1653默认情况下两个网卡名称改为“nic1”,“nic2”。2...
  • Windows 8/10 桌面版创建过程如下:使用管理员权限运行PowerShell命令:Get-NetAdapter用于获取所有网卡信息,这里需要使用到 name 字段的信息。命令:New-NetLbfoTeam “NIC TEAMING” -teamingMode ...
  • 最近捣鼓服务器链路集合需要配置交换机…以前没弄过交换机,现学现卖…一般交换机是支持telnet的,配置好ip可以直接telnet,当然如果没配的话就要用串口了,串口要选择Serial…还好我们万能的 putty 都支持,用一个...
  • QYT4000 多链路聚合路由器该产品核心应用在于能够在网络抖动的情况下提供稳定的网络通讯环境,通过聚合现场捕获的信号形成较大且抗抖动的上下行通道,具有“高通行量、高稳定性、高安全性、高便利性、低成本”的特点...
  • 本篇约990字11图分享人:杨绍松(沈阳)...TS16和交换机处于核心位置,二者任意故障一个,即便是CDU服务器,也会造成数据全部丢失。本篇分享,利用现有的TS16、交换机的备件,对系统传输网络进行热备份改造。2. 热备...
  • CIDR把网络前缀都相同的连续的IP地址组成一个“CIDR地址块” 构成超网 将多个子网聚合成一个较大的子网,叫做构成超网,或路由聚合 方法:将网络前缀缩短 最长前缀匹配 使用CIDR时,查找路由表可能得到几个匹配结果...
  • #本文欢迎转载,转载请注明出处和作者。上次讲到,使用STP生成树协议进行了二层环路的阻断,阻断后上行链路就剩下一条了。...2、使用链路捆绑技术,将多条低带宽的链路,捆绑成一条逻辑链路,进行带宽...
  • 不仅以高效精准的短视频营销有力激发网络电影票房潜力,还积极培养储备优秀创作人才夯实行业基础——新片场影业打通制作到宣发的全链路,让网络电影IP改编、制作、营销更向工业化高水准看齐。 这种在内容、业务、...
  • 以上值Centos6的bond支持的模式,而在Centos7以后就开始选择team,即链路聚合的方式进行双网卡的绑定。Centos7为了向后的兼容依然支持bond模式,目前红帽官方还是将Team作为备选的方案,目前team模式也出来好几年了...
  • centos6.5绑定双网卡做了主备接入到华为交换机,如果华为交换机上面不做配置!交换机就会提示MAC地址漂移, 所以就在交换机上面把centos的2个网口绑定到了链路聚合里面。 交换机做链路聚合之后,断开centos的主网卡...
  • bond可以将多块网卡虚拟成为一块网卡,让多块网卡聚合后,看起来是一个单独的以太网接口设备并具有相同的 IP 地址。既能添加网络带宽,同时又能做相应的冗余,轮询和负载均衡。 bond 网卡的工作模式 网卡 bond 后...
  • team方法 1)、 nmcli connection add type team con-name team0 ifname team0 config '{"runer":{"name":"activebackup"}}' ##创建一个team,名称为team0,并且配置了activebackup主从 2)、nmcli connection add ...
  • 使用环境:由于本实验需要两个或者以上网可,所以...要求网络具有良好的扩展性和吞吐率,能够充分适应业务突发流量且具备高可靠性,对主机双网卡bond要求既能充分利用链路带宽资源又具备高可靠性显得尤其重要基于...
  • 使用team实现网卡聚合链路脚本 #!/bin/bash #创建一个名为team0的链路接口 IP=192.168.101.1 GATE=192.168.101.254 ETH1=eno1 ETH2=eno2 #ETH3=eno3 #ETH4=eno4 nmcli con add type team con-name team0 ifname team...
  • 链路聚合

    2018-11-28 11:12:32
    链路聚合含义: 1.一个二十四小时同时...3.将两块独立的网卡合在一起,这就叫链路聚合。 4.链路聚合两种方式:bond和team 链路聚合步骤:(在虚拟机上面完成) 1.添加两块网卡: 在真机的root用户下,使用vi...
  • Linux 链路聚合

    2019-04-26 16:33:00
    链路聚合双网卡绑定技术(bond)不同点就在于,双网卡绑定只能使用两个网卡绑定,而链路聚合最多可将8个网卡汇聚同时做绑定,此聚合模式称之为team team 四种模式 广播容错:"broadcast" 平衡轮询:...
  • 使用bond实现网卡聚合链路脚本: [plain]view plaincopyprint? #!/bin/bash #创建一个名为bond0的链路接口 IP=192.168.101.1 GATE=192.168.101.254 ETH1=eno1 ETH2=eno2 ETH3=eno3 ...
  • 华为设备的链路聚合:3.linux服务器的网卡绑定:4.windows系统的网卡桥接: 一、网线的传输 1.基带传输 信号源产生的原始电信号称为基带信号,由电压高低的 0 和 1 组成,随之送至线路传输,是很古老的传输方式一般...

空空如也

空空如也

1 2 3 4 5 ... 12
收藏数 227
精华内容 90
关键字:

双网卡链路聚合