精华内容
下载资源
问答
  • 目录 文章目录目录前文列表网络虚拟化什么是网络虚拟化云计算环境下的网络虚拟化需要解决的问题服务器内部的网络虚拟化I/O 虚拟...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 网络虚拟化 ...

    目录

    前文列表

    数据中心网络架构演进 — 从传统的三层网络到大二层网络架构

    什么是网络的虚拟化?

    网络虚拟化技术使得动态化和多元化网络成为可能,借助网络虚拟化可以解决现有网络体系僵化问题,是构建下一代网络最好的方案。

    与服务器虚拟化类似,网络虚拟化技术在一个共享的物理网络资源上创建多个虚拟网络(Virtual Network),同时每个虚拟网络可以独立地部署以及管理。作为虚拟化技术的分支,网络虚拟化本质上还是一种资源共享技术

    有鉴于此,网络虚拟化应当泛指任何可用于抽象物理网络资源的技术,这些技术使物理网络资源功能池化,达到资源任意的分割或者合并的目的,用以构建满足上层服务需求的虚拟网络

    网络虚拟化的一般结构下图所示。在这种网络架构之下,用户可以根据需要定制自己的网络,用户的需求会被一个虚拟网络层接纳,虚拟网络层完成虚拟网络与底层物理网络资源之间的映射,再将网络以服务的形式返回给用户。这种模式很好地屏蔽了底层的硬件细节,简化了网络管理的复杂性,提升了网络服务的层次和质量,同时也提高网络资源的利用率。
    在这里插入图片描述
    网络虚拟化的进程中主要诞生过 4 种核心技术:

    1. 虚拟局域网络(VLAN)
    2. 虚拟专用网络(VPN)
    3. 主动可编程网络(APN)
    4. 覆盖网络(Overlay)

    网络虚拟化的研究现在主要集中于 3 个领域:

    1. 云计算应用
    2. 平台化实现
    3. 软件定义网络

    网络虚拟化的发展趋势在性能保障、可靠性、易用性和完备性等方面。为此,网络虚拟化技术需要优化自身的服务结构,并向无线网络、光网络等领域推进,此外还需要提供更加友好的可编程接口(API)以及网络功能。
    在这里插入图片描述

    云计算时代,网络虚拟化需要解决的问题

    • 第一部分是服务器内部。随着越来越多的服务器被虚拟化,网络已经延伸到 Hypervisor 内部,网络通信的端已经从以前的服务器变成了运行在服务器中的虚拟机,数据包从虚拟机的虚拟网卡流出,通过 Hypervisor 内部的虚拟交换机,在经过服务器的物理网卡流出到上联交换机。在整个过程中,虚拟交换机,网卡的 I/O 问题以及虚拟机的网络接入都是研究的重点。

    • 第二部分是服务器到网络的连接。10Gb 以太网和 InfiniBand 等技术的发展使一根连接线上承载的带宽越来越高。为了简化网络拓扑,通过一种连接技术聚合互联网络和存储网络成为了一个趋势。在传统的企业级数据中心 IT 构架中,服务器到存储网络和互联网络的连接是异构和分开的。存储网络用光纤,互联网用以太网线(iSCSI 虽然能够在 IP 层上跑 SCSI,但是性能与光纤比还是差的很远)。网络连接技术一直都在追求更高的带宽中发展,比如 InfiniBand 和 10Gb 以太网。数据中心连接技术的发展趋势是用一种连接线将数据中心存储网络和互联网络聚合起来(统一存储网络和 IP 网络),使服务器可以灵活的配置网络端口,简化 IT 部署和网络拓扑。以太网上的 FCoE 技术和 InfiniBand 技术本身都使这种趋势成为可能。

    • 第三部分是网络交换,需要将物理网络和逻辑网络有效的分离,满足云计算多租户,按需服务的特性,同时具有高度的扩展性。当虚拟数据中心开始普及后,虚拟数据中心本身的一些特性带来了对网络新的需求。物理机的位置一般是相对固定的,虚拟化方案的一个很大的特性在于虚拟机可以迁移。当虚拟机的迁移发生在不同网络,不同数据中心之间时,对网络产生了新的要求,比如需要保证虚拟机的 IP 在迁移前后不发生改变,需要保证虚拟机内部运行在第二层(数据链路层)的应用程序也在迁移后仍可以跨越网络和数据中心进行通信等等。在这方面,Cisco 连续推出了 OTV,LISP 和 VxLAN 等一系列解决方案。

    网络设备的虚拟化

    在传统网络基础架构中,为了实现物理服务器间的通信,每个服务器都包含一个或者多个网络接口卡(NICs),它们连接到一个外部网络设施上。带有网络软件栈的 NIC 通过网络设施支持端点间的通信。正如下图所示,这个在功能上表示为一个交换机,它支持参与其中的端点间的高效数据包通信。

    传统网络基础架构

    采用服务器虚拟化技术(Hypervisor)之后,服务器可以划分为多个 VM,虚拟化管理程序为每个 VM 创建一个或者多个 vNIC。管理程序也允许虚拟网络的动态构建,由虚拟交换机完成,支持可配置的 VM 端点间的通信。最后,管理程序还允许和物理网络基础架构的通信,通过将服务器的物理 NIC 连接到管理程序的逻辑设施,允许管理程序中 VM 间高效的通信,以及和外部网络的高效通信。

    在这里插入图片描述

    虚拟化网络的关键技术之一就是虚拟交换机。虚拟交换机连接 vNIC 到服务器的物理 NIC,并且连接服务器中的其他 vNICs,从而进行本地通信。在一个虚拟交换机中,所受通信的限制和网络速度无关,而是与内存带宽有关,它允许本地 VM 之间高效的进行通信,并且最小化网络设施的开销。

    与 Linux Bridge 不同,分布式虚拟交换机支持跨服务器间的桥接。一个服务器中的虚拟交换机能够透明地和其他服务器中的虚拟交换机连接在一起,使 VM 在服务器之间迁移变得更加简单,因为它们可以连接到另一个服务器的分布式虚拟交换机,并且透明地连接到它的虚拟交换网络。

    在这里插入图片描述

    Open vSwitch 就是一个分布式虚拟交换机,在 Apache 2.0 许可下可用作为开放资源。截止 2010 年 5 月,Open vSwitch 已有版本 1.0.1 可用,并且支持一系列有用的功能。Open vSwitch 支持领先的开源管理程序解决方案,包括基于内核的 VM(KVM),VirtualBox,Xen 和 XenServer。

    网络 I/O 的虚拟化

    多个虚拟机共享服务器中的物理网卡,需要一种机制既能保证 I/O 的效率,又要保证多个虚拟机对用物理网卡共享使用。I/O 虚拟化的出现就是为了解决这类问题

    从 CPU 的角度看,要解决虚拟机访问物理网卡等 I/O 设备的性能问题,能做的就是直接支持虚拟机内存到物理网卡的 DMA(直接存储器存取)操作。Intel 的 VT-d 技术和 AMD 的 IOMMU 技术通过 DMA Remapping 机制来解决这个问题。DMA Remapping 机制主要解决了两个问题,一方面为每个虚拟机创建了一个 DMA 保护域并实现了安全的隔离,另一方面提供一种机制是将虚拟机的 Guest Physical Address 翻译为物理机的 Host Physical Address。

    从虚拟机对网卡等外部设备访问角度看,传统虚拟化的方案是虚拟机通过 Hypervisor 来共享的访问一个物理网卡,Hypervisor 需要处理多虚拟机对设备的并发访问和隔离等。这样 Hypervisor 容易行成一个性能瓶颈。为了提高性能,一种做法是虚拟机绕过 Hypervisor 直接操作物理网卡,这种做法通常称作 PCI-Passthrough,VMware,Xen 和 KVM 都支持这种技术。

    但这种做法的问题是虚拟机通常需要独占一个 PCI 插槽,不是一个完整的解决方案,成本较高且扩展性不足。另一种做法是设备,如:网卡,直接对上层操作系统或 Hypervisor 提供虚拟化的功能,一个以太网卡可以对上层软件提供多个独立的虚拟的 PCIe 设备并提供虚拟通道来实现并发的访问。这种方法也是业界主流的做法和发展方向,目前已经形成了标准,主要包括 SR-IOV(Single Root IO Virtualization)和 MR-IOV(Multi-Root IO Virtualization)。SR-IOV 带给网络虚拟化的好处就是性能。

    展开全文
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 SDN 关于 SDN...

    目录

    Overlay 网络

    Overlay 网络就是基于物理网络拓扑(Underlay Network)之上,构建出一个虚拟的、不同于物理网络拓扑的逻辑网络。Overlay 网络是一个 L3 in L2 网络。也就是说,只要 L3 网络能覆盖的地方,那么 Overlay 的 L2 网络也能覆盖。Overlay 的典型思想就是隧道(Tunnel)。

    隧道技术(Tunneling):使用隧道传递的数据可以是不同协议的数据帧或数据报文,隧道协议将其它协议的数据帧或数据报文重新封装后再发送。新的封装头部提供了路由信息,以便通过互联网传递被封装的真实负载数据。隧道这种方式能够使来自多种信息源的网络业务在同一个基础设施中通过不同的隧道进行点到点传输。隧道技术使用点对点通信协议(传输层)代替了交换连接,通过路由网络(网络层)来连接数据地址。

    在这里插入图片描述

    • Underlay:就是传统的路由交换网络。
      在这里插入图片描述
    • Overlay:用来作为计算单位(物理机、虚拟机、容器)之间通讯的网络。
      在这里插入图片描述

    Overlay 网络的三类核心要素

    1. 边缘设备:与虚拟网络直接关联的网络设备,数据报文的封装/解封装的场所,同时它也是形成虚拟网络的物理节点,如上图中所示的物理交换机(必须是支持 Overlay 协议的交换机),例如:VxLAN 的 VTEP 设备。

    2. 控制平面:框架当中的虚拟实体,负责虚拟网络传输当中的服务发现、地址通告和映射、虚拟网络通道建立和维护等,如上图中虚拟层当中的控制流。

    3. 数据平面:框架当中的虚拟实体,主要负责数据报文在虚拟层的转发,如上图中虚拟层的数据流。

    Overlay 网络的技术标准

    1. VxLAN:VxLAN 是将以太网报文封装在 UDP 传输层上的一种隧道转发模式。为了使 VxLAN 充分利用承载网络路由的均衡性,VxLAN 通过将原始以太网数据头(MAC、IP、Port 等)的 HASH 值作为 UDP 的号;采用 24bit 标识 L2 网络分段标识,称为 VNI(VXLAN Network Identifier);未知目的、广播、组播等网络流量均被封装为组播转发,物理网络要求支持任意源组播(ASM)。

    2. NVGRE:NVGRE 是借助 GRE(通用路由封装协议)进行报文封装的一种隧道转发模式。它使用 GRE 头部的低 24bit 作为租户网络标识符(TNI)。为了提供描述带宽利用率粒度的流,传输网络需要使用 GRE Header,但是这导致 NVGRE 不能兼容传统负载均衡,这是 NVGRE 与 VxLAN 相比最大的区别也是最大的不足。NVGRE 不需要依赖泛洪和 IP 组播进行学习,而是以一种更灵活的方式进行广播,但是这需要依赖硬件。NVGRE 支持减小数据包 MTU 以减小内部虚拟网络数据包大小。

    3. STT:STT 是借助 TCP 对报文封装的一种隧道转发模式,它改造了 TCP 的传输机制,是一种 全新定义的无状态机制,将 TCP 各字段意义重新定义,无需三次握手建立 TCP 连接, 亦称之为无状态 TCP。以太网数据封装在无状态 TCP;采用 64bit 标识 L2 网络分段;通过将原始以太网数据头(MAC、IP、 Port 等)HASH 值作为无状态 TCP 的源端口号进行网络负载均衡 。

    这三种 Overlay 技术, 共同的技术模式都是将以太网报文进行改造封装承载到逻辑隧道层面进行转发,差异的技术特性在于封装和构造隧道的不同,而底层均是 IP 转发。

    VxLAN 和 STT 对于现网设备对流量均衡要求较低,即负载链路负载分担适应性好,一般的网络设备都能对 L2-L4 的数据内容参数进行链路聚合或等价路由的流量均衡 。而 NVGRE 则需要网络设备对 GRE 扩展头感知并对 flow ID 进行哈希计算 ,需要硬件支持 ;

    以下是三种 Overlay 技术标准的具体差异描述。

    在这里插入图片描述

    Overlay 网络解决了 L2 的空间局限性问题

    当虚拟机或容器所在的宿主机因为维护或者其他原因宕机时,当前实例就需要迁移到其他的宿主机上,为了保证业务不中断,我们需要保证迁移过程中的 IP 地址不变,因为 Overlay 是在网络层实现 L2 网络,所以多个物理机之间只要网络层可达就能组建虚拟的局域网,虚拟机或者容器迁移后仍然处于同一个二层网络,也就不需要改变 IP 地址,上千台物理机组成的大集群使得集群内的资源调度变得更加容易,我们可以通过虚拟机迁移来提高资源的利用率、容忍虚拟机的错误并提高节点的可移植性。

    如下图所示,迁移后的虚拟机与其他的虚拟机虽然位于不同的数据中心,但是由于上述两个数据中心之间可以通过 IP 协议连通,所以迁移后的虚拟机仍然可以通过 Overlay 网络与原集群的虚拟机组成 L2 网络,对于应用来讲,它对外发布的地址没有变化,对于虚拟机来讲,它只知道远方的主机与本地的主机是可以组成 L2 互通局域网的,是可以做 vMotion 的。但是,真正的数据迁移确在底层经历了传统网络设备的 L3 传输。

    无论底层做了什么样的传输转换,只要上层协议达到应用要求的迁移条件即可。这样跨地域的 L2 资源迁移就不再成为不可解决的难题了。没有这种技术的支撑,恐怕就算是裸光纤连接也解决不了这个问题,毕竟光纤的距离是受限的。

    在这里插入图片描述

    Overlay 网络解决了网络规模受限问题

    Kuberentes 官方支持的最大集群为 5000 个 Nodes,通常每个节点上会有很多容器,所以整个集群的资源规模可以达到几万甚至几十万。当某个容器向集群中发送 ARP 请求,集群中的全部容器都会收到 ARP 请求,这时会带来极高的网络负载,传统网络技术是无法容忍这种规模的网络请求。

    在使用 VxLAN 搭建的 Overlay 网络中,网络会将发送的数据重新封装成 IP数据包,这样网络只需要知道不同 VTEP 的 MAC 地址,由此可以将 MAC 地址表项中的几十万条数据降低到几千条,ARP 请求也只会在集群中的 VTEP 之间扩散,远端的 VTEP 将数据拆包后也仅会在本地广播,不会影响其他的 VTEP,虽然这对于集群中的网络设备仍然有较高的要求,但是已经极大地降低了核心网络设备的压力。

    另外, 在 L2 网络环境下,数据流均需要通过明确的网络寻址以保证准确到达目的地,因此网络设备的 MAC 地址表,成为决定了云计算环境下虚拟机的规模的上限,并且因为表项并非百分之百的有效性,使得可用的虚机数量进一步降低,特别是对于低成本的接入设备而言,因其表项一般规格较小,限制了整个云计算数据中心的虚拟机数量。

    使用了 Overlay 技术之后,这个 MAC 地址表的存储转移到了 VTEP 设备之上, 虽然核心或网关设备的 MAC 与 ARP 规格会随着虚拟机增长也面临挑战,但对于此层次设备能力而言,大规格是不可避免的业务支撑要求。减小接入设备规格压力的做法可以是分离网关能力,采用多个网关来分担虚机的终结和承载。

    Overlay 网络解决了网络隔离问题

    大规模的数据中心往往都会对外提供云计算服务,同一个物理集群可能会被拆分成多个小块分配给不同的租户,因为 L2 网络的数据帧可能会进行广播,所以出于安全的考虑这些不同的租户之间需要进行网络隔离,避免租户之间的流量互相影响甚至恶意攻击。当前的主流网络隔离技术为 VLAN,在大规模虚拟化环境部署会有两大限制:

    1. 首先, VLAN 数量在标准定义中只有 12 个比特单位,即可用的数量为 4000 个左右,这样的数量级对于公有云或大型虚拟化云计算应用而言微不足道 。
    2. 其次, VLAN 技术当前为静态配置型技术(只有 EVB/VEPA 的 802.1Qbg 技术可以在接入层动态部署 VLAN,但也主要是在交换机接主机的端口为常规部署,上行口依然为所有 VLAN 配置通过),这样使得整个数据中心的网络几乎为所有 VLAN 被允许通过,导致未知目的广播数据会在整网泛滥,无节制消耗网络交换能力与带宽。

    如果采用了 Overlay 网络技术,那么就会避免上述问题,以 VxLAN 为例:

    1. 首先,VxLAN 会使用 24 比特的 VNI 表示虚拟网络个数,总共可以表示 16,777,216 个虚拟网络,远远超过了 VLAN 的 4000 个,这个数量足以满足今天云计算数据中心的大规模集群要求。
    2. 其次,VxLAN 在 L2 传输的时候是在 VTEP 节点把数据进行封装,使得更多的 L2 广播在 VTEP 节点处转化为有目的的 L3 传输,从而避免了无节制的网络资源消耗。既满足了大规模集群网络隔离问题,同时也提高了这种情况下的网络传输安全性。

    Overlay 网络技术的缺陷

    Overlay 网络与 Underlay 网络相比而言,性能会是它的问题所在,因为 Overlay 网络无论是哪一种技术标准,都会经历数据包再次封装和再次解封的问题,这个无疑会给数据传输带来性能上的延时。

    在企业 IT 环境当中,各种类型的应用都会存在,有的对网络性能要求非常高,例如:金融行业的交易型数据库集群,不同集群节点之间的数据交互量从数据大小和传输频率等各方面都超乎一般的应用,尤其是锁信息、数据缓存块、心跳信息都是直接影响数据库运行的关键因素。

    因此我们在应用 VxLAN 的时候也需要考虑到它的不足之处,选择合适的应用场景。

    在这里插入图片描述

    展开全文
  • 数据中心网络架构浅谈(三)

    万次阅读 多人点赞 2018-01-28 21:40:59
    构建一个数据中心网络时,除了考虑网络硬件设备的架构,2-7层网络设计也需要考虑。这两者其实不能完全分开,硬件架构有时候决定了网络设计,网络设计有时候又限制了硬件架构。从应用场景,例如SDN/NFV来看,网络设计...

    构建一个数据中心网络时,除了考虑网络硬件设备的架构,2-7层网络设计也需要考虑。这两者其实不能完全分开,硬件架构有时候决定了网络设计,网络设计有时候又限制了硬件架构。从应用场景,例如SDN/NFV来看,网络设计是最直接需要考虑的。所以这部分说说网络设计。

    **

    传统三层网络架构中的网络设计

    **
    L3架构
    前面几部分说过,传统的三层网络架构中,通常是在汇聚层做L2/L3的分隔。这样可以在每个汇聚层POD构建一个L2广播域,跨汇聚层的通信通过核心交换机做L3路由完成。例如,在划分VLAN时,将VLAN200划分在POD A,VLAN300划分在POD B,VLAN400划分在POD C。这样设计的好处是BUM(Broadcase,Unknown Unicast,Multicast)被限制在每个POD。
    图片描述

    由于L2广播域被限制了在汇聚层POD,所以服务器的迁移一般在POD内部完成。因为跨POD迁移,对应二层网络会变化,相应的服务器需要做一些变化,例如IP地址,默认网关。也就是说,服务器所在的网络,限制了服务器的部署范围(只能在POD内)。

    大二层架构
    为了更灵活的管理服务器,需要服务器可以部署在数据中心任意位置,在任意位置做迁移,可以使用大二层架构。在这种架构下,整个核心交换机以下都是一个L2广播域,L2广播域中的不同L2网络,通过核心交换机的路由功能转发,同一个L2网络,服务器可以任意迁移部署。
    图片描述

    这种架构的缺点就是,BUM会在整个数据中心传播,这最终限制了网络的规模。因为网络规模大到一定程度,BUM会严重影响正常的网络通讯。

    **

    Spine/Leaf架构中的网络设计

    **
    Spine/Leaf网络架构中,L2/L3的分隔通常在Leaf交换机。也就是说每个Leaf交换机下面都是个独立的L2广播域。如果说两个Leaf交换机下的服务器需要通讯,需要通过L3路由,经由Spine交换机转发。
    图片描述

    与传统三层网络架构类似,这样的设计,能分隔L2广播域,适用的网络规模更大。但是对应的问题就是,服务器的部署不能在数据中心的任意位置。我们来进一步看这个问题。

    当服务器(虚拟的或者物理的)需要被部署在数据中心时,一般需要指定特定的网络分段(Segment)中,或者说特定的L2广播域。如果Segment被局限在了某些特定的交换机下,那么服务器只能在这些交换机的管理范围内部署。也就是说,网络限制了计算资源的部署和分配。但是实际中,真正与计算资源相关的资源,例如对于物理服务器来说,机架的空间,电源,散热等,或者对于虚拟服务器来说,服务器的CPU,内存,硬盘等,这些因素才应该是决定服务器是否部署的因素。如果说对应的机架或者计算资源已经被使用了80%,而其他的机架或者计算资源还基本是空置的,但是网络只在这个高负荷的位置可用,服务器再向这个高负荷的位置进行部署明显不合适。

    有什么解决办法能打破网络的限制?例如给空置的机架对应的交换机也配置上相应的网络,让新的服务器部署在它们之上,这样可行吗?举个例子,看一个最简单的spine/leaf架构:
    图片描述

    例如左边的leaf配置了VLAN200,管理的CIDR是192.168.1.0/24,右边的leaf交换机配置VLAN300,管理的CIDR是10.11.11.0/24。左右的服务器可以通过L3路由进行转发,这没问题。但是这种情况下,服务器的部署需要考虑网络的可用性。VLAN200的服务器只能在左边,VLAN300的服务器只能在右边,这部分上面说过。

    那直接给右边leaf交换机也配上VLAN200,IP地址也配上192.168.1.0/24。看起来似乎可以打破网络的限制,但是实际上,这会导致:

    1.两边的服务器的广播域是不通的,左边发出来的广播,Spine上的L3路由不会转发,所以右边是收不到的。
    2.左边的服务器不能到达右边的服务器,因为从IP地址来看,左右服务器在一个二层网络,但是实际上两边服务器又不在一个L2广播域中,数据不会发向L3路由,本地也找不到。
    3.Spine交换机会感到困惑,因为当它收到目的地址是192.168.1.0/24的数据包时,它不知道该路由给左边还是右边。

    实际效果如下图所示:
    **图片描述**

    这里相当于,在左右两个Leaf交换机上,创建了两个(而不是一个)VLAN200的网络。而由于CIDR重复,这两个网络之间还不能路由。

    **

    Overlay网络

    **
    Overlay网络技术可以很好的解决上面的问题。Overlay技术有很多中,GRE,NVGRE,Geneva,VXLAN。这里就不说谁好谁不好,只以VXLAN为例说明,但是大部分内容其他的Overlay技术同样适用。

    Overlay网络是在现有的网络(Underlay网络)基础上构建的一个虚拟网络。所谓的现有网络,就是之前的交换机所在的网络,只要是IP网络就行。而新构建的Overlay网络,用来作为服务器通讯的网络。Overlay网络是一个在L3之上的L2网络。也就是说,只要L3网络能覆盖的地方,那Overlay的L2网络也能覆盖。例如下图中,原有的交换机网络不变,服务器之间通过Overlay网络实现了跨Leaf交换机的L2网络。这样,在Overlay网络中,服务器可以任意部署,而不用考虑现有网络的架构。
    图片描述

    当提起VXLAN解决了什么问题时,很多人想到的是解决了VLAN ID数量有限的问题,这的确也是VXLAN RFC7348明确说明的。但是现实中解决VLAN ID数量不够还有别的方法,例如QinQ。以VXLAN为代表的Overlay技术解决的,更多是(个人观点)提供了一个不受物理网络限制的,可软件定义的网络环境。

    一个完整的Spine/Leaf网络架构配合VXLAN示意图如下所示,这个图里面以虚拟服务器(VM)为例说明,但是实际上并不局限于虚拟的服务器。对于VM来说,并不知道什么VXLAN,VM只是把Ethernet Frame发出来。Leaf交换机(或者说VTEP)将VM的Ethernet Frame封装成VXLAN(也就是一个UDP包),在原有的Spine/Leaf的Underlay网络传输。因为是一个UDP包,所以可以在原有的L3网络中任意传输。
    图片描述

    采用Overlay,需要在Leaf交换机上集成VTEP。有时候,将这种网络架构称为VXLAN Fabric。为什么是Fabric,上一篇说过了。

    VXLAN Fabric网络架构通常有两种实现,一种是基于Flood-Learn的模式,与传统的L2网络类似,另一种是基于MP-BGP EVPN作为控制层。有关数据中心内的EVPN,我在之前的多篇文章有介绍,感兴趣可以去看看,这里就不再重复了。

    **

    最后

    **
    Overlay技术并非为Spine/Leaf网络架构设计,早在传统的三层网络架构中,也有应用Overlay技术构建虚拟网络。只是说Spine/Leaf架构作为一种相对较新的网络架构,配合VXLAN或者其他Overlay技术,能够设计出更灵活的数据中心网络。在SDDC(Software Defined Data Center)架构或者SDN中,这种Overlay更是非常重要的一个部分。

    最后的最后,这个系列的浅谈就先说到这里了。这个系列有一部分是受到 @阿布 同学的数据中心“网络架构演进(一)”和“数据中心网络架构演进(二)”的启发,在此感谢。之所以也写一次,是想提供一个非网工的,云计算从业人员的视角,希望对大家有帮助。

    ==========================================================
    本文转载自“肖宏辉-软件定义网络”专栏,链接:
    https://zhuanlan.zhihu.com/p/30119950

    更多文章请见:https://zhuanlan.zhihu.com/software-defined-network

    该文章版权为作者-肖宏辉所有,侵权必究。
    如需转载请联系作者获得授权并注明出处。

    展开全文
  • 数据中心网络架构演进 — 云网融合

    千次阅读 2020-03-01 19:09:59
    数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...

    目录

    前文列表

    数据中心网络架构演进 — 从传统的三层网络到大二层网络架构
    数据中心网络架构演进 — 从物理网络到虚拟化网络
    数据中心网络架构演进 — CLOS 网络模型的第三次应用
    数据中心网络架构演进 — 从 Underlay 到 Overlay 网络
    数据中心网络架构演进 — SDN 将控制面与数据面分离
    数据中心网络架构演进 — 从私有云到多云到混合云
    数据中心网络架构演进 — 从 VQN 到 SD-WAN
    数据中心网络架构演进 — 从专用设备到 NFV 虚拟网元

    云网融合

    前文说到,混合云时代将全面释放企业的创新能力,而云网融合就是为了从技术层面解决企业日益高涨的创新需求与多云互联的网络困境之间的矛盾。—— 云网融合是基于业务需求和技术创新并行驱动带来的网络架构深刻变革,使得云和网高度协同,互为支撑,互为借鉴的一种概念模式

    通信专家云晴曾提出了运营商可以借助云网融合打造 “智能管道” 业务的新路径,他表示:“在企业网络中提供各数据中心之间持续、安全的互联可能是运营商云化业务拓展的一个重要服务方向。例如,AT&T 在 2013 年推出的 NetBond 继承了各种 AT&T 业务点,为用户提供了更多连接到云端的方式,用户可以通过互联网上虚拟专网接入的方式获得在网络上的云服务。通过这些企业业务服务场景的组合,AT&T 提供了一个集成的混合解决方案,满足一系列具有不同云策略的用户需求。国内运营商也可以抓住云网融合带来的商业机会,加快企业数字化转型。”

    业内专家指出,电信运营商应以网络为基础,围绕云组网、云联网、云专线、云宽带等云网融合产品和服务,构建面向行业的新型运营服务体系,实现云网融合产品的一点受理,敏捷开通。同时,以网络连接为中心,对上游客户提供面向行业应用的网络连接服务,对下游厂商实现合作伙伴云服务能力和运营商自身网络服务的集成,构建属于运营商特征的云网生态。

    对于中国移动而言,云既是新型信息基础设施,又是战略型关键业务,“云改” 转型是中国移动向价值经营转变的重要一步。在 “云改” 中,中国移动最大的优势在于网,但形成黏性,还需要依靠 “云网融合” 打造差异化优势。中国移动面向 ToB 市场重构了云网架构,持续打造云网边行业专网。

    简而言之,云网融合是云计算发展过程中的自然产物,人们从 “要不要上云,到怎么上云” 的观念转变是云网融合需求的根本因素。现在人人有云,甚至人手多云,那么这些个体之间关系应该如何构建?笔者认为这是一个哲学问题,就像我们思考自己应该如何与世界相处,思考 “云和云之间、云和人之间的关系” 就是云网融合所肩负的历史使命。

    单纯的 “大带宽、低延迟” 网络已经无法满足企业用户更多元化(多系统,多业务,多场景)的上云要求。云服务运营商的网络急切的需要从以设备为中心,演化为以用户为中心,让网络变得更加简洁和智能化,不再对上层业务和策略有太多要求,网络将具备理解用户业务意图的能力。

    云网融合的趋势逐渐由 “互联” 向 “云+网+ICT服务” 和 “云+网+业务” 过渡,云间互联只是过程,最终目的是达成云网和实际业务的高度融合,包括服务资源的动态调整、计算资源的合理分配以及定制化的业务互通等。近年来,SD-WAN、云专线、对等连接等云网融合技术已经逐渐走向成熟。当前,电信运营商作为云网融合的第一阵营,云服务商作为第二阵营,云网融合最终服务于企业上云,在上云的过程中,云网协同能力的重要性不断提升。

    注意:混合云只是云网融合的一个应用场景,云网融合有着更多样化的应用场景。

    在这里插入图片描述

    云网融合的应用场景

    跨云服务商的云资源池互联:是指不同的云服务商的公有云资源池间的高速互联。该场景解决来自不同厂商公有云资源池互联问题,最终实现跨云服务商跨云资源池的互联。跨云服务商的云资源池互联也叫多云互联。

    在这里插入图片描述
    混合云场景:是指企业本地(私有云、本地数据中心、企业私有IT平台)与公有云资源池之间的高速连接,最终实现本地计算环境与云上资源池之间的数据迁移、容灾备份、数据通信等需求。

    在这里插入图片描述
    多中心互联场景:是指同一云服务商的不同资源池间的高速互联。解决分布在不同地域的云资源池互联问题。企业可通过在不同的资源池部署应用,来完成备份、数据迁移等任务。
    在这里插入图片描述

    云网融合发展趋势

    从 2018 年的下半年开始,一些公有云巨头纷纷开始把云网的触角继续下探,直接为企业提供 CPE 设备,使用这个 CPE 后,企业入云的流量会被自动指向私有骨干网的 POP 点,实现所谓的 “零配置入云”。在把 CPE 纳入到整个云网一体的架构中后,公有云所能提供的,包括企业侧的出口设备,到各大城市接入的 POP 点,再到全球的骨干网,再到分布在全球的 Region 以及云上的 VPC 网络,从网络的视角来看,这将是一个上下游全覆盖的解决方案。

    以云作为销售入口,通过 CPE 把流量牵引到自己的骨干网上来,再通过自有的网入自有的云,这正是几家公有云巨头为云网一体所描绘出来的形态。

    上述介绍了围绕公有云私有骨干网展开的组网架构,提到这通常意味着自有的网入自有的云,云作为前端入口带动用户入网,网反过来再将用户进一步与云锁定。这还只是涉及到 IaaS,入云之后 PaaS 层面的锁定将更为严重,如果用户的业务系统使用了某家公有云提供的中间件或者 API 后,从这个云上下来可能就更加困难了。对于小企业而言这种一站式的解决方案很具有吸引力,但是对于大企业来说,锁定却意味着后期在价格和服务等方面上面临着受制于人的风险,另外小企业未来也可能会发展为大企业,防微杜渐同样非常关键。

    在这里插入图片描述

    另外,2018 年下半年,各大公有云频繁出现故障,或服务宕机或数据丢失,甚至出现了被自然灾害所破坏的事件。因此,使用多个公有云,除了降低公有云对于用户的锁定以外,还可以起到分散风险的作用。多云对于未来业界生态的健康发展非常关键,已经引起了业界的广泛关注,而如何打通多云间的连接,将成为多云的关键能力。

    目前各大公有云都会提供 VPN 网关,支持与企业分支或者数据中心间进行互联。但是却很少直接在两个公有云间直接互联。考虑到这种现状,为打通多个公有云,最常见的思路,是利用企业数据中心作为 Hub,分别与不同公有云的连接,由企业的数据中心来转接不同公有云间的流量,即由用户自己来承担多云互联的责任。

    在这里插入图片描述

    相比之下,设备厂商所构想的多云互联方案,是在不同的公有云中引入 vRouter,使用 vRouter 与企业分支或者数据中心互通,如果企业在其分支或数据中心以及各个公有云上使用某个厂商的设备,就能够绕开公有云的 VPN 网关,由厂商的控制器对组网进行统一的管理与控制,一方面可以实现端到端的自动化,另一方面厂商的 vRouter 上具备更多的路由、安全、以及 SD-WAN 的能力,能够满足用户更为复杂的组网需求。这种思路下,多云互联的责任落到了厂商的 vRouter上,不同公有云的 vRouter 间得以直接进行 IPSec 互联。

    在这里插入图片描述

    上述介绍的两种思路,技术上区别不大,不过组网所围绕的重心却有所不同。实际上,厂商的 vRouter 相当于 OTT 掉了公有云,与公有云提供的 VPN 网关形成了直接的竞争关系。目前来看,公有云并不排斥在 Market Place 上引入厂商的 vRouter,但未来云组网的生态将发生什么样的变化,仍然有待观察。

    未来云网融合的挑战

    在多云的场景下,行业中目前正在涌现出一类角色,专业实现多云间的流量交换,通常被称为 CXP,Cloud Exchange Provider。公有云中分布在不同 Region 的 VPC,企业分布在不同地域的分支或数据中心,彼此之间以 CXP 作为连接的枢纽进行流量的交换。可以看到的是, CXP 与之前所提到的公有云私有的骨干网的区别在于,公有云私有的骨干网通常只与自有的云进行连接,而 CXP 自身并不做公有云,因此会尽可能多地与不同的公有云建立连接,丰富其作为交换平台的公有云连接度。

    在这里插入图片描述

    CXP 是未来云网融合生态中不可忽视的一股力量。对于少数公有云巨头来说,结合其公有云的资源与服务,及其私有骨干网的覆盖与带宽,可形成上下游全覆盖的整体解决方案,一体化交付的能力将稳固其市场份额,并形成正向的推力。不过,对于其他的公有云来说,可能不具备自建私有骨干网,并提供整体解决方案的能力,因此他们与 CXP 间的合作,将会是未来保持行业生态多样性的重要基础。

    扮演 CXP 角色的选手有很多。传统的 IXP 只做 Internet 流量的交换平台,其覆盖点广泛地分布在全球,随着公有云的成熟与普及,IXP 与多个公有云间打通连接后,将顺理成章地转型为 CXP。传统的网络运营,具备着非常发达的网络结构,广泛的覆盖,以及强大的带宽能力,也同样是未来转型 CXP 的种子选手。

    对于公有云而言,其早期建设的私有骨干网,通常只连接自身不同的 Region。当未来市场格局进一步明确后,如果某家公有云无法占据足够的市场份额,此时有可能会在战略层面对云和网进行拆分,允许其骨干网开放给第三方的公有云进行连接,并进行独立运营,此时也就相当于转变为了 CXP 的角色。

    可以看到的是,无论是企业分支/数据中心间,还是在企业分支/数据中心与公有云间,或者在不同的公有云间实现连接,WAN 都将继续扮演核心的角色。早期,行业主要关注于云内部的 VPC,后来公有云通过网关将云组网的边界向外进行延伸,实现跨域、Internet 接入与混合云连接,再到目前正在逐步兴起的多云概念,未来当 5G、IOT 和边缘计算大规模落地后,将为 WAN 的发展带来更多的发展机遇,同时在技术和商业模式上,也对于现有的 WAN 提出了很大的挑战。

    云网融合发展的三个阶段

    从产业的发展来看,‍‍云网融合‍‍会‍‍经历三个阶段。‍‍目前主要处在云网协同阶段,这一阶段的‍‍云和网‍‍‍‍在技术形态上是彼此独立的,‍‍需要通过一些技术手段,‍‍让两者彼此连接、‍‍协同起来,‍‍实现统一交付和调度的效果。

    ‍‍往后进阶,就进入到了云网融合的阶段,‍‍这个阶段最主要的特点就是云和网‍‍在技术架构上会逐步‍‍趋向一致,云和网会产生物理反应。最终的目标是要实现云网一体,云网一体化的‍‍云和网是一种‍‍深度的化学反应,在‍‍具体的业务和应用上看不到云和网的差异,‍‍呈现出来的是云网一体化的能力。‍‍‍

    在这里插入图片描述

    SDN/SD-WAN 是云网融合的关键

    在这里插入图片描述

    一方面提供网络的云化服务,‍‍‍‍比较典型的场景就是在运营商的‍‍城域网以及 5G 的相关建设中引入了 SDN 加 NFV 的技术,让网络整个形态发生了变化,让网络本身‍‍变成了一朵云。‍‍也就是说‍‍通过 SDN 控制技术,通过 NFV 网源形态的变化,让整个‍‍网络的控制中心成为了一个云,‍‍也就是常说的网络云。另一方面,结合 SDN 相关的技术提供了网络的云化,包括网络的弹性、分片等等。‍‍

    在这里插入图片描述

    ‍‍具体来看云网融合的应用,第一是云内的融合,‍‍也就是在云内、数据中心内是如何去实现融合的?第二是云间的融合,如何实现‍‍多个云间的云网融合?第三是云边的融合,如何实现在云计算中心与边缘网络访问节点之间的融合?‍‍

    在这里插入图片描述

    云内融合

    在这里插入图片描述

    云内融合,上层是基于云的统一编排和运营的入口,下层是基础设施,也就是计算、‍‍网络、存储。‍‍那么在云平台与网络之间,有 SDN 的控制器,也就是 SNA center。SNA center 一方面通过插件的方式跟云平台做对接,‍‍另一方面通过多种协议实现对网络的控制。有了 SDN 控制器,云平台对网络的控制‍‍不需要针对复杂的‍‍设备,只需要跟控制器做好对接,就可以实现下端海量设备的控制‍‍和编排。

    ‍‍‍‍在云内融合中有以下几个关键的能力:

    • 云对网络自动化编排。
    • 云租户网络隔离。
    • 计算资源的自动上下线。
    • 云内多 Fabric、多 DC 互通。
    • 基于先知分析器的网络诊断与隔离。

    云间融合

    在这里插入图片描述

    随着云的发展,无论是私有云‍‍还是公有云,都有大量的、多云的连接需求,一方面是实现内部的统一管理,‍‍另一方面是实现不同的云资源池之间的资源共享。这时需要在各个云之间‍‍提供一个高带宽的、可灵活定义的网络连接,新华三的基于 SR/SRv6 的 DCI 互联方案可以很好的满足诉求。‍‍可以实现以下几个功能:

    • 多业务互联:SRv6 多业务承载,端到端网络切片,降低网络架构复杂度;
    • 智能调度:全网路径优化和流量调度,实现跨云的应用分发;
    • 智能运维:基于AI和机器学习,提升网络预测、风险管控能力;
    • 开放网络:基于 SDN 的开发平台,满足业务对网络的定制化需求。

    云边融合

    在这里插入图片描述

    现在整个业界云边融合讲的比较多的‍‍是云计算‍‍中心与下端网络服务节点之间的‍‍网络部分,核心是解决如何访问云服务的问题,包括多云的访问、SaaS 的加速、把线路的优选等。新华三提供的 SD-WAN 分支方案实现了‍‍云数据中心与边缘节点之间灵活部署的问题,另外还主要解决以下几个问题:

    • 降低成本:上云多线路支持、进行线路优选;
    • 优化体验:针对应用的网络优化(压缩、缓存)提升应用体验;
    • 简化运维:后疫情时代,零接触部署,简化入云通道;
    • 增强安全:国密加集成安全能力,实现端到端的云访问通道;
    • NFV 形态支持:vSR 实现租户网络安全直连。

    边缘的云网融合

    在这里插入图片描述

    ‍‍Gartner 数据显示,‍‍预测 2025 年‍‍企业 Workload‍‍s 30% 将在边缘,‍‍40% 在公有云,剩余 30% 在‍‍私有部署,边缘‍‍的云网融合‍‍在这里‍‍扮演了非常重要的角色。‍‍未来‍‍边缘与‍‍公有云中心云之间,‍‍云与云之间的连接‍‍以及最后一公里的优化,‍‍‍‍完全影响着‍‍用户的体验。‍‍随着 5G、自动驾驶等应用不断地推出‍‍,边缘计算和云网融合将变得越来越重要。

    展开全文
  • 目录 文章目录目录前文列表Clos Networking 前文列表 《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 Clos Networking ...
  • 使用Python绘制数据中心网络拓扑

    千次阅读 2019-08-08 21:50:21
    使用Python绘制数据中心网络拓扑 本文采用Python语言,借助networkx, matplotlib实现三种典型数据中心网络拓扑的绘制与可视化。三种数据中心网络拓扑为Fat-tree, BCube, Vl2。 拓扑生成 在开始之前,引入相关的包...
  • 目录 文章目录目录前文列表云网融合SD-...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与...
  • 云计算数据中心网络的关键技术

    千次阅读 2012-05-01 16:59:33
    云计算数据中心网络的关键技术 发表时间:2012-4-24 黄大川 来源:万方数据 关键字:云计算 面向服务的架构 虚拟化 数据中心以太网 信息化调查找茬投稿收藏评论好文推荐打印社区分享 简要介绍了...
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...
  • 数据中心网络三大热门技术

    千次阅读 2016-03-30 11:09:00
    虚拟交换、大二层、大交换是目前数据中心网络领域最火热的三大技术,每种技术都衍生出不少的细分门类,相互竞争。有竞争才有发展,只有在不断竞争中,技术才能得到完善,这其中必然会有些技术会被淘汰,有些技术得到...
  • 数据中心网络系统只是数据中心总体IT系统的一个组成部分,建设分布式双活数据中心需要网络、计算、存储等多个IT系统之间紧密合作才能实现。分布式双活数据中心的技术体系内容非常丰富。  一, 数据中心互联的主要...
  • 数据中心的BGP 说明: 这是最近在学习《BGP in the datacenter》。由于原文是全英文。所以在学习过程中,利用谷歌翻译和网易翻译,再把翻译不通的地方,加上自己理解稍微改了改。在此共享出来,需要的人可以参考...
  • 2018数据中心网络魔力象限解读

    千次阅读 2018-08-23 04:16:36
    7月11日,Gartner发布了2018 数据中心网络魔力象限。跟去年相比,这一次有非常「重要的变化」,先来一张去年图做对比,再细说。特别说明:本文引用了Gartner的...
  • 数据中心网络高可用架构

    万次阅读 2016-09-09 15:30:27
    文章不错,转来了 http://www.h3c.com.cn/Solution/Operational/DataCenter/Solutions/201003/802841_30004_0.htm相比传统的高可用技术,新技术的出现为构建数据中心网络的高可用架构提供了更优的部署方式。...
  • Facebook数据中心网络架构概览

    千次阅读 2017-02-09 00:02:44
    为了能够给用户提供实时的体验,Facebook为数据中心设计了一个高可扩展,高性能的网络架构,称之为:data center fabric。 虽然这个网络架构实际上在14年已经实施了,但是其中的一些设计理念在今天的一些数据中心里...
  • 数据中心网络里的Underlay和Overlay

    千次阅读 2017-01-09 15:47:50
    数据中心网络里的Underlay和Overlay Underlay网络  以太网从最开始设计出来就是一个分布式网络,没有中心的控制节点,网路中的各个设备之间通过协议传递的方式学习网络的可达信息,由每台设备自己决定要...
  • 数据中心网络领域,性能、规模似乎永远没有边界,是业界技术人员、设计者们不断追求与创新的目标。从1G速率骨干网的应用、10G速率骨干网的普及,到40G/100G以太网标准的制定和颁布, IT领域同样有着更高、更快、更...
  • 数据中心网络堆叠技术真的过时了?

    千次阅读 2019-03-08 11:10:58
    堆叠(Stack)是在数据中心网络交换机上进行扩展端口、简化管理的技术,是一种非标准化技术。堆叠只有在自己厂家的设备之间完成,属于私有内部实现,此设备必须具有堆叠功能才可实现,并且堆叠需要专用的堆叠模块和堆...
  • 数据中心网络架构设计比较

    千次阅读 2019-04-15 15:00:51
    翻译自...交换机的互联和数据通信的保证是设计一个数据中心的基本方面。当今的数据中心都是由1RU或者2RU的设备组成。因此可以将1RU或者2RU的交换机放到racks里面可以大大的节省空间,简化布线。典型...
  • 数据中心网络架构浅谈(二)

    万次阅读 多人点赞 2018-01-21 14:46:08
    网络交换机就是将输入端口的数据,经过判断,转发到输出端口。其架构大体如下图所示: 交换机内部连接输入输出端口的是Switch Fabric。最简单的Switch Fabric架构是crossbar模型,这是一个开关矩阵,每一个cross...
  • 数据中心网络架构浅谈(一)

    万次阅读 多人点赞 2018-01-17 20:56:48
    不论我们在讨论SDN,NFV或者其他的虚拟网络技术,有一点需要明确,网络数据包最终都是跑在物理网络上。物理网络的特性,例如带宽,MTU,延时等,最终直接或者间接决定了虚拟虚拟网络的特性。可以说物理网络决定了...
  • 云计算数据中心网络虚拟化技术

    千次阅读 2013-04-09 10:09:09
    云计算数据中心网络虚拟化技术 2013-02-28 10:21:45 来源:CIO时代网 互联网 摘要: 云计算最重要的技术实现就是虚拟化技术,计算虚拟化商用的解决方案得到了较成熟的应用,而存储虚拟化已经在SAN上实现得很...
  • 文章目录目录前言传统路由交换技术路由和交换交换技术传统的 2 层交换技术具有路由功能的 3 层交换技术具有网络服务功能的 7 层交换技术路由技术三层网络架构核心层(Core Layer)汇聚层(Aggregation Layer)接入层...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 455,133
精华内容 182,053
关键字:

数据中心网络