精华内容
下载资源
问答
  • 数据中心网络架构

    千次阅读 2019-09-18 06:50:20
    传统数据中心网络架构 传统数据中新网络架构通常是3层结构,(园区网一般也是3层结构)Cisco称之为:分级的互联网络模型,包含三层: Core 核心层 : 提供高速转发,为多个汇聚层提供连接性Aggregation 汇聚层 :...

    传统数据中心网络架构

    传统数据中新网络架构通常是3层结构,(园区网一般也是3层结构)Cisco称之为:分级的互联网络模型,包含三层:

    Core 核心层 : 提供高速转发,为多个汇聚层提供连接性
    Aggregation 汇聚层 :汇聚连接接入交换机,同时提供其他服务(FW、SLB、等)
    Access 接入层 :物理连接服务器,一般放在机柜顶端,也称ToR交换机

    一个三层架构图如下:

    数据中心网络架构

    汇聚是网络的分界点,汇聚交换机以下是L2网络,以上是L3网络,每组汇聚交换机是一个pod,根据业务分区分模块。pod内是一个或者多个VLAN网络,一个POD对应一个广播域。

    这种架构部署简单,(vlan+xstp)技术成熟。

    VLAN 、Xstp

    使用vlan、xstp原因:

    1、BUM(广播,未知单播,组播)
    vlan技术把一个大的物理二层域划分成多个小的逻辑二层域,这逻辑的二层域被称为vlan,同一个vlan内可以二层通信,不通vlan之间隔离,这样广播的范围被局限在一个vlan内,不会扩散到整个物理二层域
    vlan还有简化管理,提高安全性等。。

    2、环路及环路形成的广播风暴

    如果是单设备单链路组成的3层架构,是不存在环路以及环路带来的广播,但是这种网络可靠性比较差,因为没有任何的备份设备和备份链路,一旦某个设备或者链路发生故障,故障点下的所有主机就无法连上网络。

    为了提高网络的可靠性,通常采用冗余设备和冗余链路(如上图),这样就不可避免形成环路,二层网络处于同一个广播域下,广播报文在环路中反复持续传送,无线循环下就会形成广播风暴,瞬间就会造成端口阻塞设备瘫痪。

    防止环路出现,又要保证网络的可靠性,就只能讲冗余设备和冗余链路变成备份设备和备份链路,冗余设备和链路在正常情况下被阻塞掉,不参与数据报文的转发,只有当前转发的设备、端口、链路出现故障导致网络不通的时候,冗余设备和链路才会被打开,使得网络恢复正常,实现这些自动控制的协议被称为破环协议,最常用就是 STP (生成树协议)有RSTP、MSTP 统称 XSTP协议。

    服务器虚拟化

    虚拟化发展改变了数据中心网络架构的需求,其中技术--虚拟机动态迁移,虚拟机迁移要求虚机迁移前后的IP和MAC地址不变,这就需要虚机迁移前后的网络处于同一个二层域内部,甚至跨越不同地域、不同机房之间的迁移,使得数据中心二层网络的范围越来越大,出现了大二层网络这一新领域专题。

    传统网络架构的二层大不起来

    一般传统网络架构分区分模块的业务特点,区域对应VLAN划分,跨pod迁移肯定的换IP地址,这就不符合虚机动态迁移业务不中断:

    数据中心网络架构

    vlan问题

    VLAN的核心思想之一,就是通过划分VLAN来缩小二层域的范围和规模,来控制广播风暴的规模。
    而对于大二层网络的需求而言,又要求把所有服务器都纳入同一个二层域,那如果把所有服务器都纳入到同一个VLAN当中,如果没有其他隔离手段,那不就相当于又把广播域扩得大大的?这和划分VLAN的初衷是背道而驰的。

    公有云的兴起和IaaS模式的普及,“多租户”环境成为了云网络必备的基础能力。而传统二层网络中,VLAN最多支持的租户数量为4K,已经跟不上业务的飞速发展。

    xstp问题

    环路技术收敛慢,xSTP需要阻塞掉冗余设备和链路,降低了网络资源的带宽利用率,二层的组网规模受到极大的限制

    实现大二层

    传统二层技术无法实现真正意义上大二层网络,所以就要另外想办法,然后技术大牛们各显神通,想出了很多解决方案:

    1、虚拟交换机技术

    既然二层网络的核心是环路问题,而环路问题是随着冗余设备和链路产生的,那么把多台设备、多条链路合并成一台、一条就可以消除环路。那就是网络设备虚拟化技术。
    所谓网络设备虚拟化技术,就是将相互冗余的两台或多台物理网络设备组合在一起,虚拟化成一台逻辑网络设备,在整个网络中只呈现为一个节点。
    网络设备虚拟化再结合链路聚合技术,就能够将原来的多设备多链路的结构变成逻辑上的单设备单链路的架构,杜绝了环路的出现,因此不再受破环协议的限制,从而实现大二层网络。

    网络设备虚拟化的主要技术大致可以分为三类:框式设备的堆叠技术、盒式设备的堆叠技术、框盒/盒盒之间的混堆技术。有华为的CSS、iStack、SVF,CISCO的VSS、FEX,H3C的IRF等。

    数据中心网络架构

    网络设备虚拟化方案也有一定的缺点:

    1)这些协议都是厂家私有的,因此只能使用同一厂家的设备来组网。

    2)受限于堆叠系统本身的规模限制,目前最大规模的堆叠/集群大概可以支持接入1~2万主机,对于超大型的数据中心来说,有时候就显得力不从心了。但是对于一般的数据中心来说,还是显得游刃有余的

    东西向L3流量,不论是不是在一个接入层交换机下,都需要走到具有L3功能的核心交换机,如果东西流量大的话,浪费宝贵核心交换资源,多层转发也增加了网络传输延时
    数据中心网络架构

    其次共享的L2广播域带来的BUM(Broadcast·,Unknown Unicast,Multicast)风暴随着网络规模的增加而明显增加,最终将影响正常的网络流量。

    2、隧道技术

    隧道技术解决的也是二层网络的环路问题,但是着眼点不是杜绝或者阻塞环路,而是在有物理环路的情况下,怎样避免逻辑转发路径的环路问题。

    核心思想把三层网络的路由转发方式引入到二层网络中,通过在二层报文前插入额外的帧头,并且采用路由计算方式控制整网数据的转发,不仅可以在冗余链路下防止广播风暴,而且可以做ECMP。这样可以将二层网络的规模扩展到整张网络,而不会受核心交换机数量的限制。当然这需要交换机改变传统的基于MAC的二层转发行为,而采用新的协议机制来进行二层报文的转发。

    新的协议包括TRILL、FabricPath、SPB等。

    TRILL协议在原始以太帧外封装一个TRILL帧头,再封装一个新的外层以太帧来实现对原始以太帧的透明传输,TRILL交换机可通过TRILL帧头里的Nickname标识来进行转发,而Nickname就像路由一样,可通过IS-IS路由协议进行收集、同步和更新

    TRILL和SPB这些技术是CT厂商主推的大二层网络技术方案。

    3、Overlay网络

    Overlay网络是在现有的网络(Underlay网络)基础上构建的一个虚拟网络。所谓的现有网络,就是之前的交换机所在的网络,只要是IP网络就行。而新构建的Overlay网络,用来作为服务器通讯的网络。Overlay网络是一个在L3之上的L2网络。也就是说,只要L3网络能覆盖的地方,那Overlay的L2网络也能覆盖。

    通过用隧道封装的方式,将源主机发出的原始二层报文封装后在现有网络中进行透明传输,到达目的地之后再解封装得到原始报文,转发给目标主机,从而实现主机之间的二层通信。
    通过封装和解封装,相当于一个大二层网络叠加在现有的基础网络之上,所以称为Overlay,也叫NVo3。

    Overlay方案的核心就是通过点到多点的隧道封装协议,完全忽略中间网络的结构和细节,把整个中间网络虚拟成一台“巨大无比的二层交换机”, 每一台主机都是直接连在这台“巨大交换机”的一个端口上。而基础网络之内如何转发都是这台“巨大交换机”内部的事情,主机完全无需关心。

    Overly技术不依赖于承载网络,可以充分利用现有的基础网络来实现大二层网络,并且对于支持SDN和多租户方面有优势,是当前大二层网络最热门的技术,可以实现整个数据中心的大二层网络,甚至跨数据中心的大二层组网,但是Overly技术中由Overly网络和Underlay承载网络两个控制层面,管理维护和故障定位就相对复杂的多,运维工作也相对较大。

    数据中心网络架构

    vxlan配合Spine/Leaf架构:

    数据中心网络架构

    Spine/Leaf网络扩大接入和汇聚层。一个主机可以通过叶支交换机(leaf)和另一个叶支交换机上的主机进行通信,而且是独立的通道。这种网络可以大大提高网络的效率,特别是高性能计算集群或高频流量通信设备

    数据中心网络架构

    东西流量无须经过核心

    展开全文
  • 【转载】数据中心网络架构浅谈

    千次阅读 2018-12-26 13:08:34
    数据中心网络架构浅谈(一) - 肖宏辉的文章 - 知乎 https://zhuanlan.zhihu.com/p/29881248 数据中心网络架构浅谈(二) - 肖宏辉的文章 - 知乎 https://zhuanlan.zhihu.com/p/29975418 数据中心网络架构浅谈(三...

    数据中心网络架构浅谈(一) - 肖宏辉的文章 - 知乎 https://zhuanlan.zhihu.com/p/29881248

    数据中心网络架构浅谈(二) - 肖宏辉的文章 - 知乎 https://zhuanlan.zhihu.com/p/29975418

    数据中心网络架构浅谈(三) - 肖宏辉的文章 - 知乎 https://zhuanlan.zhihu.com/p/30119950

    展开全文
  • 数据中心网络架构演进 — 云网融合

    千次阅读 2020-03-01 19:09:59
    数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...

    目录

    前文列表

    数据中心网络架构演进 — 从传统的三层网络到大二层网络架构
    数据中心网络架构演进 — 从物理网络到虚拟化网络
    数据中心网络架构演进 — CLOS 网络模型的第三次应用
    数据中心网络架构演进 — 从 Underlay 到 Overlay 网络
    数据中心网络架构演进 — SDN 将控制面与数据面分离
    数据中心网络架构演进 — 从私有云到多云到混合云
    数据中心网络架构演进 — 从 VQN 到 SD-WAN
    数据中心网络架构演进 — 从专用设备到 NFV 虚拟网元

    云网融合

    前文说到,混合云时代将全面释放企业的创新能力,而云网融合就是为了从技术层面解决企业日益高涨的创新需求与多云互联的网络困境之间的矛盾。—— 云网融合是基于业务需求和技术创新并行驱动带来的网络架构深刻变革,使得云和网高度协同,互为支撑,互为借鉴的一种概念模式

    通信专家云晴曾提出了运营商可以借助云网融合打造 “智能管道” 业务的新路径,他表示:“在企业网络中提供各数据中心之间持续、安全的互联可能是运营商云化业务拓展的一个重要服务方向。例如,AT&T 在 2013 年推出的 NetBond 继承了各种 AT&T 业务点,为用户提供了更多连接到云端的方式,用户可以通过互联网上虚拟专网接入的方式获得在网络上的云服务。通过这些企业业务服务场景的组合,AT&T 提供了一个集成的混合解决方案,满足一系列具有不同云策略的用户需求。国内运营商也可以抓住云网融合带来的商业机会,加快企业数字化转型。”

    业内专家指出,电信运营商应以网络为基础,围绕云组网、云联网、云专线、云宽带等云网融合产品和服务,构建面向行业的新型运营服务体系,实现云网融合产品的一点受理,敏捷开通。同时,以网络连接为中心,对上游客户提供面向行业应用的网络连接服务,对下游厂商实现合作伙伴云服务能力和运营商自身网络服务的集成,构建属于运营商特征的云网生态。

    对于中国移动而言,云既是新型信息基础设施,又是战略型关键业务,“云改” 转型是中国移动向价值经营转变的重要一步。在 “云改” 中,中国移动最大的优势在于网,但形成黏性,还需要依靠 “云网融合” 打造差异化优势。中国移动面向 ToB 市场重构了云网架构,持续打造云网边行业专网。

    简而言之,云网融合是云计算发展过程中的自然产物,人们从 “要不要上云,到怎么上云” 的观念转变是云网融合需求的根本因素。现在人人有云,甚至人手多云,那么这些个体之间关系应该如何构建?笔者认为这是一个哲学问题,就像我们思考自己应该如何与世界相处,思考 “云和云之间、云和人之间的关系” 就是云网融合所肩负的历史使命。

    单纯的 “大带宽、低延迟” 网络已经无法满足企业用户更多元化(多系统,多业务,多场景)的上云要求。云服务运营商的网络急切的需要从以设备为中心,演化为以用户为中心,让网络变得更加简洁和智能化,不再对上层业务和策略有太多要求,网络将具备理解用户业务意图的能力。

    云网融合的趋势逐渐由 “互联” 向 “云+网+ICT服务” 和 “云+网+业务” 过渡,云间互联只是过程,最终目的是达成云网和实际业务的高度融合,包括服务资源的动态调整、计算资源的合理分配以及定制化的业务互通等。近年来,SD-WAN、云专线、对等连接等云网融合技术已经逐渐走向成熟。当前,电信运营商作为云网融合的第一阵营,云服务商作为第二阵营,云网融合最终服务于企业上云,在上云的过程中,云网协同能力的重要性不断提升。

    注意:混合云只是云网融合的一个应用场景,云网融合有着更多样化的应用场景。

    在这里插入图片描述

    云网融合的应用场景

    跨云服务商的云资源池互联:是指不同的云服务商的公有云资源池间的高速互联。该场景解决来自不同厂商公有云资源池互联问题,最终实现跨云服务商跨云资源池的互联。跨云服务商的云资源池互联也叫多云互联。

    在这里插入图片描述
    混合云场景:是指企业本地(私有云、本地数据中心、企业私有IT平台)与公有云资源池之间的高速连接,最终实现本地计算环境与云上资源池之间的数据迁移、容灾备份、数据通信等需求。

    在这里插入图片描述
    多中心互联场景:是指同一云服务商的不同资源池间的高速互联。解决分布在不同地域的云资源池互联问题。企业可通过在不同的资源池部署应用,来完成备份、数据迁移等任务。
    在这里插入图片描述

    云网融合发展趋势

    从 2018 年的下半年开始,一些公有云巨头纷纷开始把云网的触角继续下探,直接为企业提供 CPE 设备,使用这个 CPE 后,企业入云的流量会被自动指向私有骨干网的 POP 点,实现所谓的 “零配置入云”。在把 CPE 纳入到整个云网一体的架构中后,公有云所能提供的,包括企业侧的出口设备,到各大城市接入的 POP 点,再到全球的骨干网,再到分布在全球的 Region 以及云上的 VPC 网络,从网络的视角来看,这将是一个上下游全覆盖的解决方案。

    以云作为销售入口,通过 CPE 把流量牵引到自己的骨干网上来,再通过自有的网入自有的云,这正是几家公有云巨头为云网一体所描绘出来的形态。

    上述介绍了围绕公有云私有骨干网展开的组网架构,提到这通常意味着自有的网入自有的云,云作为前端入口带动用户入网,网反过来再将用户进一步与云锁定。这还只是涉及到 IaaS,入云之后 PaaS 层面的锁定将更为严重,如果用户的业务系统使用了某家公有云提供的中间件或者 API 后,从这个云上下来可能就更加困难了。对于小企业而言这种一站式的解决方案很具有吸引力,但是对于大企业来说,锁定却意味着后期在价格和服务等方面上面临着受制于人的风险,另外小企业未来也可能会发展为大企业,防微杜渐同样非常关键。

    在这里插入图片描述

    另外,2018 年下半年,各大公有云频繁出现故障,或服务宕机或数据丢失,甚至出现了被自然灾害所破坏的事件。因此,使用多个公有云,除了降低公有云对于用户的锁定以外,还可以起到分散风险的作用。多云对于未来业界生态的健康发展非常关键,已经引起了业界的广泛关注,而如何打通多云间的连接,将成为多云的关键能力。

    目前各大公有云都会提供 VPN 网关,支持与企业分支或者数据中心间进行互联。但是却很少直接在两个公有云间直接互联。考虑到这种现状,为打通多个公有云,最常见的思路,是利用企业数据中心作为 Hub,分别与不同公有云的连接,由企业的数据中心来转接不同公有云间的流量,即由用户自己来承担多云互联的责任。

    在这里插入图片描述

    相比之下,设备厂商所构想的多云互联方案,是在不同的公有云中引入 vRouter,使用 vRouter 与企业分支或者数据中心互通,如果企业在其分支或数据中心以及各个公有云上使用某个厂商的设备,就能够绕开公有云的 VPN 网关,由厂商的控制器对组网进行统一的管理与控制,一方面可以实现端到端的自动化,另一方面厂商的 vRouter 上具备更多的路由、安全、以及 SD-WAN 的能力,能够满足用户更为复杂的组网需求。这种思路下,多云互联的责任落到了厂商的 vRouter上,不同公有云的 vRouter 间得以直接进行 IPSec 互联。

    在这里插入图片描述

    上述介绍的两种思路,技术上区别不大,不过组网所围绕的重心却有所不同。实际上,厂商的 vRouter 相当于 OTT 掉了公有云,与公有云提供的 VPN 网关形成了直接的竞争关系。目前来看,公有云并不排斥在 Market Place 上引入厂商的 vRouter,但未来云组网的生态将发生什么样的变化,仍然有待观察。

    未来云网融合的挑战

    在多云的场景下,行业中目前正在涌现出一类角色,专业实现多云间的流量交换,通常被称为 CXP,Cloud Exchange Provider。公有云中分布在不同 Region 的 VPC,企业分布在不同地域的分支或数据中心,彼此之间以 CXP 作为连接的枢纽进行流量的交换。可以看到的是, CXP 与之前所提到的公有云私有的骨干网的区别在于,公有云私有的骨干网通常只与自有的云进行连接,而 CXP 自身并不做公有云,因此会尽可能多地与不同的公有云建立连接,丰富其作为交换平台的公有云连接度。

    在这里插入图片描述

    CXP 是未来云网融合生态中不可忽视的一股力量。对于少数公有云巨头来说,结合其公有云的资源与服务,及其私有骨干网的覆盖与带宽,可形成上下游全覆盖的整体解决方案,一体化交付的能力将稳固其市场份额,并形成正向的推力。不过,对于其他的公有云来说,可能不具备自建私有骨干网,并提供整体解决方案的能力,因此他们与 CXP 间的合作,将会是未来保持行业生态多样性的重要基础。

    扮演 CXP 角色的选手有很多。传统的 IXP 只做 Internet 流量的交换平台,其覆盖点广泛地分布在全球,随着公有云的成熟与普及,IXP 与多个公有云间打通连接后,将顺理成章地转型为 CXP。传统的网络运营,具备着非常发达的网络结构,广泛的覆盖,以及强大的带宽能力,也同样是未来转型 CXP 的种子选手。

    对于公有云而言,其早期建设的私有骨干网,通常只连接自身不同的 Region。当未来市场格局进一步明确后,如果某家公有云无法占据足够的市场份额,此时有可能会在战略层面对云和网进行拆分,允许其骨干网开放给第三方的公有云进行连接,并进行独立运营,此时也就相当于转变为了 CXP 的角色。

    可以看到的是,无论是企业分支/数据中心间,还是在企业分支/数据中心与公有云间,或者在不同的公有云间实现连接,WAN 都将继续扮演核心的角色。早期,行业主要关注于云内部的 VPC,后来公有云通过网关将云组网的边界向外进行延伸,实现跨域、Internet 接入与混合云连接,再到目前正在逐步兴起的多云概念,未来当 5G、IOT 和边缘计算大规模落地后,将为 WAN 的发展带来更多的发展机遇,同时在技术和商业模式上,也对于现有的 WAN 提出了很大的挑战。

    云网融合发展的三个阶段

    从产业的发展来看,‍‍云网融合‍‍会‍‍经历三个阶段。‍‍目前主要处在云网协同阶段,这一阶段的‍‍云和网‍‍‍‍在技术形态上是彼此独立的,‍‍需要通过一些技术手段,‍‍让两者彼此连接、‍‍协同起来,‍‍实现统一交付和调度的效果。

    ‍‍往后进阶,就进入到了云网融合的阶段,‍‍这个阶段最主要的特点就是云和网‍‍在技术架构上会逐步‍‍趋向一致,云和网会产生物理反应。最终的目标是要实现云网一体,云网一体化的‍‍云和网是一种‍‍深度的化学反应,在‍‍具体的业务和应用上看不到云和网的差异,‍‍呈现出来的是云网一体化的能力。‍‍‍

    在这里插入图片描述

    SDN/SD-WAN 是云网融合的关键

    在这里插入图片描述

    一方面提供网络的云化服务,‍‍‍‍比较典型的场景就是在运营商的‍‍城域网以及 5G 的相关建设中引入了 SDN 加 NFV 的技术,让网络整个形态发生了变化,让网络本身‍‍变成了一朵云。‍‍也就是说‍‍通过 SDN 控制技术,通过 NFV 网源形态的变化,让整个‍‍网络的控制中心成为了一个云,‍‍也就是常说的网络云。另一方面,结合 SDN 相关的技术提供了网络的云化,包括网络的弹性、分片等等。‍‍

    在这里插入图片描述

    ‍‍具体来看云网融合的应用,第一是云内的融合,‍‍也就是在云内、数据中心内是如何去实现融合的?第二是云间的融合,如何实现‍‍多个云间的云网融合?第三是云边的融合,如何实现在云计算中心与边缘网络访问节点之间的融合?‍‍

    在这里插入图片描述

    云内融合

    在这里插入图片描述

    云内融合,上层是基于云的统一编排和运营的入口,下层是基础设施,也就是计算、‍‍网络、存储。‍‍那么在云平台与网络之间,有 SDN 的控制器,也就是 SNA center。SNA center 一方面通过插件的方式跟云平台做对接,‍‍另一方面通过多种协议实现对网络的控制。有了 SDN 控制器,云平台对网络的控制‍‍不需要针对复杂的‍‍设备,只需要跟控制器做好对接,就可以实现下端海量设备的控制‍‍和编排。

    ‍‍‍‍在云内融合中有以下几个关键的能力:

    • 云对网络自动化编排。
    • 云租户网络隔离。
    • 计算资源的自动上下线。
    • 云内多 Fabric、多 DC 互通。
    • 基于先知分析器的网络诊断与隔离。

    云间融合

    在这里插入图片描述

    随着云的发展,无论是私有云‍‍还是公有云,都有大量的、多云的连接需求,一方面是实现内部的统一管理,‍‍另一方面是实现不同的云资源池之间的资源共享。这时需要在各个云之间‍‍提供一个高带宽的、可灵活定义的网络连接,新华三的基于 SR/SRv6 的 DCI 互联方案可以很好的满足诉求。‍‍可以实现以下几个功能:

    • 多业务互联:SRv6 多业务承载,端到端网络切片,降低网络架构复杂度;
    • 智能调度:全网路径优化和流量调度,实现跨云的应用分发;
    • 智能运维:基于AI和机器学习,提升网络预测、风险管控能力;
    • 开放网络:基于 SDN 的开发平台,满足业务对网络的定制化需求。

    云边融合

    在这里插入图片描述

    现在整个业界云边融合讲的比较多的‍‍是云计算‍‍中心与下端网络服务节点之间的‍‍网络部分,核心是解决如何访问云服务的问题,包括多云的访问、SaaS 的加速、把线路的优选等。新华三提供的 SD-WAN 分支方案实现了‍‍云数据中心与边缘节点之间灵活部署的问题,另外还主要解决以下几个问题:

    • 降低成本:上云多线路支持、进行线路优选;
    • 优化体验:针对应用的网络优化(压缩、缓存)提升应用体验;
    • 简化运维:后疫情时代,零接触部署,简化入云通道;
    • 增强安全:国密加集成安全能力,实现端到端的云访问通道;
    • NFV 形态支持:vSR 实现租户网络安全直连。

    边缘的云网融合

    在这里插入图片描述

    ‍‍Gartner 数据显示,‍‍预测 2025 年‍‍企业 Workload‍‍s 30% 将在边缘,‍‍40% 在公有云,剩余 30% 在‍‍私有部署,边缘‍‍的云网融合‍‍在这里‍‍扮演了非常重要的角色。‍‍未来‍‍边缘与‍‍公有云中心云之间,‍‍云与云之间的连接‍‍以及最后一公里的优化,‍‍‍‍完全影响着‍‍用户的体验。‍‍随着 5G、自动驾驶等应用不断地推出‍‍,边缘计算和云网融合将变得越来越重要。

    展开全文
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 SDN 关于 SDN...

    目录

    Overlay 网络

    Overlay 网络就是基于物理网络拓扑(Underlay Network)之上,构建出一个虚拟的、不同于物理网络拓扑的逻辑网络。Overlay 网络是一个 L3 in L2 网络。也就是说,只要 L3 网络能覆盖的地方,那么 Overlay 的 L2 网络也能覆盖。Overlay 的典型思想就是隧道(Tunnel)。

    隧道技术(Tunneling):使用隧道传递的数据可以是不同协议的数据帧或数据报文,隧道协议将其它协议的数据帧或数据报文重新封装后再发送。新的封装头部提供了路由信息,以便通过互联网传递被封装的真实负载数据。隧道这种方式能够使来自多种信息源的网络业务在同一个基础设施中通过不同的隧道进行点到点传输。隧道技术使用点对点通信协议(传输层)代替了交换连接,通过路由网络(网络层)来连接数据地址。

    在这里插入图片描述

    • Underlay:就是传统的路由交换网络。
      在这里插入图片描述
    • Overlay:用来作为计算单位(物理机、虚拟机、容器)之间通讯的网络。
      在这里插入图片描述

    Overlay 网络的三类核心要素

    1. 边缘设备:与虚拟网络直接关联的网络设备,数据报文的封装/解封装的场所,同时它也是形成虚拟网络的物理节点,如上图中所示的物理交换机(必须是支持 Overlay 协议的交换机),例如:VxLAN 的 VTEP 设备。

    2. 控制平面:框架当中的虚拟实体,负责虚拟网络传输当中的服务发现、地址通告和映射、虚拟网络通道建立和维护等,如上图中虚拟层当中的控制流。

    3. 数据平面:框架当中的虚拟实体,主要负责数据报文在虚拟层的转发,如上图中虚拟层的数据流。

    Overlay 网络的技术标准

    1. VxLAN:VxLAN 是将以太网报文封装在 UDP 传输层上的一种隧道转发模式。为了使 VxLAN 充分利用承载网络路由的均衡性,VxLAN 通过将原始以太网数据头(MAC、IP、Port 等)的 HASH 值作为 UDP 的号;采用 24bit 标识 L2 网络分段标识,称为 VNI(VXLAN Network Identifier);未知目的、广播、组播等网络流量均被封装为组播转发,物理网络要求支持任意源组播(ASM)。

    2. NVGRE:NVGRE 是借助 GRE(通用路由封装协议)进行报文封装的一种隧道转发模式。它使用 GRE 头部的低 24bit 作为租户网络标识符(TNI)。为了提供描述带宽利用率粒度的流,传输网络需要使用 GRE Header,但是这导致 NVGRE 不能兼容传统负载均衡,这是 NVGRE 与 VxLAN 相比最大的区别也是最大的不足。NVGRE 不需要依赖泛洪和 IP 组播进行学习,而是以一种更灵活的方式进行广播,但是这需要依赖硬件。NVGRE 支持减小数据包 MTU 以减小内部虚拟网络数据包大小。

    3. STT:STT 是借助 TCP 对报文封装的一种隧道转发模式,它改造了 TCP 的传输机制,是一种 全新定义的无状态机制,将 TCP 各字段意义重新定义,无需三次握手建立 TCP 连接, 亦称之为无状态 TCP。以太网数据封装在无状态 TCP;采用 64bit 标识 L2 网络分段;通过将原始以太网数据头(MAC、IP、 Port 等)HASH 值作为无状态 TCP 的源端口号进行网络负载均衡 。

    这三种 Overlay 技术, 共同的技术模式都是将以太网报文进行改造封装承载到逻辑隧道层面进行转发,差异的技术特性在于封装和构造隧道的不同,而底层均是 IP 转发。

    VxLAN 和 STT 对于现网设备对流量均衡要求较低,即负载链路负载分担适应性好,一般的网络设备都能对 L2-L4 的数据内容参数进行链路聚合或等价路由的流量均衡 。而 NVGRE 则需要网络设备对 GRE 扩展头感知并对 flow ID 进行哈希计算 ,需要硬件支持 ;

    以下是三种 Overlay 技术标准的具体差异描述。

    在这里插入图片描述

    Overlay 网络解决了 L2 的空间局限性问题

    当虚拟机或容器所在的宿主机因为维护或者其他原因宕机时,当前实例就需要迁移到其他的宿主机上,为了保证业务不中断,我们需要保证迁移过程中的 IP 地址不变,因为 Overlay 是在网络层实现 L2 网络,所以多个物理机之间只要网络层可达就能组建虚拟的局域网,虚拟机或者容器迁移后仍然处于同一个二层网络,也就不需要改变 IP 地址,上千台物理机组成的大集群使得集群内的资源调度变得更加容易,我们可以通过虚拟机迁移来提高资源的利用率、容忍虚拟机的错误并提高节点的可移植性。

    如下图所示,迁移后的虚拟机与其他的虚拟机虽然位于不同的数据中心,但是由于上述两个数据中心之间可以通过 IP 协议连通,所以迁移后的虚拟机仍然可以通过 Overlay 网络与原集群的虚拟机组成 L2 网络,对于应用来讲,它对外发布的地址没有变化,对于虚拟机来讲,它只知道远方的主机与本地的主机是可以组成 L2 互通局域网的,是可以做 vMotion 的。但是,真正的数据迁移确在底层经历了传统网络设备的 L3 传输。

    无论底层做了什么样的传输转换,只要上层协议达到应用要求的迁移条件即可。这样跨地域的 L2 资源迁移就不再成为不可解决的难题了。没有这种技术的支撑,恐怕就算是裸光纤连接也解决不了这个问题,毕竟光纤的距离是受限的。

    在这里插入图片描述

    Overlay 网络解决了网络规模受限问题

    Kuberentes 官方支持的最大集群为 5000 个 Nodes,通常每个节点上会有很多容器,所以整个集群的资源规模可以达到几万甚至几十万。当某个容器向集群中发送 ARP 请求,集群中的全部容器都会收到 ARP 请求,这时会带来极高的网络负载,传统网络技术是无法容忍这种规模的网络请求。

    在使用 VxLAN 搭建的 Overlay 网络中,网络会将发送的数据重新封装成 IP数据包,这样网络只需要知道不同 VTEP 的 MAC 地址,由此可以将 MAC 地址表项中的几十万条数据降低到几千条,ARP 请求也只会在集群中的 VTEP 之间扩散,远端的 VTEP 将数据拆包后也仅会在本地广播,不会影响其他的 VTEP,虽然这对于集群中的网络设备仍然有较高的要求,但是已经极大地降低了核心网络设备的压力。

    另外, 在 L2 网络环境下,数据流均需要通过明确的网络寻址以保证准确到达目的地,因此网络设备的 MAC 地址表,成为决定了云计算环境下虚拟机的规模的上限,并且因为表项并非百分之百的有效性,使得可用的虚机数量进一步降低,特别是对于低成本的接入设备而言,因其表项一般规格较小,限制了整个云计算数据中心的虚拟机数量。

    使用了 Overlay 技术之后,这个 MAC 地址表的存储转移到了 VTEP 设备之上, 虽然核心或网关设备的 MAC 与 ARP 规格会随着虚拟机增长也面临挑战,但对于此层次设备能力而言,大规格是不可避免的业务支撑要求。减小接入设备规格压力的做法可以是分离网关能力,采用多个网关来分担虚机的终结和承载。

    Overlay 网络解决了网络隔离问题

    大规模的数据中心往往都会对外提供云计算服务,同一个物理集群可能会被拆分成多个小块分配给不同的租户,因为 L2 网络的数据帧可能会进行广播,所以出于安全的考虑这些不同的租户之间需要进行网络隔离,避免租户之间的流量互相影响甚至恶意攻击。当前的主流网络隔离技术为 VLAN,在大规模虚拟化环境部署会有两大限制:

    1. 首先, VLAN 数量在标准定义中只有 12 个比特单位,即可用的数量为 4000 个左右,这样的数量级对于公有云或大型虚拟化云计算应用而言微不足道 。
    2. 其次, VLAN 技术当前为静态配置型技术(只有 EVB/VEPA 的 802.1Qbg 技术可以在接入层动态部署 VLAN,但也主要是在交换机接主机的端口为常规部署,上行口依然为所有 VLAN 配置通过),这样使得整个数据中心的网络几乎为所有 VLAN 被允许通过,导致未知目的广播数据会在整网泛滥,无节制消耗网络交换能力与带宽。

    如果采用了 Overlay 网络技术,那么就会避免上述问题,以 VxLAN 为例:

    1. 首先,VxLAN 会使用 24 比特的 VNI 表示虚拟网络个数,总共可以表示 16,777,216 个虚拟网络,远远超过了 VLAN 的 4000 个,这个数量足以满足今天云计算数据中心的大规模集群要求。
    2. 其次,VxLAN 在 L2 传输的时候是在 VTEP 节点把数据进行封装,使得更多的 L2 广播在 VTEP 节点处转化为有目的的 L3 传输,从而避免了无节制的网络资源消耗。既满足了大规模集群网络隔离问题,同时也提高了这种情况下的网络传输安全性。

    Overlay 网络技术的缺陷

    Overlay 网络与 Underlay 网络相比而言,性能会是它的问题所在,因为 Overlay 网络无论是哪一种技术标准,都会经历数据包再次封装和再次解封的问题,这个无疑会给数据传输带来性能上的延时。

    在企业 IT 环境当中,各种类型的应用都会存在,有的对网络性能要求非常高,例如:金融行业的交易型数据库集群,不同集群节点之间的数据交互量从数据大小和传输频率等各方面都超乎一般的应用,尤其是锁信息、数据缓存块、心跳信息都是直接影响数据库运行的关键因素。

    因此我们在应用 VxLAN 的时候也需要考虑到它的不足之处,选择合适的应用场景。

    在这里插入图片描述

    展开全文
  • 数据中心的BGP 说明: 这是最近在学习《BGP in the datacenter》。由于原文是全英文。所以在学习过程中,利用谷歌翻译和网易翻译,再把翻译不通的地方,加上自己理解稍微改了改。在此共享出来,需要的人可以参考...
  • 目录 文章目录目录前文列表网络虚拟化什么是网络虚拟化云计算环境下的网络虚拟化需要解决的问题服务器内部的网络虚拟化I/O 虚拟...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 网络虚拟化 ...
  • 目录 文章目录目录前文列表Clos Networking 前文列表 《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 Clos Networking ...
  • 目录 文章目录目录前文列表云网融合SD-...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与...
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...
  • 数据中心网络架构浅谈(三)

    万次阅读 多人点赞 2018-01-28 21:40:59
    构建一个数据中心网络时,除了考虑网络硬件设备的架构,2-7层网络设计也需要考虑。这两者其实不能完全分开,硬件架构有时候决定了网络设计,网络设计有时候又限制了硬件架构。从应用场景,例如SDN/NFV来看,网络设计...
  • Facebook数据中心网络架构概览

    千次阅读 2017-02-09 00:02:44
    为了能够给用户提供实时的体验,Facebook为数据中心设计了一个高可扩展,高性能的网络架构,称之为:data center fabric。 虽然这个网络架构实际上在14年已经实施了,但是其中的一些设计理念在今天的一些数据中心里...
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...
  • 数据中心网络架构浅谈(二)

    万次阅读 多人点赞 2018-01-21 14:46:08
    上一篇说了传统三层网络架构,这一次来看看近些年开始流行的Fabric网络架构。**Fabric** Fabric一词来源于网络交换机。网络交换机就是将输入端口的数据,经过判断,转发到输出端口。其架构大体如下图所示: 交换机...
  • 目录 ...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-...
  • 7.1.2 多数据中心网络需求分析 7.1.3 Multi-DC Fabric方案整体架构和场景分类示例 7.2 Multi-Site场景和设计 7.2.1 Multi-Site方案的应用场景 7.2.2 Multi-Site方案的具体设计 7.2.3 推荐的部署方案 7.3 Multi-PoD...
  • 数据中心网络架构设计比较

    千次阅读 2019-04-15 15:00:51
    翻译自...交换机的互联和数据通信的保证是设计一个数据中心的基本方面。当今的数据中心都是由1RU或者2RU的设备组成。因此可以将1RU或者2RU的交换机放到racks里面可以大大的节省空间,简化布线。典型...
  • 文章目录目录前言传统路由交换技术路由和交换交换技术传统的 2 层交换技术具有路由功能的 3 层交换技术具有网络服务功能的 7 层交换技术路由技术三层网络架构核心层(Core Layer)汇聚层(Aggregation Layer)接入层...
  • 数据中心网络架构浅谈(一)

    万次阅读 多人点赞 2018-01-17 20:56:48
    不论我们在讨论SDN,NFV或者其他的虚拟网络技术,有一点需要明确,网络数据包最终都是跑在物理网络上。物理网络的特性,例如带宽,MTU,延时等,最终直接或者间接决定了虚拟虚拟网络的特性。可以说物理网络决定了...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 309,605
精华内容 123,842
关键字:

数据中心网络架构