精华内容
下载资源
问答
  • 数据中心网络架构演进 — 云网融合

    千次阅读 2020-03-01 19:09:59
    数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...

    目录

    前文列表

    数据中心网络架构演进 — 从传统的三层网络到大二层网络架构
    数据中心网络架构演进 — 从物理网络到虚拟化网络
    数据中心网络架构演进 — CLOS 网络模型的第三次应用
    数据中心网络架构演进 — 从 Underlay 到 Overlay 网络
    数据中心网络架构演进 — SDN 将控制面与数据面分离
    数据中心网络架构演进 — 从私有云到多云到混合云
    数据中心网络架构演进 — 从 VQN 到 SD-WAN
    数据中心网络架构演进 — 从专用设备到 NFV 虚拟网元

    云网融合

    前文说到,混合云时代将全面释放企业的创新能力,而云网融合就是为了从技术层面解决企业日益高涨的创新需求与多云互联的网络困境之间的矛盾。—— 云网融合是基于业务需求和技术创新并行驱动带来的网络架构深刻变革,使得云和网高度协同,互为支撑,互为借鉴的一种概念模式

    通信专家云晴曾提出了运营商可以借助云网融合打造 “智能管道” 业务的新路径,他表示:“在企业网络中提供各数据中心之间持续、安全的互联可能是运营商云化业务拓展的一个重要服务方向。例如,AT&T 在 2013 年推出的 NetBond 继承了各种 AT&T 业务点,为用户提供了更多连接到云端的方式,用户可以通过互联网上虚拟专网接入的方式获得在网络上的云服务。通过这些企业业务服务场景的组合,AT&T 提供了一个集成的混合解决方案,满足一系列具有不同云策略的用户需求。国内运营商也可以抓住云网融合带来的商业机会,加快企业数字化转型。”

    业内专家指出,电信运营商应以网络为基础,围绕云组网、云联网、云专线、云宽带等云网融合产品和服务,构建面向行业的新型运营服务体系,实现云网融合产品的一点受理,敏捷开通。同时,以网络连接为中心,对上游客户提供面向行业应用的网络连接服务,对下游厂商实现合作伙伴云服务能力和运营商自身网络服务的集成,构建属于运营商特征的云网生态。

    对于中国移动而言,云既是新型信息基础设施,又是战略型关键业务,“云改” 转型是中国移动向价值经营转变的重要一步。在 “云改” 中,中国移动最大的优势在于网,但形成黏性,还需要依靠 “云网融合” 打造差异化优势。中国移动面向 ToB 市场重构了云网架构,持续打造云网边行业专网。

    简而言之,云网融合是云计算发展过程中的自然产物,人们从 “要不要上云,到怎么上云” 的观念转变是云网融合需求的根本因素。现在人人有云,甚至人手多云,那么这些个体之间关系应该如何构建?笔者认为这是一个哲学问题,就像我们思考自己应该如何与世界相处,思考 “云和云之间、云和人之间的关系” 就是云网融合所肩负的历史使命。

    单纯的 “大带宽、低延迟” 网络已经无法满足企业用户更多元化(多系统,多业务,多场景)的上云要求。云服务运营商的网络急切的需要从以设备为中心,演化为以用户为中心,让网络变得更加简洁和智能化,不再对上层业务和策略有太多要求,网络将具备理解用户业务意图的能力。

    云网融合的趋势逐渐由 “互联” 向 “云+网+ICT服务” 和 “云+网+业务” 过渡,云间互联只是过程,最终目的是达成云网和实际业务的高度融合,包括服务资源的动态调整、计算资源的合理分配以及定制化的业务互通等。近年来,SD-WAN、云专线、对等连接等云网融合技术已经逐渐走向成熟。当前,电信运营商作为云网融合的第一阵营,云服务商作为第二阵营,云网融合最终服务于企业上云,在上云的过程中,云网协同能力的重要性不断提升。

    注意:混合云只是云网融合的一个应用场景,云网融合有着更多样化的应用场景。

    在这里插入图片描述

    云网融合的应用场景

    跨云服务商的云资源池互联:是指不同的云服务商的公有云资源池间的高速互联。该场景解决来自不同厂商公有云资源池互联问题,最终实现跨云服务商跨云资源池的互联。跨云服务商的云资源池互联也叫多云互联。

    在这里插入图片描述
    混合云场景:是指企业本地(私有云、本地数据中心、企业私有IT平台)与公有云资源池之间的高速连接,最终实现本地计算环境与云上资源池之间的数据迁移、容灾备份、数据通信等需求。

    在这里插入图片描述
    多中心互联场景:是指同一云服务商的不同资源池间的高速互联。解决分布在不同地域的云资源池互联问题。企业可通过在不同的资源池部署应用,来完成备份、数据迁移等任务。
    在这里插入图片描述

    云网融合发展趋势

    从 2018 年的下半年开始,一些公有云巨头纷纷开始把云网的触角继续下探,直接为企业提供 CPE 设备,使用这个 CPE 后,企业入云的流量会被自动指向私有骨干网的 POP 点,实现所谓的 “零配置入云”。在把 CPE 纳入到整个云网一体的架构中后,公有云所能提供的,包括企业侧的出口设备,到各大城市接入的 POP 点,再到全球的骨干网,再到分布在全球的 Region 以及云上的 VPC 网络,从网络的视角来看,这将是一个上下游全覆盖的解决方案。

    以云作为销售入口,通过 CPE 把流量牵引到自己的骨干网上来,再通过自有的网入自有的云,这正是几家公有云巨头为云网一体所描绘出来的形态。

    上述介绍了围绕公有云私有骨干网展开的组网架构,提到这通常意味着自有的网入自有的云,云作为前端入口带动用户入网,网反过来再将用户进一步与云锁定。这还只是涉及到 IaaS,入云之后 PaaS 层面的锁定将更为严重,如果用户的业务系统使用了某家公有云提供的中间件或者 API 后,从这个云上下来可能就更加困难了。对于小企业而言这种一站式的解决方案很具有吸引力,但是对于大企业来说,锁定却意味着后期在价格和服务等方面上面临着受制于人的风险,另外小企业未来也可能会发展为大企业,防微杜渐同样非常关键。

    在这里插入图片描述

    另外,2018 年下半年,各大公有云频繁出现故障,或服务宕机或数据丢失,甚至出现了被自然灾害所破坏的事件。因此,使用多个公有云,除了降低公有云对于用户的锁定以外,还可以起到分散风险的作用。多云对于未来业界生态的健康发展非常关键,已经引起了业界的广泛关注,而如何打通多云间的连接,将成为多云的关键能力。

    目前各大公有云都会提供 VPN 网关,支持与企业分支或者数据中心间进行互联。但是却很少直接在两个公有云间直接互联。考虑到这种现状,为打通多个公有云,最常见的思路,是利用企业数据中心作为 Hub,分别与不同公有云的连接,由企业的数据中心来转接不同公有云间的流量,即由用户自己来承担多云互联的责任。

    在这里插入图片描述

    相比之下,设备厂商所构想的多云互联方案,是在不同的公有云中引入 vRouter,使用 vRouter 与企业分支或者数据中心互通,如果企业在其分支或数据中心以及各个公有云上使用某个厂商的设备,就能够绕开公有云的 VPN 网关,由厂商的控制器对组网进行统一的管理与控制,一方面可以实现端到端的自动化,另一方面厂商的 vRouter 上具备更多的路由、安全、以及 SD-WAN 的能力,能够满足用户更为复杂的组网需求。这种思路下,多云互联的责任落到了厂商的 vRouter上,不同公有云的 vRouter 间得以直接进行 IPSec 互联。

    在这里插入图片描述

    上述介绍的两种思路,技术上区别不大,不过组网所围绕的重心却有所不同。实际上,厂商的 vRouter 相当于 OTT 掉了公有云,与公有云提供的 VPN 网关形成了直接的竞争关系。目前来看,公有云并不排斥在 Market Place 上引入厂商的 vRouter,但未来云组网的生态将发生什么样的变化,仍然有待观察。

    未来云网融合的挑战

    在多云的场景下,行业中目前正在涌现出一类角色,专业实现多云间的流量交换,通常被称为 CXP,Cloud Exchange Provider。公有云中分布在不同 Region 的 VPC,企业分布在不同地域的分支或数据中心,彼此之间以 CXP 作为连接的枢纽进行流量的交换。可以看到的是, CXP 与之前所提到的公有云私有的骨干网的区别在于,公有云私有的骨干网通常只与自有的云进行连接,而 CXP 自身并不做公有云,因此会尽可能多地与不同的公有云建立连接,丰富其作为交换平台的公有云连接度。

    在这里插入图片描述

    CXP 是未来云网融合生态中不可忽视的一股力量。对于少数公有云巨头来说,结合其公有云的资源与服务,及其私有骨干网的覆盖与带宽,可形成上下游全覆盖的整体解决方案,一体化交付的能力将稳固其市场份额,并形成正向的推力。不过,对于其他的公有云来说,可能不具备自建私有骨干网,并提供整体解决方案的能力,因此他们与 CXP 间的合作,将会是未来保持行业生态多样性的重要基础。

    扮演 CXP 角色的选手有很多。传统的 IXP 只做 Internet 流量的交换平台,其覆盖点广泛地分布在全球,随着公有云的成熟与普及,IXP 与多个公有云间打通连接后,将顺理成章地转型为 CXP。传统的网络运营,具备着非常发达的网络结构,广泛的覆盖,以及强大的带宽能力,也同样是未来转型 CXP 的种子选手。

    对于公有云而言,其早期建设的私有骨干网,通常只连接自身不同的 Region。当未来市场格局进一步明确后,如果某家公有云无法占据足够的市场份额,此时有可能会在战略层面对云和网进行拆分,允许其骨干网开放给第三方的公有云进行连接,并进行独立运营,此时也就相当于转变为了 CXP 的角色。

    可以看到的是,无论是企业分支/数据中心间,还是在企业分支/数据中心与公有云间,或者在不同的公有云间实现连接,WAN 都将继续扮演核心的角色。早期,行业主要关注于云内部的 VPC,后来公有云通过网关将云组网的边界向外进行延伸,实现跨域、Internet 接入与混合云连接,再到目前正在逐步兴起的多云概念,未来当 5G、IOT 和边缘计算大规模落地后,将为 WAN 的发展带来更多的发展机遇,同时在技术和商业模式上,也对于现有的 WAN 提出了很大的挑战。

    云网融合发展的三个阶段

    从产业的发展来看,‍‍云网融合‍‍会‍‍经历三个阶段。‍‍目前主要处在云网协同阶段,这一阶段的‍‍云和网‍‍‍‍在技术形态上是彼此独立的,‍‍需要通过一些技术手段,‍‍让两者彼此连接、‍‍协同起来,‍‍实现统一交付和调度的效果。

    ‍‍往后进阶,就进入到了云网融合的阶段,‍‍这个阶段最主要的特点就是云和网‍‍在技术架构上会逐步‍‍趋向一致,云和网会产生物理反应。最终的目标是要实现云网一体,云网一体化的‍‍云和网是一种‍‍深度的化学反应,在‍‍具体的业务和应用上看不到云和网的差异,‍‍呈现出来的是云网一体化的能力。‍‍‍

    在这里插入图片描述

    SDN/SD-WAN 是云网融合的关键

    在这里插入图片描述

    一方面提供网络的云化服务,‍‍‍‍比较典型的场景就是在运营商的‍‍城域网以及 5G 的相关建设中引入了 SDN 加 NFV 的技术,让网络整个形态发生了变化,让网络本身‍‍变成了一朵云。‍‍也就是说‍‍通过 SDN 控制技术,通过 NFV 网源形态的变化,让整个‍‍网络的控制中心成为了一个云,‍‍也就是常说的网络云。另一方面,结合 SDN 相关的技术提供了网络的云化,包括网络的弹性、分片等等。‍‍

    在这里插入图片描述

    ‍‍具体来看云网融合的应用,第一是云内的融合,‍‍也就是在云内、数据中心内是如何去实现融合的?第二是云间的融合,如何实现‍‍多个云间的云网融合?第三是云边的融合,如何实现在云计算中心与边缘网络访问节点之间的融合?‍‍

    在这里插入图片描述

    云内融合

    在这里插入图片描述

    云内融合,上层是基于云的统一编排和运营的入口,下层是基础设施,也就是计算、‍‍网络、存储。‍‍那么在云平台与网络之间,有 SDN 的控制器,也就是 SNA center。SNA center 一方面通过插件的方式跟云平台做对接,‍‍另一方面通过多种协议实现对网络的控制。有了 SDN 控制器,云平台对网络的控制‍‍不需要针对复杂的‍‍设备,只需要跟控制器做好对接,就可以实现下端海量设备的控制‍‍和编排。

    ‍‍‍‍在云内融合中有以下几个关键的能力:

    • 云对网络自动化编排。
    • 云租户网络隔离。
    • 计算资源的自动上下线。
    • 云内多 Fabric、多 DC 互通。
    • 基于先知分析器的网络诊断与隔离。

    云间融合

    在这里插入图片描述

    随着云的发展,无论是私有云‍‍还是公有云,都有大量的、多云的连接需求,一方面是实现内部的统一管理,‍‍另一方面是实现不同的云资源池之间的资源共享。这时需要在各个云之间‍‍提供一个高带宽的、可灵活定义的网络连接,新华三的基于 SR/SRv6 的 DCI 互联方案可以很好的满足诉求。‍‍可以实现以下几个功能:

    • 多业务互联:SRv6 多业务承载,端到端网络切片,降低网络架构复杂度;
    • 智能调度:全网路径优化和流量调度,实现跨云的应用分发;
    • 智能运维:基于AI和机器学习,提升网络预测、风险管控能力;
    • 开放网络:基于 SDN 的开发平台,满足业务对网络的定制化需求。

    云边融合

    在这里插入图片描述

    现在整个业界云边融合讲的比较多的‍‍是云计算‍‍中心与下端网络服务节点之间的‍‍网络部分,核心是解决如何访问云服务的问题,包括多云的访问、SaaS 的加速、把线路的优选等。新华三提供的 SD-WAN 分支方案实现了‍‍云数据中心与边缘节点之间灵活部署的问题,另外还主要解决以下几个问题:

    • 降低成本:上云多线路支持、进行线路优选;
    • 优化体验:针对应用的网络优化(压缩、缓存)提升应用体验;
    • 简化运维:后疫情时代,零接触部署,简化入云通道;
    • 增强安全:国密加集成安全能力,实现端到端的云访问通道;
    • NFV 形态支持:vSR 实现租户网络安全直连。

    边缘的云网融合

    在这里插入图片描述

    ‍‍Gartner 数据显示,‍‍预测 2025 年‍‍企业 Workload‍‍s 30% 将在边缘,‍‍40% 在公有云,剩余 30% 在‍‍私有部署,边缘‍‍的云网融合‍‍在这里‍‍扮演了非常重要的角色。‍‍未来‍‍边缘与‍‍公有云中心云之间,‍‍云与云之间的连接‍‍以及最后一公里的优化,‍‍‍‍完全影响着‍‍用户的体验。‍‍随着 5G、自动驾驶等应用不断地推出‍‍,边缘计算和云网融合将变得越来越重要。

    展开全文
  • Facebook数据中心网络架构概览

    千次阅读 2017-02-09 00:02:44
    为了能够给用户提供实时的体验,Facebook为数据中心设计了一个高可扩展,高性能的网络架构,称之为:data center fabric。 虽然这个网络架构实际上在14年已经实施了,但是其中的一些设计理念在今天的一些数据中心里...

    参考自:
    Introducing data center fabric, the next-generation Facebook data center network
    Facebook’s Data Center Fabric

    背景

      Facebook的用户已经超过10多亿,而且还在迅速增长。为了能够给用户提供实时的体验,Facebook为数据中心设计了一个高可扩展,高性能的网络架构 data center fabric。
      虽然这个网络架构实际上在14年已经实施了,但是其中的一些设计理念在今天的一些数据中心里依然有很好的参考价值。

    传统的挑战

      下面首先看看Facebook在如此大的用户规模下,将会面临哪些挑战。这些Facebook曾经走过的路也是其他在发展中的数据中心将要面临货已经面临的问题。

    高速发展

      首先,随着用户数量的急剧增长,业务规模不断扩大,数据中心的公网出口流量非常大,并且还在持续增长。与此同时,数据中心内部的流量比公网流量大几个数量级。
      在Facebook的数据中心内部,后端分层的服务和程序都是分布式且在逻辑上互联的。这些服务为前段用户提供实时的体验。虽然有不断地优化,但是流量在一年内还是会翻番。
      所以支持高速发展的能力将成为设计基础设施的核心理念。同时还要保证网络架构足够精简,易于管理。
      如下图,绿色的部分是公网流量的增长速度,红色是内部流量的增长。
      
      

    Cluster的局限

      传统的数据中心的网络是以Cluster为基础建设的。一个Cluster中部署上百个机架,每个机架里有交换机,并且这些交换机再接入到性能更好的汇聚交换机上。
      虽然Facebook之前也做过一些改进,比如开发了一个“four-post”的layer3架构,提供3+1的集群交换机冗余,能力是以前的10倍。但这种架构还是基于Cluster的,还是有一些限制。首先,Cluster的规模受到交换机端口密度的影响。这些高性能、大规格的交换机往往集中在某几家厂商手里,也就是说受到厂商的制约。其次,硬件性能的增长往往赶不上业务的需求。而且这些高端的硬件往往都有独特的内部架构,需要具备额外的硬件和软件知识才能很好地驾驭,这无疑又是一个打击。在大规模场景下,软硬件的失效问题也成为很重要的考虑点。
      更难的在于,需要在集群规模、内部带宽、外部带宽之间做出平衡。实际上,Cluster这个概念也就源自于这些网络的限制。集群简单讲,就是部署在高性能网络池内的大规模计算资源,而往往人们假设集群之间的流量远远小于集群内部的流量,基于这个假设,一些需要交互的程序往往就部署在同一个集群内。这实际上就限制了服务的规模,大规模的服务都是分布式的,不应该有这个限制。

    fabric网络

      Facebook的下一代网络的宗旨就是整个数据中心建立在一套高性能网络之上,而不是分层的Cluster系统。而且能够快速的扩展规模和性能,每次扩容时,都不会影响已经部署的基础架构。
      为了达到这个目的,Facebook将网络分解成为小的单元——server pod,并且pod直接全互联。

    fabric

      如下图,一个pod里面最多有48个机架,每个机架和4个fabric交换机相连,每个机架交换机有4*40G总共160G的出口带宽。机架内部的服务器之间10G互联

    spine

      pod之间的互联依靠下图的spine交换机,每个spine平面最多有48个独立的spine交换机。这样一来,pod之间就形成了一个高性能的全互联网络。
      而edge平面的交换机则负责出口流量。
      

    物理架构

      如下图可以看到,专门用于放置各类交换机的机架规模也不小
      

    效果

      如下图可以看出,所有机架之间的路基可能有多种,路径根据流量的负责自动选择,能够容忍若干网络路径的故障。
      

    展开全文
  • 数据中心存储架构 文/刘新民 存储系统是数据中心IT环境的核心基础架构,是数据中心数据访问的最终承载体。存储在云计算、虚拟化、大数据等相关技术进入后已经发生了巨大的改变,块存储、文件存储、对象存储支撑起...

    数据中心存储架构

    文/刘新民

    存储系统是数据中心IT环境的核心基础架构,是数据中心数据访问的最终承载体。存储在云计算、虚拟化、大数据等相关技术进入后已经发生了巨大的改变,块存储、文件存储、对象存储支撑起多种数据类型的读取;集中式存储已经不再是数据中心的主流存储架构,海量数据的存储访问,需要扩展性、伸缩性极强的分布式存储架构来实现。

    在新的IT发展过程中,数据中心建设已经进入云计算时代,企业IT存储环境已经不能简单的从一般性业务运营需求来构建云计算的数据中心存储环境。云计算数据中心的建设不是为了满足某一个业务系统的特殊目标,是为了实现所有业务系统在云平台上能够实现灵活的资源调度、良好的伸缩性、业务扩展的弹性以及快速交付性。因此,是一种自下而上的建设模式(如图1所示),基于云计算平台的建设先于应用系统需求,并不再与具体的业务捆绑,应用系统的建设、扩容、升级主要以软件为主,硬件物理资源向资源池申请,存储系统成为云数据中心的可分配、可调度的资源,在这种情况下,有助于消除瓶颈、提高处理速度,使得业务系统稳定、高效、持久运行。


    图1 数据中心的系统建设发展

    1     数据中心存储架构的演进

    随着数据中心从最初的孤立系统企业级应用,发展到互联网化阶段的大规模云计算服务,其存储架构也不断发展(如图2所示)。从满足关键系统的性能与容量需求,到以虚拟化架构来整合数据中心存储资源,提供按需的存储服务和自动化运维,并进一步向存储系统的智能化、敏捷化演进,应用需求的变化是存储架构不断改进提升的驱动力,竖井式、虚拟化、云存储三种架构并存是当前现状,软件定义存储架构的出现则是后云计算时代的存储发展阶段。


     

    图2 存储系统系统架构和管理演进

    ž  竖井式架构

    对于早期的系统,在主机架构下,数据和逻辑是一体的,采用面向过程的设计方法,每个应用是一个孤立的系统,维护相对容易,难于相互集成;客户机/服务器架构将逻辑与数据进行了分离(不论C/S还是B/S模式,本质都是客户机/服务器架构),同样采用面向对象的设计方法,每个应用是一个孤立的系统,提供了一定后台集成的能力。这种架构的存储也随着系统的建设形成了自身的独立性,业务平台的硬件设备按照规划期内最大用户数来配置,而在业务初期和业务发展情况难预测的情况下,无法真实评估存储的规模与性能要求,这往往会浪费不少硬件设备资源和空间、动力等资源,并且硬件资源不能灵活调度。每个业务上线都需要经过软件选型、评估资源、硬件选型、采购和实施等环节,业务上线流程长、时间跨度大,不利于业务发展。

    即使是企业数据中心进入云计算时代,大量的应用逐步向云的环境迁移,但因为某些系统独特的技术要求,这种竖井式架构也会长期存在。

    ž  存储虚拟化

    随着业务发展,数据中心存储不可避免形成大量的异构环境,标准化的管理流程难以实施。存储虚拟化架构实现对不同结构的存储设备进行集中化管理,统一整合形成一个存储池,向服务器层屏蔽存储设备硬件的特殊性,虚拟化出统一的逻辑特性,从而实现了存储系统集中、统一而又方便的管理。使得存储池中的所有存储卷都拥有相同的属性,如性能、冗余特性、备份需求或成本,并实现自动化(如LUN管理)以及基于策略的集中存储管理。

    同时,存储资源的自动化管理为用户提供更高层次策略的选择。在存储池中可以定义多种存储工具来代表不同业务领域或存储用户的不同服务等级。另外,还允许用户以单元的方式管理每一存储池内部的存储资源,根据需要添加、删除或改变,同时保持对应用服务器业务系统的透明性。基于策略的存储虚拟化能够管理整个存储基础机构,保持合理分配存储资源,高优先级的应用有更高的存储优先级,使用性能最好的存储,低优先级的应用使用便宜的存储。

    ž  云存储架构

    云存储架构伴随着大规模云计算的数据时代的到来,将存储作为云的服务提供,不论是企业私有云还是公有云的存储,都着重于大量存储数据的创建和分布,并关注快速通过云获得数据的访问。云存储架构需要支持大规模的数据负载的存储、备份、迁移、传输,同时要求巨大的成本、性能和管理优势。

    云存储的技术部署,通过集群应用或分布式文件系统等功能,网络中大量各种不同类型的存储设备通过应用软件集合起来协同工作,共同对外提供数据存储和业务访问功能的一个系统,保证数据的安全性,并节约存储空间。

    在大规模系统支撑上,分布式文件系统、分布式对象存储等技术,为云存储的各种应用提供了高度可伸缩、可扩展和极大的弹性支撑和强大的数据访问性能,并且因为这些分布式技术对标准化硬件的支持,使得大规模云存储得以低成本的建设和运维。

    云存储不是要取代现有的盘阵,而是为了应付高速成长的数据量与带宽而产生的新形态存储系统,因此云存储在构建时重点考虑的三点:扩容简便、性能易于增长、管理简易。

    ž  软件定义存储

    软件定义存储当前还未有确切的定义,但软件定义存储代表了一种趋势,即存储架构中软件和硬件的分离,也就是数据层和控制层的分离。对于数据中心用户而言,通过软件来实现对存储资源的管理和调度,如灵活的卷迁移等而无需考虑硬件设备本身。

    通过软件定义存储实现存储资源的虚拟化、抽象化、自动化,能够完整的实现数据中心存储系统的部署、管理、监控、调整等多个要求,使得存储系统具备灵活、自由和高可用等特点。

    传统存储的虚拟化、自动化都是由专用的存储设备来实现,许多厂商虚拟化存储都要使用自己定制的设备,或者是在特定服务器上加载的一款软件来支持。软件定义存储将存储服务从存储系统中抽象出来,且可同时向机械硬盘及固态硬盘提供存储服务,软件定义存储消除硬件设备的限制,采用开放的存储架构,提供存储的性能、可管理性,增强存储系统的智能性和敏捷的服务能力,同时软件定义存储也以分布式技术如分布式文件存储、对象存储等大规模可扩展架构为数据基础,对上支持灵活的控制管理,这将是存储领域发展的大趋势。

     

    2      数据中心存储的技术架构

    2.1     数据类型

    数据中心的存储数据类型发生了很大的变化,按照结构化程度来分,可以大致分为以下三种。

    ¡  结构化数据的存储及应用。这是一种用户定义的数据类型,它包含了一系列的属性,每一个属性都有一个数据类型,存储在关系数据库里。一般的业务系统都有大量的结构化数据,一般存储在Oracle或MySQL的等的关系型数据库中,在企业级数据中心,一般在集中存储架构中保存,或成为主存储系统,以块存储访问为主。

    ¡  非结构化数据的存储及应用。相对于结构化数据而言,不方便用数据库二维逻辑表来表现的数据即称为非结构化数据,包括所有格式的办公文档、文本、图片、XML、HTML、各类报表、图像和音频/视频信息等等,分布式文件系统是实现非结构化数据存储的主要技术。

    ¡  半结构化数据的存储及应用。介于完全结构化数据(如关系型数据库、面向对象数据库中的数据)和完全无结构的数据(如声音、图像文件等)之间的数据,半结构化数据模型具有一定的结构性,但较之传统的关系和面向对象的模型更为灵活。半结构数据模型完全不基于传统数据库模式的严格概念,这些模型中的数据都是自描述的。由于半结构化数据没有严格的语义定义,所以不适合用传统的关系型数据库进行存储,适合存储这类数据的数据库被称作“NoSQL”数据库。

    2.2     块、文件、对象

    ž  块存储

    对于存储系统,块读写一般是在存储介质上的数据概念,对于磁盘来说,块数据的存储单元是一个或多个磁盘扇区。因此块级数据的读写,是面向最底层的物理层的,数据操作基于起始扇区编号、操作码(读、写等)、连续扇区数量等,块数据访问接口是SCSI接口。有两种常用的两种块存储方式。

    ¡  DAS(Direct Attach STorage)。是直接连接于主机服务器的一种储存方式,每一台主机服务器有独立的储存设备,每台主机服务器的储存设备无法互通,需要跨主机存取资料时,必须经过相对复杂的设定,若主机服务器分属不同的操作系统,要存取彼此的数据,更是复杂,有些系统甚至不能存取。通常用在单一网络环境下且数据交换量不大,性能要求不高的环境下,是早期的技术实现。

    ¡  SAN(Storage Area Network)。是一种用高速网络联接主机服务器与存储设备的一种储存方式,存储系统会位于主机群的后端,它使用高速I/O网络联结方式,以FC、iSCSI、FCOE为当前主流形式。一般而言,SAN应用在对网络速度要求高、对数据的可靠性和安全性要求高、对数据共享的性能要求高的应用环境中,特点是代价高,性能好。它采用SCSI 块I/O的命令集,在SAN网络级的数据访问提供高性能的随机I/O和数据吞吐率,具有高带宽、低延迟的优势,但是由于SAN系统的价格较高,且不具备大规模可扩展性,不能满足大型云计算数据中心的存储需求。

    ž  文件存储

    对于文件,是“按名存取”的,为了区分磁盘上各个不同的文件,需要给每个文件取一个确定的名字,称为文件名,它用来表示磁盘上的文件,以便于在磁盘上能够“按名查找”这些文件。文件的数据操作基于文件名、偏移量、读写字节数等,但是文件本身并无文件自身的属性、元数据信息。基于对不同环境的文件存储发展了多种形式的文件系统(如表1所示)。


    表1 几种文件系统

    ž  对象存储

    对象是自完备的,包含元数据、数据和属性,可以进行自我管理,对象本身是平等的。也就是说,对象分布在一个平坦的空间中,而非文件系统那样的树状逻辑结构之中,对象存储以ID为基础,根据ID可以直接访问数据,核心是将数据通路(数据读或写)和控制通路(元数据)分离,并且基于对象存储设备(Object-based Storage Device,OSD)构建存储系统,每个对象存储设备具有一定的智能,能够自动管理其上的数据分布。典型代表:Swift、CEPH

     

    ž  从设备级别看块、文件、对象存储(如表2所示)


    表2块、文件、对象存储的设备级访问比较

     

    2.3     主存储架构

    主存储是数据中心的重要存储系统,通常称为Tier1存储,用于存储活动数据(经常需要访问的数据)以及要求高性能、低延迟、高可用性的数据。主存储通常用于支撑数据中心关键任务程序(如数据库、电子邮件和事务处理)。大多数重要程序采用随机数据访问模式,具有不同的访问要求,但是都能产生大量数据,企业可以利用这些数据完成业务。

    即使在虚拟领域中出现越来越多的新的数据存储技术,传统的主存储系统仍然普遍。DAS是最早的主存储架构,但SAN已经成为当前使用最广泛、也最为主流的存储架构。而NAS则在数据中心用于文件共享应用,并且也在后端采用了SAN的扩展。在数据中心领域,绝大多数厂商也均以SAN架构来部署面向高级用户的主存储解决方案,以及在此基础上相关的容灾备份方案和存储虚拟化方案(如图3所示)。


    图3 数据中心主存储架构

    SAN的特点是性能高、稳定性强、价格高。在一些需要集中存储的数据库等实时服务要求高的重要应用领域,依然是当前的主流的技术,在存储应用中,需要集中存储的高端应用由SAN来承担,基于文件的小规模应用由NAS承担更合适,使得SAN与NAS成为互补存储架构出现。

    最初的数据中心,大部分数据都是主数据。随着数据的存在时间增长,大量数据会通常移动到次级和三级存储。因此,随着存储各方面技术发展和业务的成熟,数据中心逐步开始寻求能够减少主存储的途径,以充分利用容量,降低整个数据生命周期的成本。

    2.4     分布式文件存储架构

    分布式文件系统主要的功能是用于存储文档、图像、视频之类的非结构化数据,该系统建立在网络之上的,以全局方式管理系统资源,它可以任意调度网络中的存储资源,并且调度过程是“透明”的。

    分布式存储系统采用可扩展的系统结构,利用多台存储服务器分担存储负荷,利用位置服务器定位存储信息,不但提高了系统的可靠性、可用性和存取效率,还易于扩展。以高性能、高容量为主要特性的分布式存储系统,一般满足以下四个条件:

    ¡  应用于网络环境中;

    ¡  单个文件数据分布存放在不同的节点上;

    ¡  支持多个终端多个进程并发存取;

    ¡  提供统一的目录空间和访问名称。

    HDFS(Hadoop Distributed File System)是开源项目Hadoop的家族成员,是谷歌文件系统GoogleFS(Google File System)的开源实现,以下仅简单介绍HDFS工作模式。

    HDFS被设计成适合运行在通用硬件上的分布式文件系统,是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,非常适合大规模数据集上的非结构化数据、半结构化应用。运行在HDFS之上的程序有很大量的数据集,典型的HDFS文件大小是GB到TB的级别,因此,HDFS被调整成支持大文件。一个HDFS集群是有一个Namenode和一定数目的Datanode组成(如图4所示):

    ¡  NameNode(名称节点)是一个或一组中心服务器,是HDFS的中枢,负责管理文件系统的目录名字空间信息(namespace)和客户端对文件的访问,并且管理所有的DataNode;

    ¡  DataNode(数据节点)在HDFS中负责管理本节点上附带的存储Block(数据块)。在HDFS内部,文件不是放在一块磁盘上,一个文件其实分成多个block(数据块),这些block存储分散在Datanode组成的集群中,NameNode记录block对应在不同的DataNode上的映射关系。

    NameNode接受客户端的元数据请求,然后对DataNode发出Block Ops(块操作)指令,文件的创建、删除和复制操作,同时决定block到具体Datanode节点的映射。Datanode在Namenode的管理下进行block的创建、删除和复制。


    图4 HDFS经典体系架构图示

    HDFS可靠性和性能主要通过数据块的副本来实现,并且HDFS采用一种称之为Rack-aware(机架感知)的策略来改进数据的可靠性、有效性和网络带宽的利用。

    在通常副本数为3的情况下,HDFS的策略将一个副本存放在本地机架上,一个副本放在同一个机架上的另一个节点,最后一个副本放在不同机架上的一个节点。在读取时,为了降低整体的带宽消耗和读延时,如果客户端同一个机架上有一个副本,那么就读该副本。

    HDFS依然是主从结构,Namenode成为整个系统的瓶颈和关键故障点,因此,众多使用分布式文件系统的用户均在此基础上不断完善其高可用性,比如发展出无中心存储架构。

    2.5     分布式对象存储架构

    在对象存储中,存储的不仅是数据,还有与丰富的数据相关的属性信息。系统会给每一个对象分配一个唯一的OID(Object ID)。对象本身是平等的,所有的OID都属于一个平坦的地址空间,而并非文件系统那样的树状逻辑结构。对象存储空间访问对象只通过一个唯一的OID标识即可,不需要复杂的路径结构,没有“路径”他“文件夹”的概念。对象存储架构有以下组成部分。

    ž  对象

    对象是系统中数据存储的基本单位。一个对象实际上就是文件的数据和一组属性信息(Meta Data)的组合(如图5所示),这些属性信息可以定义基于文件的RAID参数、数据分布和服务质量等;而传统的存储系统中用文件或块作为基本的存储单位,在块存储系统中还需要始终追踪系统中每个块的属性,对象通过与存储系统通信维护自己的属性。在存储设备中,所有对象都有一个对象标识,通过对象标识命令访问该对象。通常有多种类型的对象,存储设备上的根对象标识存储设备和该设备的各种属性,组对象是存储设备上共享资源管理策略的对象集合等。


    图5 对象存储数据

    ž  对象存储设备(OSD,Object Storage Device)

    OSD有自己的CPU、内存、网络和磁盘系统,和块设备的区别不在于存储介质,而在于两者提供的访问接口。OSD的主要功能包括数据存储和安全访问,目前国际上通常采用标准化计算单元结构实现对象存储设备。OSD执行从对象到块的映射,这个动作允许本地实体以最佳方式决定怎样存储一个对象,OSD存储节点不仅具备存储功能,还包括智能化的高级能力。传统的存储驱动只是作为Target响应客户端的I/O请求,而对象存储设备是智能设备,它能同时执行Target和Initiator的功能,支持与其他对象存储设备的通信和协作,如数据分配、复制与恢复。

    ž  元数据服务器(MDS ,Metadata Server)

    元数据服务器的工作就是管理文件系统的名称空间、控制客户端与OSD对象的交互,缓存和同步分布式元数据。虽然元数据和数据两者都存储在对象存储集群,但两者分别管理,支持可扩展性。

    ž  对象存储系统的客户端Client

    为了有效支持Client支持访问OSD上的对象,需要在计算节点实现对象存储系统的Client,通常提供POSIX文件系统接口,允许应用程序像执行标准的文件系统操作一样。

    在客户端,用户使用文件系统是透明的,Linux通过内核虚拟文件系统交换(VFS)来进行底层的操作访问。终端用户访问大容量的存储系统,无需知道下面聚合成大容量存储池的元数据服务器、监视器、独立的对象存储设备。文件系统的智能化处理分布在节点上,这简化了客户端接口,可以支撑大规模动态扩展能力。

     

    对象存储构筑在标准硬件存储基础设施之上,无需采用RAID(磁盘冗余阵列),通过在软件层面引入一致性散列技术和数据冗余性,牺牲一定程度的数据一致性来达到高可用性和可伸缩性,支持多租户模式、容器和对象读写操作,适合解决互联网的应用场景下非结构化数据存储问题。

    与通常的分布式文件系统一样,放入对象存储集群中的文件是条带化的,依据特定的数据分布式算法放入集群节点中。应用程序可以通过RESTful接口与各OSD节点其通信,将对象直接存储在集群中.

    以OpenStack中的对象存储组件Swift为例。从Swift的架构与特性来看,除了极高的数据持久性,各个存储的节点完全对等,是对称的系统架构;扩容的时候只需简单的增加机器,扩展性很好;没有主从结构,不存在单节点故障,任意一个节点出现故障时,数据并不会丢失。如图6所示分别表示了上传文件PUT和下载文件GET请求的数据流,两个请求操作的是同一个对象。上传文件时,PUT请求通过负载均衡挑选一台Proxy Server,将请求转发到后者,后者通过查询本地的Ring文件,选择3个不同Zone中的后端来存储这个文件,再给用户返回文件写成功的消息。下载文件时,GET请求也通过负载均衡挑选一台ProxyServer,后者上的Ring文件能查询到这个文件存储在哪三个节点中,然后同时去向后端查询,ProxyServer从中选择一个节点下载文件。

     

    图6 对象存储Swift的部署与文件存取

     

    3      结束语

    企业及互联网数据以每年50%的速率在增长,新增数据中结构化数据总量有限,多数为非结构化、半结构化数据,数据中心存储架构随着业务发展需要极强的弹性适应能力,低成本、大容量(海量)扩展、高并发性能是面向大型云数据中心运营存储架构的基本技术属性。如何进行数量庞大且杂乱无章的数据存储与深度应用处理,并迅速提取有价值的信息,形成迅速商业决策成为各类型企业生存基础是今后存储以及围绕存储架构不断衍生的业务发展方向。因此数据存储技术变革方向必然是分布式并行文件系统,并行数据库、高效统一的数据装载及存取,多接口、灵活扩展、多业务承载的解决方案能力是大容量、海量存储技术架构的关键。

     

    展开全文
  • 文章目录目录前文列表云网融合SD-WANSD-WAN 的应用场景企业组网互联 SD-EN数据中心互联 SD-DCI云组网互联 SD-CX企业云接入场景数据中心联云场景多云互联场景SD-WAN 的技术架构参考文章 前文列表 《数据中心网络架构...

    目录

    前文列表

    数据中心网络架构演进 — 从传统的三层网络到大二层网络架构
    数据中心网络架构演进 — 从物理网络到虚拟化网络
    数据中心网络架构演进 — CLOS 网络模型的第三次应用
    数据中心网络架构演进 — 从 Underlay 到 Overlay 网络
    数据中心网络架构演进 — SDN 将控制面与数据面分离
    数据中心网络架构演进 — 从私有云到多云到混合云

    前言

    VQN 是一种隧道技术,你懂的。

    MPLS-VQN

    MPLS(Multi-Protocol Label Switching,多协议标签交换)是一种高效且可靠的网络传输技术。简单来说,它就是在数据流上打标签,有点像鸡毛信,告诉沿路的所有设备:“我是谁,我要去哪里”。MPLS 专线,就是一种基于 MPLS 技术的广域网服务专用线路。
    在这里插入图片描述

    MPLS 专线是一种租用服务,它的所有权是属于电信运营商的。运营商把专线租给你,然后承诺这条线路的 SLA(Service Level Agreement,服务等级协议,包括带宽、时延、抖动、丢包率等)能达到什么样的要求。至于你的软件用起来快不快、稳不稳,它是完全不管的。

    问题又来了,你租我租大家租,运营商的物理网络就这么一张,这么多公司的业务都在上面跑,怎么保证区分和隔离呢?答案就是 VQN。VQN(Virtual Private Network,虚拟专用网络)其实就是在正常的物理连接基础上,虚拟出了一个专用通道,保证通信的隔离和保密。

    在这里插入图片描述

    根据基于的网络不同,VQN 通常包括 IPSec-VQN 和 MPLS-VQN。

    • IPSec-VQN:基于 Internet 的 VQN。这个大家平时用得比较多。大公司员工出差在外,都会拨 VQN,然后就相当于变成了公司内网,可以访问内网的网站。
    • MPLS-VQN:基于运营商 MPLS 专用网络的 VQN。整个分公司和总部之间,通过这个连接,逻辑上相当于大家都处于一个内网里。

    在这里插入图片描述

    MPLS 这个技术,从 Cisco 1996 年提出 Tag/Label Switching 开始萌芽,至今已经主宰企业网市场 20 多年,期间没有任何重大改进。相对 Internet 来说,MPLS专线的优点就是比较稳定可靠,安全也有一定的保障。但是,随着时代的发展,它的缺点也越来越明显,备受用户的吐槽:

    1. 使用成本高。
    2. 部署周期长。
    3. 故障排查难。
    4. 维护人力紧。

    SD-WAN

    :此章节的内容主要来自于《云网融合产业发展白皮书》,笔者此处作为搬运、整理,建议查看原文。

    SDN 技术从最初的集中控制架构和 Openflow 协议到 Google B4 的商用案例,其萌芽期和幻灭期的关注点一直在云和数据中心内的场景,产业界急切需要找到下一个突破点。而早期出现的混合广域网(Hybrid WAN),企业市场面临着 Internet 互联不稳定而 MPLS VQN 价格昂贵这样的博弈类问题,因此管理 Hybrid WAN 成为了 SDN 技术的重要应用。2014 年 9 月在 networkcomputing 的文章中 SD-WAN 首次出现于公众视野,同年在 ONUG 的开放网络用户论坛上,众多的企业用户也不约而同的提出了此应用需求。

    SD-WAN(Software-Defined Wide Area Network,软件定义广域网络)将 SDN 技术应用到广域网场景,SD-WAN 用于连接广阔地理范围的企业网络、数据中心、互联网应用及云服务,旨在帮助用户降低广域网的开支和提高网络连接灵活性。

    SD-WAN 将 SDN 的概念引入到广域网之中,通过软件和硬件分离、逻辑网络和物理网络分离的理念去简化广域网的部署。同时将网络的控制权收敛到集中式控制器之中,以整个网络为基础去获取拓扑和下发指令;采用开放式软件架构,集中监测和分析当前网络的性能状况和分支状态;可识别应用类型,根据应用类型和业务需求合理分配流量。随着互联网技术的不断发展,互联网线路质量不断提升且价格不断下降,SD-WAN 使用互联网的价值空间也越来越大。

    SD-WAN 能利用私有网络(MPLS-VQN)和公共网络(Internet)来将流量路由到最适合的网络的方式
    在这里插入图片描述

    大家可以看到,整个网络架构的躯干,其实还是 Internet 和 MPLS 专线。但是,在架构之上,多了一个 SD-WAN 控制器。这个控制器,就是 SD-WAN 的管理控制核心。在分公司节点,还有总部节点,多了一些 uCPE 和 vCPE 这样的东西。

    CPE(Customer Premise Equipment,客户终端设备):这里的 CPE 和 5G CPE 不一样,5G CPE 是把 5G 信号转成 Wi-Fi 信号的。这里的 CPE 是连入网络的一个接口盒子(可以理解为一个小路由器)。

    • uCPE 是 Universal CPE,通用客户端设备
    • vCPE 是 Virtual CPE,虚拟客户端设备

    管理员可以通过应用层接口对 SD-WAN 控制器进行配置,也可以下发 vFW、vWOC(虚拟广域网优化控制器,WAN Optimization Controller)功能到 CPE,实现相应的功能,无需专门购买硬件。

    • 传统的混合 WAN 组网
      在这里插入图片描述
    • 应用 SD-WAN 的混合 WAN 组网
      在这里插入图片描述

    SD-WAN 的特征

    • 多种链路连接并动态选路:为了保障良好网络访问体验,采用传统方法,客户需要购置 MPLS 等专线,带宽成本高,实施周期可能需要数周到数月的时间。随着互联网宽带质量的不断提升,使用互联网宽带取代或部分取代专线已是大势所趋。SD-WAN 将底层物理网络资源如专线、互联网宽带、3G/4G LTE 等充分结合,虚拟成一个资源池,并在此基础上构建Overlay,同时为了达到负载均衡或资源弹性,SD-WAN 可根据现网情况和网络需求动态选择最佳路径

    • 快速灵活部署:传统网络设备的部署一般需要专业 IT 人员到现场支持,不仅成本高,而且实施周期长。SD-WAN 支持设备即插即用的易部署,即不需要 IT 人士现场部署,只需部署边缘设备,插上通信链路,接入电源,设备即可通过集中管理设备自动下载指定配置和策略,实现简化灵活部署

    • 网络集中管理:当 WAN 中分支规模较大时,网络的管理和故障排查就变得较为复杂,SD-WAN 通常会提供集中管理系统,用于网络多设备配置、WAN 连接管理、应用流量设置及网络资源利用率监控等,以此达到网络简化管理和故障排查的目的

    • 支持软件定义安全:由于 SD-WAN 引入互联网宽带,虽然降低了链路成本,但互联网出口容易招致攻击,SD-WAN 在 WAN 连接的基础上,提供更多的,开放的和基于软件的技术,支持集成防火墙、防入侵等安全产品的能力

    SD-WAN 的价值

    • 保障网络性能和可靠性:SD-WAN 综合利用多条公有和私有链路,具有多路由优化及冗余特性,连接的两端只要有一条路径可用,企业应用流量就不会中断,这一整网冗余的机制最大限度保障了连接的可靠性。同时 SD-WAN 根据业务应用需求和实时链路质量检测,智能路径控制可以利用优质的链路承载客户的关键业务,进而保证其运行质量。

    • 简化管理运维:SD-WAN 的物理拓扑将比传统网络更复杂,它具有更多的功能。但 SD-WAN 通过即插即用的部署方案和强大的集中管理系统,可对全网可视可控,掩盖了网络大部分复杂性,大幅降低了客户的管理投入和对网络运维人员的能力需求,因此简化了网络运维,增加了管理效率。

    • 降低成本:Gartner 报告称,SD-WAN 部署比传统广域网架构节省 2.5 倍费用。SD-WAN 方案利用现有基础设施进行流量传输,允许快速分支部署和实时访问,网络所有部署和管理均由集中控制系统进行,自动化运维减少了问题识别和相关补救成本,从各方面节省了硬件、软件和 IT 资源,尤其分支机构较多时,采用 SD-WAN 模式节省成本效果更加明显。

    SD-WAN 真正要实现什么?

    转控分离:由于 SD-WAN 更多的是关注面向 Overlay 层的转发控制,因此 Underlay 层的控制更多的会放在转发层面来实现。

    全域选路控制:SD-WAN 很大程度上以此替代了传统路由器的动态路由协议。我们知道传统的动态路由协议一般都是通过搜集本地链路 QoS 和可达信息,在域内的路由器间进行路由信息交换和表决,来维护本地动态路由转发表进行实际的转发控制。即使是 BGP 协议也不过通过 Route Reflector 将这些路由信息集中起来进行分发,具体的路由判断,也就是转发控制仍然在本地完成。而 SD-WAN 可以简单的认为是直接在其 SDN Controller 上统一维护“一张”全域的路由表,CPE/Edge 设备只需要将本地链路信息上传,并接收 SDN Controller 针对其发布的路由表就可以了,路由处理和转发控制被极大的简化了。

    统一的 QoS 控制:相比于传统网关和路由器设备各行其是的本地 QoS 策略控制,SD-WAN 强调实现集中化的 QoS 分析和统一的 QoS 策略分发。CPE/Edge 设备实时上报本地链路信息数据(其中包含了链路当前的网络特性,包括延迟、jitter、丢包和可用带宽),SDN Controller 统一进行分析,网络管理员将 SLA 目标输入转化为各种特定业务应用的 QoS 定义–带宽、延迟、jitter、数据包丢失等,控制器将这些要求转换为对应边缘设备“即时”的路由策略,以选择发送该流量的最佳路径。从另一个角度来说,统一的 QoS 控制也就是全局选路的判权策略。

    业务策略编排:SD-WAN 的 “软件定义” 特征主要依靠 “策略编排” 来体现。策略,说明了 SD-WAN 对于业务、应用、CPE/Edge 设备、链路、网络特性、SLA/QoS 保证、路由等的控制方式。编排,是策略与 SD-WAN 下辖资源(如,可用 Overlay 链路池、Overlay 网络特性、可用 Underlay 链路池、Underlay 链路特性)的映射和关联方式,简单的说,就是业务需要怎样使用 SD-WAN 达到相应 SLA 目标的自动化方式。既然是自动化方式,就意味着 SD-WAN 的 SDN Controller 可以自发的调整那些策略,使用下辖的资源,自动化的程度高低和策略控制粒度的精细程度,决定了 SD-WAN 的业务编排能力,也就是 SD-WAN 实际的实现水平。

    SD-WAN 的应用场景

    在这里插入图片描述

    企业组网互联 SD-EN

    企业组网互联的需求是将部署在企业总部、各分支机构、企业数据中心以及企业私有云环境上的 IT 系统连接起来形成 IT 架构的一类场景。企业组网场景是 SD-WAN 应用中提及最多,也是被接受最广的一类应用场景。企业组网互联传统上会租用运营商的专线或者 MPLS VQN 专网服务,为企业 IT 系统搭建跨域的私有网络,而对于质量要求和私密性要求不太高的企业,也可能直接采用 Internet 搭建企业网络。SD-WAN 是通过 SDN 技术在原有这两种传统组网方式的基础上,形成的更灵活的一体化解决方案。

    SD-WAN 的企业组网场景中,通过在企业总部、各分支机构、企业数据中心部署支持 SDN 集中管理控制 CPE(客户端设备)设备,或者在企业的私有云、公有云环境中部署的 IT 系统中,安装 vCPE(虚拟客户端设备)软件,为企业提供独立的、可灵活调配资源、自助式服务的组网解决方案。SD-WAN 可以将质量要求不高但是对带宽要求高的应用导入成本较低的互联网,而将质量和可靠性要求高的应用导入专用网络,以此降低企业 IT 组网时的成本,加快企业分支节点部署和开通的速度,支持越来越灵活的 IT 架构的部署和运营。

    SD-WAN 使得企业的 IT 部门或者运维支撑部门在选择适当的网络以连接分支机构、远程办公室、云应用以及其他数据源时,能够拥有较高程度的自主性,可以通过自动化策略部署,甚至直接调用 SD-WAN 的可编程 API,采用软件方式决定什么时间,以什么方式使用网络资源。
    在这里插入图片描述

    数据中心互联 SD-DCI

    随着越来越多的大中型企业构建了自己的数据中心,或者以运营商的数据中心为基础搭建自己的企业 IT 架构,数据中心互联的场景成为了 WAN 网络上的一类重要应用场景,也被称为 SD-DCI。

    数据中心互联场景要求 SD-DCI 网络具备以下功能:支持用户级别的数据中心组网拓扑(Full mesh、hub-spoke),支持 DCI 连接的动态调整和优化,支持管理服务功能可视化,支持用户可视化的自助服务功能。
    在这里插入图片描述

    云间互联 SD-CX

    云间互联是指云计算产业成熟和业务多样化带来的多云(或数据中心)之间的互联互通,如:公有云内部互通,混合云和跨服务商的云资源池互通。

    云间互联是云网融合的一个典型场景,以云间互联为目标的网络部署需求日益旺盛。随着云计算产业的成熟和业务的多样化,企业可根据自身业务需求和实际成本情况选择不同的云服务商提供的云服务,这也形成了丰富的云间互联业务场景。当前混合云的组网技术主要以 VQN 和专线为主,而 SD-WAN 由于其快速开通、灵活弹性、按需付费等特性也逐渐被人们所关注。

    企业用户接入云

    从云服务商的角度看,一方面是互联网应用服务商选择云平台部署应用系统,提供各类互联网应用服务,另一方面企业也会选择云平台部署企业内部的 IT 系统,为企业的客户或者员工提供通用的 IT 服务。不管是传统企业还是新兴的互联网企业,其总部或者分支机构上云的需求越来越丰富,对上云的网络质量要求也越来越高。

    传统方法是企业内部网络通过 Internet 方式接入公有云的 VQN 网关。随着云上应用的需求增加,企业发现 Internet 无法满足内部网络联云的时延、丢包等质量要求,也存在数据和信息保密的安全隐患,由此各厂商纷纷推出支持企业专线上云的解决方案。云接入方案通过 CPE 提供用户网络接入,通过 VxLAN 提供网络 VQN 通道,通过云中心 vCPE 提供用户网络组网服务及路由控制,通过业务及管理系统实现整体的业务部署及设备管理,完成云网一体化协同,提供统一云接入方案,提供丰富的增值类业务,进而实现连接服务、通信服务、云接入增值服务一站式解决方案。

    在这里插入图片描述

    数据中心接入云

    从企业用户看,企业的总部、分支机构和企业数据中心都有云接入的需求。而从数据中心服务商的角度看,大中型的数据中心服务商对于与云服务商连接也非常重视。其中非常典型的是美国最大的数据中心服务商 Equinix,其提供 DC Interconnect 系列服务,连接了全球 145 个数据中心和 500 多个云服务商,支持各种云连接服务 17 万。

    为支持与企业数据中心或者 IT 架构的互联,公有云服务商也提供了与数据中心服务商对接的高速直连业务,AWS 在其 Direct Connect 业务中专门针对数据中心服务商这类的合作伙伴,提供了 Partner 的服务模式,可以与数据中心服务商对接后,再提供给最终云用户的云专线接入服务。

    在这里插入图片描述

    多云(Multi-Cloud)互联

    云计算的发展已经成为一个不可逆转的趋势,混合云是很多企业锚定的下一站。近几年,混合云既利用了公有云的优势,又兼顾了敏感信息的安全防护,成为更多企业用户的首选。早期的混合云解决方案的最大特点是多云管理,而多云管理解决的是管理问题,而不是连接。真正的混合云一定是在私有云和公有云之间,建立同时打通数据面和控制面的高速通道,才能消灭 IT 的孤岛,把碎片化的私有云和集中式的公有云连接起来。
    在这里插入图片描述

    除了企业的私有云和公有云的互联需求,也有一些互联网应用服务商采用多公有云的 IT 架构,针对提供的互联网应用选择合适的公有云平台,因此还有一类需求是跨公有云服务商的 SD-WAN 连接,称为多云互联场景。

    在这里插入图片描述

    SD-WAN 的技术架构

    在这里插入图片描述

    • SD-WAN 数据转发层:是广域范围内存在的物理设备或者虚拟设备,这些设备以及连接这些设备之间的链路组成了 SD-WAN 的数据转发通道。SD-WAN 数据转发层需具备的特征是:具备网络资源虚拟化的部署能力;具备流表/标签/VLAN/VRF 等逻辑资源隔离的转发能力;具备可开放的网络功能调用的接口,支持控制层的集中管理和资源配置;具备网络边缘设备和广域 WAN 节点的区分,可以支持网络边缘设备选择不同的广域 WAN 节点,即选择不同的 WAN 资源,满足不同业务转发的质量要求。

    • SD-WAN 控制层:是 SD-WAN 的核心组成部分,通常包括两类主要功能:一类功能是自动采集和获取数据转发层的网络拓扑、网络状态和网络资源数据,将物理网络资源抽象成可以独立提供给不同用户或应用的逻辑网络;第二类功能是对 SD-WAN 数据转发层的集中控制和管理,支持按照不同的用户或者上层应用需求,选择和配置不同的网络资源和路径,以提供高性价比且使用灵活的网络连接服务。当底层网络资源不足或者因为故障而不可用时,可以支持自动或者人工干预的方式进行路径切换,提高业务层连接的可靠性、可用性。

    • SD-WAN 业务编排层:是将数据转发层和控制层的能力集成开放的功能层,通常支持各种底层网络功能的集成,如多种边缘接入方式(固网宽带、4G 网络、专线接入等)的选择和集成,如支持多种骨干网络的部署集成,包括骨干传输网、MPLS VQN 网络或者 SDN 骨干网,如支持与不同云服务的集成,包括公有云服务、私有云服务以及行业云等专属云服务;另一方面,业务编排层提供业务数据的采集和统计,支持 SD-WAN 服务的计费话单、业务流量统计等数据的输出。业务编排层的核心特征是具备可开放的北向接口,支持用户服务、上层应用或者云应用的能力开放和调用。

    • SD-WAN 服务层:是 SD-WAN 各类服务的展示层,对于运营商而言,可以提供可视化的 SD-WAN 网络资源的统一管理和控制,具备灵活的运维管理和运营服务能力;对于用户而言,可以提供可视化的业务管理视图,用户可以自主进行网络节点的管理和监控,自助开通、变更和关闭 SD-WAN 服务;同时,SD-WAN 服务层可以与用户的自有 IT 系统、应用系统对接,通过能力开放的 API 或者 SDK 支持各种 SD-WAN 应用的集成。

    实践案例:企业用户利用 SD-WAN CPE 接入公有云 VPC 专有网络

    在这里插入图片描述

    在没有 SD-WAN 方案之前,企业用户接入公有云 VPC 可以使用 AWS Direct Connect 方式,在 IXP/Colo(互联网交换中心)数据中心,通过 VPC 路由器和企业本地路由器上的 VLAN 接口,连接 VPC 和企业网络,但这种方式不仅价格昂贵还缺乏灵活的配置方式。

    随着 SD-WAN 应用的普及,企业用户只需要简单的几步即可实现 Remote VPC 接入,极大的方便了中小企业上云:

    • 网上下单购买 SD-WAN 接入套餐,云公司快递发送小盒子(CPE)去分支机构或者企业总部。
    • 给 CPE 上电,扫码,上网,自动注册,自动下载配置。
    • 登录统一的管理平台管理 VPC 和 SD-WAN CPE 设备。
    • 可配置本地流量的分流,如:访问 VPC,访问 Office365 和视频流量走不同的路径。

    在这里插入图片描述

    2018 年 7 月,微软宣布开始最新的 SD-WAN 接入方案试运行。企业用户可以通过 SD-WAN CPE 设备接入微软的不同 VPC Region,继而访问 VPC 里的各种资源,此举极大加速了分公司/个人基于云产品的 DevOps。
    在这里插入图片描述
    从上面的微软 SD-WAN 控制台可见。客户可以自行创建新的 SD-WAN Site,上线新的 SD-WAN CPE 盒子。管理 Site/Hub(微软 POP 点)之间的 VQN 连接,提供自动化 CPE 配置脚本。还能够配置统一接入策略和监控网络运行情况。

    参考文章

    http://www.cbdio.com/BigData/2016-06/21/content_4989943.htm
    https://v3.opensourcecloud.cn/static-file/media/2018/08/13/8eafd07469eab76fc0957b2f7b7b8ee0.pdf
    http://www.sohu.com/a/286517053_753085
    http://www.idcquan.com/Special/2019trucs/ppt/suyue.pdf

    展开全文
  • 目录 ...《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-...
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 《数据中心...
  • 关于数据中心基础架构管理

    万次阅读 2018-03-12 00:00:00
    数据中心空间和电力资源方面的限制以及管理大型数据中心的巨大复杂性,则催生了一类具有集成流程的工具——数据中心基础设施管理(DCIM)的兴起。 一旦经过了正确的部署,全面的DCIM解决方案可为数据中心运营人员们...
  • 目录 文章目录目录前文列表Clos Networking 前文列表 《数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 Clos Networking ...
  • 数据中心网络架构的问题与演进 — 传统路由交换技术与三层网络架构》 《数据中心网络架构的问题与演进 — 网络虚拟化》 《数据中心网络架构的问题与演进 — CLOS 网络与 Fat-Tree、Spine-Leaf 架构》 SDN 关于 SDN...
  • 8.1 云数据中心面临的安全挑战 因为云化和SDN化的网络特点(网元出现的位置随意性更,出现和消失的时间不定): 首先会导致安全业务开通周期长; 其次SDN的自动化能力是现在安全业务所不能达到的,很多安全业务...
  • 道友们们大家好;自2012年至今,在网络领域混了将近10年,今天将自己在此领域关于数据中心...2.本架构共含5个数据中心,办公区运维管理业务发布2个办公区。 二,IDC间链路冗余设计 SLA 99.99% 三,IDC间链路规...
  • 7.1 多数据中心业务诉求场景 7.1.1 多数据中心业务场景分析 7.1.2 多数据中心的网络需求分析 7.1.3 Multi-DC Fabric方案整体架构和场景分类示例 7.2 Multi-Site场景和设计 7.2.1 Multi-Site方案的应用场景 7.2.2...
  • SDN在云数据中心架构

    万次阅读 2017-05-19 00:35:05
    SDN概念一直如火如荼,若是要谈到概念落地及规模应用,一定离不开SDN在云计算数据中心的实践应用。云数据中心对网络提出了灵活、按需、动态和隔离的需求,SDN的集中控制、控制与转发分离、应用可编程这三个特点...
  • 文章目录目录前言传统路由交换技术路由和交换交换技术传统的 2 层交换技术具有路由功能的 3 层交换技术具有网络服务功能的 7 层交换技术路由技术三层网络架构核心层(Core Layer)汇聚层(Aggregation Layer)接入层...
  • 漫谈数据中心CLOS网络架构

    万次阅读 2015-11-28 11:08:00
     随着技术的发展,数据中心的规模越来越,一个数据中心的服务器容量从几年前的几千台服务器发展到今天的几万甚至几十万台。为了降低网络建设和运维成本,数据中心网络的设计者们也竭力将一个网络模块的规模尽可能...
  • 云计算时代,数据中心架构三层到大二层的演变 author:pasca time:2018/1/16 文章目录一、数据中心是什么二、传统数据中心网络架构三、云计算的发展对数据中心的影响四、数据中心流量丰富化带来的挑战五、总结 一、...
  • 数据中心网络架构浅谈(一)

    万次阅读 多人点赞 2018-01-17 20:56:48
    数据中心的规模很程度上取决于网络的规模,对应网络的需求就是,以一个低成本,小规模的网络架构启动,但是要能够水平扩展到较规模。 传统三层网络架构的规模取决于核心层设备的性能和规模,取决于交换机的端口...
  • 双活数据中心架构分析及优缺点

    万次阅读 2016-09-13 13:18:48
    什么是双活数据中心 ? 首先我们要知道双活就是Active-...双数据中心同时对外提供业务生产服务的双活模式,两个数据中心是对等的、不分主从、并可同时部署业务,可极的提高资源的利用率和系统的工作效率、性能,让客
  • 云计算时代需要怎样的数据中心架构? 字号:小2012-07-13 09:35 来源:51CTO 我要评论(0) 云计算要求基础设施具有良好的弹性、扩展性、自动化、数据移动、多租户、空间效率和对虚拟化的支持。那么,...
  • 大数据处理的架构逻辑

    千次阅读 2015-05-27 21:25:53
    大数据处理背后的架构逻辑的思考。
  • 每日一学|数据中心spine leaf网络架构

    千次阅读 2019-05-08 14:03:54
    042云宏讲坛 | 数据中心spine leaf网络架构 随着业务形态的变化,数据中心网络的交换架构也在不断的发展。传统的三层网络结构应用广泛而且技术成熟,但随着技术的发展趋势,它的瓶颈也不断涌现,导致越来越多的...
  • 数据架构数据中心 主备、双活

    千次阅读 2019-02-21 19:23:07
    一个是主数据中心用于承担用户的业务,一个是备份数据中心用于备份主数据中心的数据、配置、业务等。备数据中心之间一般有主备(Active-Standby)热备、冷备,双活(Active-Active)备份方式。  热备的情况下,...
  • 微服务架构设计实践 目 次1 序言2 微服务3 软件架构设计思想4 微服务架构设计实践4.1 项目概述4.2 架构准备阶段4.3 概念架构阶段4.4 细化架构阶段4.4.1 业务架构4.4.2 数据架构4.4.3 应用架构4.4.4 技术架构4.4.5 ...
  • 数据中心网络高可用架构

    万次阅读 2016-09-09 15:30:27
    文章不错,转来了 http://www.h3c.com.cn/Solution/Operational/DataCenter/Solutions/201003/802841_30004_0.htm相比传统的高可用技术,新技术的出现为构建数据中心网络的高可用架构提供了更优的部署方式。...
  • 华为SD-DC²架构, 聚焦数据中心云化

    千次阅读 2016-02-24 14:14:11
    华为云数据中心解决方案聚焦于云时代IT架构下的数据中心云化,提供整合、端到端、全层级的数据中心架构,通过持续创新、合作共赢,帮助客户创造更高价值。
  • 软件开发就是把一个复杂的问题分解为一系列简单的问题,再把一系列简单的解决方案组合成一个复杂的解决...但架构并非镜花水月或阳春白雪,有系统的地方就需要架构到航空飞机,小到一个电商系统里面的一个功能组...
  • 数据中心架构ToR和EoR【总结】

    千次阅读 2018-05-06 17:32:00
     最近在看《云数据中心网络技术》,学习了企业数据中心网络建设过程,看到有ToR和EoR两种布线方式,之前没有接触过,今天总结一下。 2、布线方式 ToR:(Top of Rack)接入方式就是在服务器机柜的最上面安装接入...
  • 腾讯业务架构:六事业群

    千次阅读 2020-12-22 00:00:00
    2018年9月29日,腾讯宣布在BU化的基础上进行组织架构调整,将原有七事业群调整为六事业群,具体为:a.保留企业发展事业群(CDG)、互动娱乐事业群(IEG)、技术工程事业群(T...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 179,809
精华内容 71,923
关键字:

大数据中心业务架构