精华内容
下载资源
问答
  • 云数据中心的关键核心
    千次阅读
    2021-05-20 14:00:09

    华为云数据中心建设全面复工进行中,预计2021年投入使用(华为云贵州)

    推荐   2020-04-13

    http://3g.donews.com/News/donews_detail/3089566.html

    位于贵州省贵安新区华为云数据中心A区项目施工现场,1000余名工人正在对工程进行紧张施工。华为云数据中心是由华为技术有限公司投资,中建四局第一建筑有限公司承建。该数据中心是集数据中心、生产交付中心、员工休息楼于一体的综合性建筑群。数据中心建设完工后,将有超过160个国家的重要数据机库在这里投入运营。目前,该项目主体已初见雏形。

    5e93ecb9a7725.png

    (贵安华为云数据中心项目现场,来源:新华网)

    据了解,贵安华为云数据中心项目共分为A、B、C区3个项目标段,主要功能包括华为全球管理数据存储中心(私有云)、华为全球IT维护工程师基地和华为大学战略预备队训战实习基地等。

    其中,A区项目项目总建筑面积160046平方米,已于2019年3月开工建设,园区包括18栋单体,主要功能分区为数据中心、生产交付中心、生产调试中心、宿舍等;B区项目总建筑面积约13.6万平方米,园区包括16栋单体,主要功能分区为数据交付中心、员工食堂、文档中心、发电机房等;C区项目总建筑面积约14万平方米,园区包括17栋单体,主要功能分区为数据中心、教室、实验室、餐厅、公寓、辅助用房等。

    5e93ecb9e6875.png

    (华为云数据中心A区项目党支部书记、项目经理高军,来源:新华网)

    据贵安华为云数据中心A区项目党支部书记、项目经理高军介绍,工人们于2月14日就已开始逐步复工,目前正在抢抓时间赶工期,预计到明年上半年便可完工交付。

    贵安新区作为贵州建设国家大数据综合试验区的核心区,自设立以来,便始终把大数据作为核心竞争力和主导产业。此前,华为公司与贵阳市、贵安新区就有着良好的合作基础。未来,双方将继续以项目为抓手,共享发展机遇、政策红利,实现互利共赢、共同发展。

    声明:本站转载此文目的在于传递更多信息,并不代表赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本网联系,我们将在第一时间删除内容,本网站对此声明具有最终解释权。

    华为云计算数据中心--澄迈 成为海南唯一的省级云计算数据中心(海南) 

    2017-06-27 22:51

    https://www.sohu.com/a/152544621_482342 

    点击标题下「蓝色微信名」可快速关注

    签约现场。

    6月27日上午,澄迈县人民政府与华为公司在澄迈正式签署合作协议,双方就共建云计算数据中心、智慧政务、智慧教育、智慧医疗、智慧旅游、游戏动漫等相关领域达成全方位战略合作。

    签约双方合影留念。

    省工信厅副厅长陈万馨,县委书记吉兆民,县委副书记、代县长司迺超、华为云业务副总裁潘啸、华为公司海口代表处代表金伟锋,老城开发区工委书记、县委副书记莫仲敏,县领导周领军、王世雄、郑奋等出席签约仪式。

    县委副书记、代县长司迺超致辞。

    司迺超在致辞中指出,华为公司作为世界500强,有强大的品牌影响力,在云计算领域技术水平世界领先。澄迈高度重视与华为公司的合作,此次云计算数据中心合作协议的签署,标志着澄迈大数据产业迈出了实质性的一步,这将进一步提高我县信息化水平、促进产业转型升级,培育经济增长新引擎和竞争新优势。县委、县政府将全力做好项目建设相关服务工作,同时也希望华为公司科学规划,加快推进项目建设,争取项目早日建设,共创双方互利互惠,合作共赢的美好明天。

    华为云业务副总裁潘啸讲话。

    华为云业务副总裁潘啸表示,澄迈县具备发展云计算产业的资源和区位优势。华为公司将充分发挥在云计算领域的技术实力和资源优势,携手产业链应用合作伙伴,与澄迈县政府共同打造云生态高地,加速推进云计算产业发展。

    据了解,澄迈县华为云计算数据中心的成立,将成为华为云服务业务的全国重要节点、海南唯一的省级云计算数据中心。项目首期投资3亿元,远期投资10亿元,合作覆盖政务、教育、医疗、旅游、游戏动漫等领域。该项目将立足海南,面向东南亚辐射业务,成为大数据时代澄迈县乃至海南省域发展数据经济重要的基础设施和关键支撑项目。

    云计算及大数据是当今世界信息技术的前沿性、基础性产业,对未来经济社会发展有着重大影响,已经提升到了国家战略层面。近年来,澄迈积极发展信息产业,以海南生态软件园为龙头的互联网产业发展尤为迅猛,以“引进龙头企业,搭建产业平台,建立孵化体系,培育标杆企业,形成良好的产业生态圈”的发展思路,不断完善服务,取得了优异的成绩。2016年软件园全年营收232.7亿元,同比增长19.3%。2017年1-5月实现营收101.2亿元,同比增长22.8%。

    此次合作协议的签订,标志着澄迈县同华为公司在云计算产业、智慧城市、游戏动漫等领域的发展掀开新的篇章。双方将共同努力,推动澄迈从传统产业向新兴产业升级转型,构建产业新体系,加快澄迈建设智慧城市的脚步。

    好消息,总投资12亿,上饶华为云数据中心通过竣工验收! (上饶)

    好消息!

    11月14日,由上饶市大数据产业投资发展有限公司投资建设的华为江西云数据中心项目顺利通过竣工验收!

    2017年,华为江西云数据中心正式落户上饶,这栋极具互联网特色的建筑就成了大家关注的焦点。据了解,整栋“+”型大楼不仅外观很有创意,它在建设当中也充分考虑了互联网公司的特点,整栋楼大部分幕墙都具有隔热保温功能,这为大量服务器的运作提供了良好的条件。

    据悉,华为江西云数据中心坐落于信州区吴楚大道与五三大道交汇处东北侧,总建筑面积为25500平方米,地下1层,地上4层,总规划布局2020个机柜,项目总投资12亿元,该项目投入使用后将成为全省最大的云计算中心,能够满足64万核CPU、102.4万GB计算资源、100PB存储资源及运算能力,具备技术领先、安全可靠、品牌优良等特点,将推动上饶云计算大数据产业快速发展,以大数据聚产、以产兴城,进一步推动城东高铁新区的开发建设。

    华为北方云数据中心(乌兰察布)项目  

    http://che.wulanchabu.gov.cn/information/jnq_chekfq11585/msg2239257927993.html 

    发布时间:2019-05-23 11:42    作者:内蒙古察哈尔工业园区管理委员会    浏览次数: 1236     【字体: 大 中 小】

    华为技术有限公司是一家生产销售通信设备的民营通信科技公司,于1987年正式注册成立,总部位于中国广东省深圳市龙岗区坂田华为基地。华为是全球领先的信息与通信技术(ICT)解决方案供应商,专注于ICT领域,坚持稳健经营、持续创新、开放合作,在电信运营商、企业、终端和云计算等领域构筑了端到端的解决方案优势,为运营商客户、企业客户和消费者提供有竞争力的ICT解决方案、产品和服务,并致力于实现未来信息社会、构建更美好的全联接世界。

    华为云数据中心业务包含五个方面:即京津大数据中心、京津数据灾备中心、华北云服务承载中心、华为云华北大区中心、京蒙电子商贸中心。同时,为本地信息应用和“智慧乌兰察布”提供支撑平台。通过充分发挥乌兰察布市在区位、电力、气候、地质、网络、服务等方面的优势,目标成为面向华北、服务京津的国家级云计算产业基地。

    华为一期工程建设乌兰察布华为云数据中心,占地50亩,包括基础设施投入和IT设备投入两大部分,总投资10亿元。项目建设用地面积22030平方米,建筑面积21850平方米,设计容纳1600多个机柜,承载2万多台服务器,将建设集科研投入运营服务、基础设施配套三位一体的云计算产业基地。项目一期工程于2014年5月开工建设,于2016年7月8日投入运营。

    华为二期在乌兰察布建立北方云数据中心项目总投资5.8亿元,占地面积404亩,可建造用地面积为223亩,总建筑面积为11万平方米,其中机房楼2层、动力楼2层、综合楼3层,建筑总高度21m,主体为框架结构。设计容纳标准服务器机柜数为8064台,单机柜平均功率为8KW/台(未来可演进为15KW/台)。数据中心的设计坚持整体性、先进和经济实验的原则,高可靠性、高安全性,绿色节能、易于管理维护作为设计的重点,同时兼顾可扩展、灵活舒适、可持续性发展的发展策略。2019年计划完成机房楼、动力楼建设及机电设备安装工程,力争年内投入运行。

    更多相关内容
  • 数据中心采取“数据集中、应用分布”的方式,可以有效地提高信息资源的利用率,许多大企业正在建设或已经建设了各自的数据中心,企业关键应用系统和关键硬件设施均统一集中在数据中心,支持企业的核心业务运作。
  • 云数据中心网络技术

    千次阅读 2022-05-03 10:56:02
    博文主要介绍了以EVPN VXLAN体系构建云数据中心关键技术。干货满满。

    前言

    在当前云计算高速发展的背景下,数据中心网络面临着诸多挑战。
    云计算具有资源池化,按需供给等特点,正是因为云计算的出现使得IT资源具备了可运营的条件。
    数据中心网络则是云计算生态中非常重要的一环,在云计算的模式下网络承担了基础底座的角色,信息的处理、存储、传递等功能均离不开网络承载。数据中心网络也不得不面临如下挑战:

    • 扩展性
      扩展性至关重要,尤其是在云数据中心。一个数据中心要能够容纳成千上万的租户和数千个租户网络。由于12-bit VLAN字段的限制最大只能支持4K网络,传统VLAN组网不足以支持大型多租户数据中心。
    • 弹性
      云场景下,数据中心网络必须能够适应租户不断变化的需求和要求。如何快速调整网络资源,以响应应用层的负载变化。
    • 高可用性
      数据中心网络必须能保证全年7x24小时的连续运转,并能够应对潜在的故障场景和灾难场景。
    • 开放性
      防止单一的品牌锁定,越来越多的大型数据中心网络都在朝着白盒方向演进,品牌厂商也在要求不断开放基于数据中心部署的标准。
    • 安全性
      特别是在云数据中心,多租户的网络隔离,公有云和私有云之间的安全策略,未授权设备的接入访问等。
    • 敏捷性
      应用层的部署请求完成所需的时间是考验数据中心网络敏捷性的重要标准。
    • 低成本
      数据中心的总体成本包括资本支出和运营支出。虽然资本支出部分随时间摊销,但运营支出部分是持续性支出,因此降低数据中心的运营成本至关重要。
    • 一体化解决方案
      不同于传统数据中心逐点部署的方式,现今云数据中心需要一套整体的解决方案,网络与计算、存储等资源紧密结合,联动SDN控制器完成复杂场景的自动化任务。

    数据中心Fabric演进

    STP

    在数据中心初期,大多数是以生成树协议(STP)为基础构建的网络。使用STP一定程度上解决了二层网络的环路问题,但是仍有一些问题是STP无能为力的,例如:链路利用、收敛速度、广播风暴、多路径(ECMP),双归属(dual- homing)以及网络规模的限制等等问题。

    M-LAG

    M-LAG是一种跨机框链路聚合技术,可将其理解为一种横向虚拟化技术,通过配置使一对交换机在逻辑上被视为一个整体,从而达到消除环路,提高冗余能力, 在一定程度上解决了STP的一些问题。不过这种技术无疑是增加了网络的复杂程度,有实际运维经验的网络工程师肯定深有体会。

    Clos

    CLOS 网络的核心思想是:用多个小规模、低成本的单元构建复杂,大规模的网络。简单的 CLOS 网络是一个三级互连架构,包含了输入级,中间级,输出级。它是由贝尔实验室的研究员Charles Clos提出。
    在这里插入图片描述
    Spine-Leaf的网络架构正是根据这个思想产生。将上图的网络对折,就有了我们现在数据中心网络的样子。
    在这里插入图片描述

    Spine-Leaf网路由Underlay和Overlay组成。简单来说,Underlay采用三层IP互联,Overlay是在三层IP互联的基础上建立二层互通。这使得整个数据中心网路就像由若干交换机组成的一台大交换机。Underlay网络就像是这个大交换机的交换背板,而Overlay网络则是基于每个租户的相互隔离的虚拟网络。
    这样的网络架构根本上避免了二层环路产生和设备单点故障,也提供了链路的冗余能力,网络的灵活性、扩展性也大大提升。
    那么下面让我们逐步了解一下以Spine-Leaf为架构的数据中心网络。

    VXLAN介绍

    首先必须提到VXLAN,VXLAN是由IETF定义的NVO3(Network Virtualization over Layer 3)标准技术之一,采用MAC-in-UDP的报文封装模式。原始报文在VXLAN接入点加上VXLAN帧头后再被封装在UDP报头中,并使用Underlay网络的IP/MAC地址作为外层头进行封装,Underlay网络只需要按照普通的二三层转发流程进行转发即可。

    报文格式如下
    在这里插入图片描述

    相关概念

    VXLAN网络架构模型
    在这里插入图片描述

    • VTEP(VXLAN Tunnel Endpoints,VXLAN隧道端点)
      VXLAN网络的边缘设备,是VXLAN隧道的起点和终点,进行VXLAN报文的封装、解封装等处理。VTEP既可以部署在网络设备上(TOR交换机),也可以部署在vSwitch上(服务器上的虚拟交换机)。
    • VNI(VXLAN Network Identifier,VXLAN 网络标识符)
      VNI是一种类似于VLAN ID的网络标识,用来标识VXLAN二层网络。一个VNI代表一个VXLAN段,不同VXLAN段的虚拟机不能直接二层相互通信。VNI有24比特,可以支持多达16M的VXLAN段。
    • L3VNI
      在分布式网关之间通过VXLAN隧道转发流量时,属于同一租户(VRF)的流量通过L3VNI来标识。L3VNI唯一关联一个VPN实例,通过VPN实例确保不同租户之间的业务隔离。
    • VXLAN隧道
      两个VTEP之间建立的逻辑隧道,用于传输VXLAN报文。业务报文在进入VXLAN隧道式进行VXLAN、UDP、IP头封装,然后通过三层转发透明地将报文转发给远端VTEP,远端VTEP对报文进行解封装处理。

    VXLAN封装转发流程

    • 同子网单播封装转发流程

    在这里插入图片描述

    1. 在进行ARP报文的交互后(ARP Request转发流程后面再讨论),VM 1上已经存在VM 3的ARP表项,VM 3上也有VM 1的ARP表项。
    2. Leaf A收到VM 1发来的单播报文,发现其目的MAC为MAC 3,在VXLAN 10中查找到后,进行VXLAN封装后通过Tunnel 1发送出去。
    3. Leaf B收到Leaf A发来的报文,解封装后在VXLAN 10中找到MAC 3表项,将其在对应的本地端口和VLAN中发出去。
    4. VM 3收到报文后,往VM 1发送单播报文的流程相同。
    • 跨子网单播封装转发流程
      以集中式网关为例,网关设在Spine C上,VM1和VM4是不同子网。
      在这里插入图片描述
    1. VM 1先将报文发送给网关。报文的源MAC是VM 1的MAC,目的MAC是网关VRF10的MAC,源IP是VM 1的IP,目的IP是VM 4的IP。
    2. Leaf A收到VM 1发来的报文,识别此报文属于VXLAN 10,查找目的MAC G10的表项,就报文进行VXLAN封装后从Tunnel 2发送出去。其中,VXLAN头中的VNI为10;外层源IP地址为Leaf A的IP,外层目的IP地址为Spine C的IP;外层源MAC地址为Leaf A的MAC,而外层目的MAC地址为去往目的IP的网络中下一跳设备的MAC地址。封装后的报文,根据外层MAC和IP信息,在IP网络中进行传输,直至到达对端VTEP。
    3. Spine C收到Leaf A发来的报文,发现外层目的IP是自己,于是对报文进行解封装。解完封装后,Spine C发现原始二层报文的目的MAC为本机VRF10的MAC,目的IP是IP4,于是根据路由表查找IP 4的下一跳。发现一下跳为Leaf B,出接口为VRF20。再查询ARP表项,并将原始二层报文的源MAC修改为VRF20的MAC,将目的MAC修改为VM 4的MAC。报文到达VRF20接口时,识别到需要进入VXLAN 20隧道,所以根据MAC表对报文进行封装。这里封装的VXLAN头中的VNI为20,外层源IP地址为Spine C的IP地址,外层目的IP地址为Leaf B的IP地址;外层源MAC地址为Spine C的MAC地址,而外层目的MAC地址为去往目的IP的网络中下一跳设备的MAC地址。封装后的报文,根据外层MAC和IP信息,在IP网络中进行传输,直至到达对端VTEP。
    4. Leaf B收到Spine C发来的报文后,解封装,得到原始二层报文。在VXLAN 20内找到目的MAC为MAC 4的表项,并将报文从对应的接口和VLAN中发送出去。最终VM 4收到了来自VM 1的报文。
    5. VM 4发送给VM 1的过程与此类似。

    EVPN介绍

    上面提到的VXLAN是定义了数据包是如何在网络中封装,转发,解封装的,属于数据的转发层面。
    这部分我们重点介绍EVPN,EVPN属于控制层面,定义了VTEP如何自动发现,MAC地址、IP地址这些指导转发的信息是如何在网络中学习和传递的。

    相关概念:

    在这里插入图片描述

    • ES(Ethernet Segment)CE接入到PE的以太链路集合就是一个ES
    • ESI(Ethernet Segment Identifier)PE与某一CE的连接定义的唯一标识。
    • EVI(EVPN Instance) 表示EVPN实例,EVPN是虚拟化私网,在一台PE设备上存在多个EVPN实例。类似于VPLS的VSI,用来标识一个VPN客户。

    EVPN路由

    • TYPE1 Ethernet Auto-discovery Route
      分两种:
      Ethernet Auto-Discovery Per ES路由主要用于ESI多活场景中的快速收敛和水平分割,
      Ethernet Auto-Discovery Per EVI路由主要用于ESI多活场景中的别名
      在这里插入图片描述
      Ethernet Auto-Discovery Per ES路由
      Route Distinguisher:由源VTEP IP地址与0组合而成,例如1.1.1.1:0。
      Ethernet Segment Identifier:PE与CE连接的唯一标识。在VM多归场景中,PEs通过这一字段获知哪些PE连接了同一个CE。
      Ethernet Tag ID:该字段为全F。
      MPLS Label:该字段为全0。
      Ethernet Auto-Discovery Per EVI路由
      Route Distinguisher:EVPN实例下设置的RD(Route Distinguisher)值。
      Ethernet Segment Identifier:同上。
      Ethernet Tag ID:该字段用于标识一个ES下的不同的子广播域,全0标识该EVI只有一个广播域
      MPLS Label:该字段为绑定EVPN实例的BD所关联的VNI。

    • TYPE2 MAC/IP Advertisement Route
      用于通告主机MAC地址、主机ARP和主机路由信息。

    在这里插入图片描述

    Route Distinguisher:为EVPN实例下设置的RD(Route Distinguisher)值。
    Ethernet Segment Identifier:为当前PE与CE连接定义的唯一标识。
    Ethernet Tag ID:为当前设备上实际配置的VLAN ID或VNI ID。
    MAC Address Length:为此路由携带的主机MAC地址的长度。
    MAC Address:为此路由携带的主机MAC地址。
    IP Address Length:为此路由携带的主机IP地址的掩码长度。
    IP Address:为此路由携带的主机IP地址。
    MPLS Label1:为此路由携带的二层VNI。
    MPLS Label2:为此路由携带的三层VNI。

    • TYPE3 Inclusive Multicast Ethernet Tag Route
      用于VTEP自动发现和VXLAN隧道建立。
      在这里插入图片描述
      Type3携带的PMSI Tunnel 属性
      在这里插入图片描述
      Route Distinguisher:同上。
      Ethernet Tag ID:在此路由中为全0。
      IP Address Length:该字段为此路由携带的本端VTEP IP地址的掩码长度。
      Originating Router’s IP Address:该字段为此路由携带的本端VTEP IP地址。
      Flags:标识当前隧道是否需要Leaf节点信息。在VXLAN场景中,该字段没有实际意义。
      Tunnel Type:目前,在VXLAN场景中,支持的类型只有“6:Ingress Replication”,即头端复制,用于BUM报文转发。
      MPLS Label:该字段为此路由携带的二层VNI。
      Tunnel Identifier:目前,在VXLAN场景中,该字段也是本端VTEP IP地址。

    • TYPE4 Inclusive Multicast Ethernet Tag Route
      用于通告ES及其连接的VTEP信息,以便发现连接同一ES的VTEP冗余组其他成员,以及在冗余组之间选举指定转发器DF等。
      在这里插入图片描述
      Route Distinguisher:同上。
      Ethernet Segment Identifier (ESI):同上。
      IP Address Length:在VXLAN场景中为VTEP地址的长度。
      Originating Router’s IP Address:在VXLAN场景中为VTEP地址。

    • TYPE5 IP Prefix Route
      用于通告引入的外部路由信息。
      在这里插入图片描述

    Route Distinguisher:该字段为VPN实例下设置的RD(Route Distinguisher)值。
    Ethernet Segment Identifier:同上。
    Ethernet Tag ID:该字段取值为全0。
    IP Prefix Length:该字段为此路由携带的IP前缀掩码长度。
    IP Prefix:该字段为此路由携带的IP前缀。
    GW IP Address:该字段为默认网关地址。
    MPLS Label:该字段为此路由携带的三层VNI。

    补充

    EVPN路由的使用,可以参考我以前的博文:
    TYPE1 per ESI
    TYPE1 per EVI
    TYPE2
    TYPE3
    TYPE4

    Underlay网络

    由于VXLAN是MAC-in-IP/UDP,IP承载网络需要以最佳方式承载来自VXLAN隧道端点(VTEP)的IP流量。
    以下几点我们在部署Underlay网络时需要重点考虑:

    Underlay网络架构模型

    经典的部署方案,IP Fabric是由Spine-Leaf两层组成,根据网络规模的大小我们可以横向扩展Spine和Leaf交换机的数量。这样的网络结构任意两台终端互相通信最多经过3个节点,因此我们称之为3-stage IP fabric。
    在这里插入图片描述
    随着网络规模的扩大,我们可以将一组Spine-Leaf看做一组Pod,在原有的Spine层上增加一层Fabric(Spuer-Spine),用来提供Pod间互通。这样两台终端间互通最多需要经过5个节点,称之为five-stage IP fabric。
    在这里插入图片描述

    Underlay路由部署

    我们说Spine-Leaf采用了三层IP互联,那么路由协议将如何选择?
    目前三种主流的开放标准协议:OSPF、ISIS和BGP,本质上都是可以完成通告路由前缀的功能,但是每种协议的组网规模和实现功能上有所不同。
    OSPF和ISIS都是使用洪泛技术来发送更新报文和其它路由信息,创建区域可以限制洪泛的范围。
    BGP通过按组创建,支持大量前缀和对等体,BGP也从多方面保证了网络的灵活性、稳定性、可靠性以及高效性等。所以目前大多数大型数据中心都是采用部署BGP的方式。另外由于BGP的选路方式,在Underlay网络支持ECMP需要额外在交换机上开启”multipath“特性。

    • IBGP
      我们需要在IBGP对等体之间建立全连接(Full-mesh)关系来保证IBGP对等体之间的连通
      性,可以通过RR方式部署。
      在这里插入图片描述

    • EBGP
      在EBGP中,Spine和Leaf中的每个交换机都有自己的AS。
      下一跳属性是必须要考虑的,因为在Spine-Leaf的拓扑结构中,VTEP通常是在Leaf交换机,Leaf交换机通告本地主机信息是通过Spine交换机传递到远端Leaf交换机,所以不能改变下一跳属性从而允许VXLAN隧道能在Leaf交换机之间建立。

    在这里插入图片描述
    以上只是简单举例,实际环境中AS的划分可能还有很多不同的方式。

    MTU规划

    回想一下前面的提到的VXLAN,每个原始数据包/帧的顶部添加额外的头。Underlay的底层承载网络需要考虑头部封装产生的额外字节。
    一般以太网网卡(NIC)的计算机标准最大传输单元(MTU)是1500字节。以太网帧的总大小是1518(或1522,附加802.1Q标记)。
    在VXLAN环境中,由于额外VXLAN封装会有50字节或54字节的额外开销。在Underlay转发时,VXLAN如果报文被分片,根据RFC7348 接收端VTEP上会丢弃分片的报文。
    这些额外开销包括:14字节外层MAC+20字节外层IP+8字节UDP+8字节VXLAN头部
    在这里插入图片描述
    如果将原始以太网帧中的802.1Q标记映射到VNI中,并在VXLAN封装前剥离,那么开销会到54字节。

    在这里插入图片描述
    解决方案:

    1. 修改终端服务器发送报文的最大长度值,确保最大的长度值加上50字节(54字节)小于全网网络设备的MTU值。
    2. 统一修改全网网络设备MTU,确保MTU值大于收到的VXLAN报文长度,从而保证VXLAN报文不被分片传输。
      为了提高传输效率,服务器端MTU可能会增加,Jumbo帧可达9000字节。所有通常在部署网络设备时会把MTU设置到最大值(9216),并保持全网统一。

    BUM流量转发

    我们把Broadcast, Unknown unicast和 Multicast 这些多目的的流量统称为BUM。Underlay网络必须具体承载BUM流量的能力。
    目前主要有两种处理BUM流量的方式:

    • 头端复制
      VTEP负责复制报文,采用单播方式将复制后的报文通过本地接口发送给本地站点,并通过VXLAN隧道发送给属于同一VNI的所有远端VTEP。为避免环路,远端VTEP从VXLAN隧道上接收到报文后,不会再将其泛洪到其他的VXLAN隧道。
      从Underlay角度来看,这个包被视为单播转发。
      网络工程师可以通过手动配置静态的VTEP列表,也可以通过BGP EVPN动态发布。如果在一个特定VNI中有N个VTEP成员,那么每个VTEP需要生成N-1个副本,由此可见通过BGP EVPN动态更新VTEP列表更合适。

    在这里插入图片描述

    1. VM 1与VM3的IP地址在同一网段。VM 1想要与VM 3进行通信,但发现没有VM 3的MAC地址,于是发起VM 3的ARP请求报文。ARP请求报文的源IP是VM 1的IP,目的IP是VM 3的IP,源MAC是VM 1的MAC,目的MAC则是全0字段,表示希望获得VM 3的MAC信息。外层封装以太网头,其中目的MAC为全F,表示这是一个广播报文。
    2. Leaf A收到了VM 1发来的ARP请求报文,根据其入端口和VLAN信息,判断出这个报文应该匹配VXLAN 10。将VXLAN、MAC、入端口和VLAN信息写入相应的EVI MAC表中。
    3. Leaf A发现ARP请求报文是一个广播报文,于是将这个报文在本地和远端所有VXLAN 10的端口进行广播。由于本流程广播采用头端复制的方法,Leaf A将给Leaf B和Spine C各发送一份VXLAN报文。Leaf A发送给Leaf B的报文,最外层是以太网头,接着是IP头,其中源IP是Leaf A的IP,目的IP是Leaf B的IP。再往内是UDP头和VXLAN头,其中VNI为10。最内层是VM 1的ARP请求报文。Leaf A发给Spine C的报文封装相同,不同之处在于外层目的IP是Spine C的IP,外层目的MAC根据下一跳不同而不同。
    4. Spine C收到Leaf A发来的报文,发现外层目的IP是自己,于是将其解封装。发现UDP的目的端口是4789,于是将UDP的上层报文进行VXLAN解封装处理。根据VXLAN报文的信息,将VXLAN、内部MAC、入端口等信息写入相应的EVI MAC表中。再发现内部原始二层报文是一个广播报文,根据水平分割的要求,不再往其他VTEP设备转发,只在本地的VXLAN 10端口内进行广播。由于Spine C上没有连接服务器,所以Spine C对这个报文不再进行后续处理,予以丢弃。
    5. 同样的,Leaf B也收到Leaf A发来的报文,解封装后,将VXLAN、内部MAC、入端口等信息写入相应的EVI MAC表中。由于报文是从Tunnel 1中收到的,所以端口信息为Tunnel 1。根据VXLAN 10的映射关系表,将原始二层报文在本地所有VXLAN 10端口进行广播.
    6. 最终VM 3收到了VM 1的ARP请求报文,将VM 1的IP和MAC对应关系写入自己的ARP表项,准备进行ARP应答。
    • 组播
      同一个VXLAN内的所有VTEP都加入同一个组播组,利用组播路由协议(如PIM)在IP网络上为该组播建立组播转发表项,VTEP上相应生成一个组播隧道。组播方式需要在网络中Spine和Leaf交换机都具有组播能力,而且有增加了部署组播的成本。

    Overlay网络

    Overlay网络是在Underlay的基础上叠加的逻辑网络,实现了网络资源虚拟化。
    在云数据中心网络中,对于租户来讲Underlay是完全透明的。每个租户都能拥有一张完全独立的Overlay网络。
    在这里插入图片描述

    Overlay网络具有独立的数据转发平面和控制平面。
    对应前面提到的概念,VXLAN是作为数据转发平面;EVPN则是完成控制平面的工作。

    Overlay网络架构模型

    VTEP作为封装和解封装VXLAN的端点既可以部署在网络设备上(TOR交换机),也可以部署在vSwitch上(服务器上的虚拟交换机)。
    下面以VTEP部署在TOR交换机上为例,我们看一下EVPN VXLAN体系Overlay的网络架构。

    集中式网关

    集中式网关是将网关设置在Spine上或者单独部署Border-Leaf作为网关。以下图为例,网关设置在Spine上,在每个Spine交换机上都设置VLAN的三层接口,VLAN间通信的流量需要首先流经Spine交换机,通过Spine的路由功能完成跨子网通信。
    这时就会有一个问题:即使是在同一Leaf下的两台不同VLAN的终端通信,也是需要绕行Spine形成“发卡弯”。
    在这里插入图片描述

    分布式网关

    分布式网关是将网关部署在每台Leaf交换机(VTEP)上,使得网关的位置更靠近用户侧,也避免了集中式网关出现“发卡弯”的情况。当然这样的网络架构对Leaf(VTEP)交换机的功能和性能都有更多的要求。

    在这里插入图片描述
    在EVPN VXLAN网络中,VTEP既可以做二层Bridge,也可以做三层Router,因此称为集成桥接和路由,即IRB(Integrated Routing and Bridging)。IRB转发可以分为对称IRB和非对称IRB两种。

    • 非对称IRB
      在Ingress入口网关,需要做Layer-2 bridging和Layer-3 routing功能,而在Egress出口网关,只需要做Layer-2 bridging功能。因此是不对称的。如下图所示,在Leaf1先根据虚机所在的VNI A做三层转发,查找路由,出口为VNI B。直接将VM2目的虚机的MAC封装为内层MAC。远端Leaf2解封装后由于目的MAC不是本机MAC,查找MAC表做二层转发。此种模式下,要求每一台分布式网关需要配置EVPN网络内所有VNI的EVI信息,且要求每一台分布式网关维护本租户内所有主机的ARP。
      在这里插入图片描述

    • 对称IRB
      在Ingress入口网关和Egress出口网关,都只做Layer-3 routing功能(同网段则只做briding功能)。因此是对称的。如下图所示,在Leaf1上查找路由,此路由的下一跳指向Leaf2,下一跳对应的MAC为Leaf2的RouteMAC,报文转发时,内层MAC为RouteMAC,VNI为L3VNI。报文到Leaf2后,根据L3VNI获取租户VRF信息,报文在VRF里再次查找路由,通过查找本地ARP表项,将报文往虚机。此种模式下,每一台分布式网关只需要配置其下主机所在VNI的EVI信息和所在VRF的L3 VNI信息,且不需要维护本租户内的所有主机的ARP,只需要维护少量的其他分布式网关对应的MAC即可。
      在这里插入图片描述

    纯二层方式

    纯二层方式下部署的Overlay网络只能提供同子网内的二层转发,无法提供路由功能。
    如果我们需要VLAN间通信,可以参照单臂路由的方式在Fabric以外部署一台网关路由器。
    在这里插入图片描述
    网络架构本身并无好坏之分,主要还是看是否符合自己的业务场景。
    大体上来看:
    集中式网关对于多租户的VRF管理更简单,跨子网的流量统计更容易实现,南北向流量为主的网络中更合适。
    分布式网关在大型的东西向流量为主的数据中心网络应用更多,不过在Leaf交换机上的配置更为繁琐最好有控制器配合使用。
    还有一些环境中对网关的转发能力,表项规格等都要求较高,或者其它原因需要将二三层功能分离,这时可以将Overlay部署成纯二层方式,在Fabric外单独部署网关路由器。

    VXLAN EVPN增强特性

    ARP广播抑制

    在终端租户初次互通过程中,终端租户会发送ARP广播请求报文,而ARP请求报文会在二层网络内(一个VNI内)广播。为了抑制ARP广播请求报文给网络带来的广播风暴,可在VXLAN二层网关设备上使能广播抑制功能。
    具体实现:

    1. EVPN VXLAN的网络中,Leaf交换机(VTEP)会保存一份MAC-to-IP的映射表,终端相关的MAC、IP、VNI、RD、RT、本端VTEP地址将通过BGP EVPN发布到其它远端VTEPs。
    2. 当Leaf交换机从本地端口收到ARP请求,首先查询MAC-to-IP映射表,
      如果有主机信息,本地Leaf交换机将ARP请求报文中的广播目的MAC地址和Target MAC地址替换为目的主机的MAC地址,并进行VXLAN封装后转发。
      如果没有目的主机信息,ARP请求报文中的广播目的MAC地址不变,本地Leaf交换机进行VXLAN封装后转发。
      有一点注意的是: ARP广播抑制suppression,是利用EVPN传递的已知主机信息将ARP广播转为单播,这点不同于代理ARP。

    ARP代答

    在EVPN VXLAN网络中,当Leaf交换机收到一个ARP请求报文时,会将该报文在域内广播。如果Leaf交换机在某一时间段内收到大量的ARP请求报文,并将这些报文都进行广播,VXLAN网络中就会出现大量的ARP请求报文,占用过多的网络资源,造成网络拥塞,导致网络性能下降,影响用户业务的正常运行。为了解决上述问题,可以在Leaf交换机部署基于BD的ARP二层代答。
    具体实现:
    开启基于BD的ARP二层代答之后,当Leaf交换机本地端口收到ARP报文之后,设备会侦听报文中携带的ARP源信息,并将其中的源IP地址、源MAC地址、报文的入接口等信息记录到本地的ARP Snooping表项中,作为后续ARP二层代答的依据。同时,各个Leaf(VTEP)之间会通过BGP EVPN路由Type2 互相同步各自侦听到的用户ARP信息,然后补充到本地的ARP Snooping表项中,这类信息记录了源IP地址、源MAC地址、报文的源VTEP IP地址。
    当Leaf交换机本地端口再收到ARP请求报文时,设备首先根据报文中的目的IP查找本地的ARP Snooping表项:
    如果查找成功,则用查找到的信息对ARP请求报文直接进行代答。
    如果查找失败,则按原有的流程处理该ARP请求报文。

    MAC Mobility

    在云场景中,虚机迁移是一种常见的情况。为了防止多次快速迁移出现网络中路由互相冲突的情况。EVPN Type2路由引入了序列编号。
    如图,
    在这里插入图片描述

    Host H从L1迁移到L2再到L4。
    L1通告H的Type2路由序号是0;然后H迁移到L2,L2通告新的H的Type2路由序号是1;然后H迅速迁移到L4,L4通告新的H Type2路由序号2。
    当L2收到序号2的路由就会意识到H已经迁移,发出withdraw消息撤销自己发出的序号1的路由;
    由于一些原因,这时L1可能几乎同时收到L4的序号2路由和L2的withdraw撤销序号1的路由。
    最后L1因为有序号2的路由,即使延时收到了序号1的路由也会丢弃。

    ESI多活技术

    在EVPN VXLAN场景中,为了避免接入侧单点故障,我们可以采用ESI方式很好解决。
    在这里插入图片描述

    ESI场景中主要包括以下:

    • DF选举
      EVPN的DF选举机制,即从LS2和LS3中指定一个来转发BUM流量。如果LS2被选举为主DF,则从H1方向发来的BUM流量将只从LS2向H2转发,而未被选中的LS3则成为备份DF。具体选举过程可以参考:

    • 路由负载与别名
      H2双归至LS2和LS3,且LS2和LS3处于多活模式。此时,LS2和LS3通过以太自动发现路由(Per ES)将多活模式信息发送给LS1,之后LS1在向H2发送单播流量时,会同时向LS2和LS3发送,从而形成负载分担。
      EVPN还支持别名功能。在接入侧多归多活场景中,多归的Leaf中有些Leaf可能学习不到VM侧的MAC地址,此时远端Leaf可以通过多归Leaf发来的以太自动发现路由(Per EVI)携带的ESI值来感知到VM侧的MAC地址可达性,这个功能被称为别名。

    • 快速收敛
      在传统 flood-and-learn 模式下,收敛速度受限于路由条目。例如H2是一台Hypervisor,上面管理了100台虚机,LS3到H2的链路故障时,LS3需要撤销通告H1-100的Type2路由,这段撤销的时间就会形成路由黑洞。EVPN的解决方法,LS3首先先撤销Type1 ESI路由,LS1得到ESI的撤销通告后会清除下一跳到LS3的MAC路由。

    跨数据中心通信

    随着业务不断发展,我们会面临多地域部署数据中心的情况。数据中心互联DCI(Data Center Interconnection)是不同数据中心之间互相通信的一种解决方案,在数据中心之间既要实现同VLAN内终端之间的互相通信,也要实现不同VLAN的终端间互相通信。

    端到端VXLAN

    数据中心A的Leaf1和数据中心B的Leaf4之间运行BGP EVPN协议传递MAC路由或者主机路由信息,在传递时不改变MAC路由或者主机路由的下一跳地址,从而在跨数据中心的Leaf1和Leaf4上的VTEP之间建立端到端VXLAN隧道。

    在这里插入图片描述

    VLAN hand-off

    分别在数据中心A、数据中心B内配置BGP EVPN协议创建VXLAN隧道,实现各数据中心内部VM之间的通信,Leaf2和Leaf3通过二层子接口方式接入DCI-VTEP1和DCI-VTEP2,DCI-VTEP1和DCI-VTEP2之间配置EVPN协议创建VXLAN隧道,实现数据中心之间的通信。Leaf2/Leaf3将收到的数据中心侧的VXLAN报文进行解封装,然后发送到DCI-VTEP,DCI-VTEP将收到的VLAN报文重新封装成VXLAN报文后发送给对端DCI-VTEP,实现VXLAN隧道对跨数据中心的报文端到端的承载,保证跨数据中心VM之间的通信。

    在这里插入图片描述

    Segment VXLAN

    通过Segment VXLAN实现数据中心互联是指在两个数据中心内部各建立一段VXLAN隧道,数据中心之间再建立一段VXLAN隧道。分别在数据中心A、数据中心B内配置BGP EVPN协议创建分布式网关VXLAN隧道,实现各数据中心内部VM之间的通信。Leaf2和Leaf3是数据中心内连接骨干网的边缘设备,通过在Leaf2和Leaf3上配置BGP EVPN协议创建VXLAN隧道,将从一侧数据中心收到的VXLAN报文先解封装、然后再重新封装后发送到另一侧数据中心,实现对跨数据中心的报文端到端的VXLAN报文承载,保证跨数据中心VM之间的通信。
    这种方案的限制:数据中心内部只能部署分布式网关
    在这里插入图片描述

    外部路由

    在Spine-Leaf网络架构的数据中心,我们通常把连接外部网络的Leaf称作Border Leaf。Border Leaf负责二层和三层形式的外部互联,本章内容我们主要讨论几个通过Border Leaf提供对外的三层互联的场景。

    VRF Lite

    VRF Lite是最简单易行的方案,在Border Leaf上设置所有的VRF实例,前缀信息从EVPN网络中注入特定的VRF路由表。路由信息通过路由协议在Border Leaf上与外部路由器交换。
    不过这个方案的扩展性有限,每一个VRF都需要一个对等会话。
    在这里插入图片描述

    MPLS Layer 3 VPN

    VXLAN EVPN和MPLS L3VPN可以在EVPN地址族和VPNv4地址族之间交换第3层可达性信息。VXLAN EVPN的Border Leaf同时也充当MPLS L3VPN的PE,从而我们将其定义为BorderPE。BorderPE收到来自Leaf的路由信息通过reoriginate方法注入到L3VPN地址族(VPNv4),反方向类似操作。
    这种方式将两种封装和地址族结合在一起,称之为”single-box“解决方案。
    在这里插入图片描述

    共享VRF

    在许多情况下数据中心网络中会为多租户提供公共类的资源或工具,这就需要我们能引入共享VRF的概念。这样的方式也适用于为多租户提供外部服务。
    VRF 通过route leaking可以实现交换机上多VRF之间泄露路由前缀,同时当流量定向到一个特定前缀时,必须能做出封装。
    例如下图:
    从192.168.1.101去往192.168.2.102,首先在进入VTEP V1时,VRF-A中可以看到192.168.2.102,因为做了路由泄露,转发角度看,去往192.168.2.102的数据包在VTEP V1上封装VNI50001朝向VTEP V2,数据包到达VTEP V2时,会在VRF-A中查找到192.168.2.102然后本地泄露到VRF-B。
    在这里插入图片描述
    除此之外,Downstream VNI也是一种可选VNI分配方案,它使用控制平面协议驱动在数据平面封装使用的VNI。BGP EVPN路由更新时VNI信息是EVPN NLRI的一部分,出现在Type2和Type5路由中。
    例如下图:
    从192.168.1.101去往192.168.2.102,数据包在VTEP V1会封装VNI50002。
    在这里插入图片描述
    这里用于封装的VNI由目标VTEP和目标端点决定的,因此称为Downstream VNI。
    如果每个VTEP开始对每个VRF使用不同的VNI,那么所需的每VTEP、每VNI信息的数量可能会激增。这会对硬件表规模有额外需求。因此,建议在通用互联网VRF或共享服务VRF合理规划。

    参考

    Building Data Centers with VXLAN BGP EVPN(CISCO)
    evpn-implementation-for-next-generation-data-centers(Juniper)
    华为CloudEngine 产品文档(Huawei)
    新IT老爬虫-SDN专题(H3C)

    后记

    文章中主要以VTEP设置在Leaf交换机(TOR)展开讨论,但是随着智能网卡的发展,让VXLAN封装和解封装的工作能可以卸载到网卡上进行,这也使得越来越多的数据中心网络开始选择把VTEP放在服务器的侧。这种做法在公有云大厂已是非常成熟的部署方案了,它更进一步解耦了Underlay和Overlay网络,并且更便于集中控制器统一管控,更符合云计算特点和需求。
    在这样的趋势下,对于网络工程师无疑也是不小的挑战。“Software is eating the network”的口号令传统网络工程师不寒而栗,像以前只会操作几家厂商的网络设备就能的谋求一个饭碗的时代真的一去不复返了!

    五一期间由于突然严重的疫情形势只能窝在家中,本来打算的出游计划也就此泡汤。不过窝在家中也有窝在家中的好,难得从日常重复琐碎的工作中抽身出来对以往的知识做一下归纳总结。
    以上博文根据本人从事网络工作这些年的工作经验以及相关知识加以梳理总结而成,如有疏漏或不足之处还请留言加以指正!

    展开全文
  • 分布式云数据中心

    千次阅读 2019-10-25 06:48:48
    传统的大型企业数据中心是一个物理分层的架构,采用烟囱式构建基础架构的方式,存在建设与运营成本高、资源利用率低、服务SLA保证困难、管理复杂等诸多挑战 数据中心发展趋势 随着云服务业务的发展,运营商和企业...

    传统的大型企业数据中心是一个物理分层的架构,采用烟囱式构建基础架构的方式,存在建设与运营成本高、资源利用率低、服务SLA保证困难、管理复杂等诸多挑战

    数据中心发展趋势

    随着云服务业务的发展,运营商和企业的云服务形态也在不断变化,数据中心发展趋势应是建设高效节能与运营成本合理的数据中心,支持企业或机构业务的持续发展,满足对业务的全生命周期管理需求:高利用率、自动化、低功耗、管理自动化等成为新一代数据中心建设的关注点

    • 数据中心的分布化建设和集中化管理成为方向
      • 数据中心向基础设施的分布式建设和管理的集中化方向发展
      • 数据的集中化管理和数据中心的整合是当前信息化发展的方向
      • 行业需求推动的技术发展趋势将支撑数据中心的分布式建设
    • 数据中心提供整合的网络、存储和计算能力,管理工具的重构和发展将成为核心的控制点
      • 可编程的虚拟网络交换方式将带来更多挑战和机会
      • 数据中心竞争将由单个设备竞争变化为提供整个网络架构的竞争
      • 数据中心基础设施管理系统将成为未来数据中心的核心控制点
    • 数据中心向全方位服务化方向发展
        数据中心成为服务中心--通过IaaS/PaaS/SaaS等不同层级的服务,为企业用户提供方便灵活的业务选择(IT成本分析、桌面帮助、IT服务管理和数据中心基础设施监控等),是多种服务的承载容器,也是数据中心发展的必然趋势
    • 向基于云计算技术的软件定义数据中心发展
      • 资源全面池化 计算虚拟化向存储虚拟化和网络虚拟化发展,基于SDN技术为实现基于业务需求的可编程、高度弹性和动态、大规模的虚拟化网络提供技术支撑,数据中心存储虚拟化后构成统一资源池(NSA、SAN等)
      • 资源按需分配 计算、存储、网络和安全等所需资源、基于SLA的虚拟数据中心(VDC)服务,VDC部署时间下降到分钟级,资源按需快速发放
      • 混合云 未来几年,会出现以IT服务交付为服务重点的私有云服务企业,企业应评估哪些术语商品服务,并将它们转移到公有云,私有云 公有云技术的混合成为混合云
    • 安全与可靠性成为未来数据中心的基础能力
        安全性是指包括防火墙、IPS/IDS、防病毒入侵检测以及自然灾害在内的安全防范措施。在规划数据中心建设的初始阶段,就应该构建可靠的容灾方案,或建立异地灾备中心,通过技术手段保障业务的连续性和数据的安全性

    分布式云数据中心解决方案架构

    分布式云数据中心是物理分散、逻辑统一、业务驱动、云管协同、业务感知的数据中心,以融合架构(计算、存储、网络融合)作为资源池的基础单元,构建SDN业务感知网络,通过自动化管理和虚拟化平台来支撑IT服务精细化运营

    其核心理念在于:物理分散、逻辑统一。将企业分布于全球的数据中心整合起来,使其像一个统一的数据中心一样提供服务,通过多数据中心融合来提升企业IT效率;去地域化、软件定义数据中心、自动化是这个阶段的主要特征。逻辑统一由两个方面的含义:依赖DC2(分布式数据中心简称)提供统一的运维管理支撑平台将所有数据中心及其资源统一管理、调度和运维支持,分权分域管理;DC2提供统一的服务平台来对外提供服务

    DC2将多个数据中心看成一个有机整体,围绕跨数据中心管理、资源调度和灾备设计,实现跨数据中心云资源迁移的云平台、多数据中心统一资源管理和调度的运营运维管理系统、大二层的超宽带网络和软件定义数据中心能力

    分布式云数据中心的价值

    • 降低TCO,提高ROI DC2采用虚拟化技术,消除软件对运行软件的硬件的依赖性,可以将利用率不足的基础结构转变成弹性、自动化和安全的计算资源池,供程序按需使用。通过资源整合和自动化帮助企业降低运营成本;通过分布式技术实现多个数据中心资源的逻辑统一和高效利用,降低对基础架构的投资;通过灾备服务和基于资源负载均衡的跨数据中心应用迁移来提升应用的可用性和资源利用率,从而为企业节省大量资金
    • 提供业务敏捷性,加快上线速度,提高用户的满意度 DC2在虚拟化技术上,提供了资源的按需服务能力,提供全方位的管理、业务自动化能力。通过自助服务,用户可以按需自助申请所需的计算、存储、网络资源;根据用户不同应用需求提供不同的SLA水平的资源池服务,同时DC2具有灵活的弹性伸缩能力,根据用户配置的灵活调度策略,实现自动的水平、垂直弹性伸缩能力,从而保证IT能够快速响应业务变化

    分布式云数据中心提供的关键能力

    • 采用虚拟数据中心方式为租户提供数据中心即服务(DCaaS)
        虚拟数据中心(VDC)为租户提供DCaaS服务,是软件定义数据中心(SDDC)的一种具体实现。VDC的资源可以来自多个物理数据中心的不同资源池(资源类型分为虚拟化的计算、存储、网络以及Bare-metal物理机资源等);VDC内的资源支持访问权限控制;VDC的网络可以由管理员自助定义,将VDC划分为多个VPC,VPC包括多个子网,并通过VFW、VRouter等部件进行安全、网络管理;VDC服务提供部分自助运维能力,包括查看VDC告警、性能、容量、拓扑信息,提供VDC级别的资源使用计量信息,方便租户计算计费信息
    • 针对多种应用场景优化的云基础设施
        目前主要针对四大场景:标准虚拟化场景,提供对普通应用虚拟化以及桌面等虚拟化方案的基础设施;高吞吐场景,主要针对OLAP分析型应用的支持,在存储和网络方面提供了优化;高扩展场景,对于需要快速水平扩展的应用,采用计算存储一体机方案提供快速扩展能力;高性能场景,主要对于OLAP应用,X86服务器替代小机等场景
    • 基于SDN网络虚拟化技术的网络自动化和多租户
        云数据中心基于SDN虚拟化网络技术,多租户云数据中心场景下每个租户可以自助定义自己的网络并自动化实践
    • 统一灵活的数据中心管理能力

    DC2总体架构

    分布式云数据中心逻辑架构

    DC2总体架构如上图所示,分为基础设施层、虚拟化层和服务层,各层都分别向上层提供接口供上层调用或对接

    • 基础设施层 提供构建数据中心计算、存储和网络的资源能力,DC2提供针对多场景的POD配置方案,基于物理资源构建虚拟计算、虚拟存储、虚拟网络资源池
    • 数据中心管理层 数据中心管理层提供对虚拟计算、存储、网络的资源管理能力,支持镜像、服务管理、资源调度等方面能力,也提供SDN的网络虚拟化管理能力
    • 域管理层 提供对多个云数据中心的统一管理调度能力,提供以VDC为核心的DCaaS,VDC内提供多种云服务能力,也提供对虚拟物理资源的统一运维能力

    DC2逻辑部署图

    分布式云数据中心在FusionManager架构和OpenStack架构下部署方式和部件会有所不同。下图描述的是传统FusionSphere部署架构下的各部件关系,运管采用FusionManager,RD支持跨数据中心的容灾管理,同时对接异地数据中心的FusionManager

    分布式云数据中心传统架构逻辑部署图

    下图则是在OpenStack架构下各部件的部署及连接关系,其中keystone部署在domain域,实现对多个OpenStack实例的统一认证管理。OpenStack平台原生提供适配易购虚拟化平台的能力

    OpenStack架构下部件部署图

    各个部件的功能描述

    • ManageOne 提供分布式云数据中心服务中心(SC)和运维中心(OC)
      • SC 服务中心基于资源池提供的云和非云资源统一编排和自动化管理能力,包括可定制的异构和多资源池策略和编排,可定制的企业服务集成,可通过集成第三方系统补足资源池管理能力,特别是异构的传统资源自动发放能力
      • OC 运维中心面向数据中心业务,进行场景化运维操作和可视化的状态/风险/效率分析,基于分析能力提供主动和可预见的运维中心
    • FusionManager 它的定位是集成多个虚拟化软件和物理设备,提供统一硬件资源管理和虚拟化资源管理
    • FusionCompute 提供网络、存储、计算资源的虚拟化,从而实现资源的池化
    • RD(Replication Director) 提供分布式云数据中心的虚拟机容灾能力,支持主机复制方式将主虚拟机数据映射到容灾虚拟机,支持容灾切换
    • HyperDP 提供分布式云数据中心的虚拟机备份能力
    • VIS 提供存储虚拟化功能,配合系统提供双活容灾能力
    • OpenStack 开运云管理系统,由多个部件构成,采用REST接口和消息队列实现部件解耦,支持对异构虚拟化平台管理(KVM、VMware、XEN等)。主要组件包括
      • Nova 虚拟计算
      • Glance 镜像
      • cinder 虚拟磁盘
      • neutron 虚拟网络
      • swift S3存储
      • keystone 认证
      • Ceilometer 监控

    分布式云数据中心数据关系图

    服务式云数据中心概念关系

    DC2中逻辑概念的关系是

    • Domain 代表数据中心管理系统的总范围,对分布式云数据中心来说包括多个物理数据中心及包含的物理虚拟资源
    • Available Zone(AZ) AZ是对用户可见的,用户在资源申请时首先需要选择AZ。在同一个AZ区域内,存储是可达的,因此虚拟机在同一个AZ内可以迁移。AZ在同一个汇聚/核心交换机下
    • VDC 虚拟数据中心,可以跨多个AZ,包括多个VPC
    • VPC 是一个AZ内保证网络安全而划分的区域,各VPC网络间采用多种隔离技术,一个VPC仅属于一个AZ
    • Host Aggregate 概念来源于OpenStack的定义,同一个Aggregate是具有相同属性的资源集群,属性通过元数据描述。资源分发时通过Scheduler部件来根据用户需求选择合适的Aggregate分配资源,一个Aggregate属于一个AZ

    分布式数据中心解决方案关键特性

    虚拟数据中心

    • 适用场景
        企业私有云中,有独立管理租用资源并实现网络隔离需求的场景,每个VDC是一个具有自助运营、自运维能力的独立管理实体,可以支持一个或多个物理数据中心的资源。根据具体场景其划分方式可以灵活多样
        *     可以按部门划分,每个部门可以独立管理本部门资源
        *     可以按使用领域划分,例如:开发VDC、测试VDC

    部署架构

    • SC FM方式部署 FM提供云管理能力和虚拟化平台的访问接口;SC提供VDC服务和VDC内包含服务的管理能力。SC作为VDC的服务提供方,VDC管理员和用户可以登录SC门户,可以自助管理VDC内的服务、网络和自助运维等;运维层面,VDC相关的信息可以从eSight或合作厂商的部件获取性能、告警信息,然后统一在OC上呈现,运维管理员可以在OC上对运维信息进行统一处理
      FM SC方式部署
    • SC OpenStack方式部署 采用OpenStack提供的服务作为基础云管理平台,SC提供VDC服务,SC和OpenStack利用OpenStack提供的REST API进行对接

    SC OpenStack方式部署

    • 关键特性
      VDC功能概述
    • 多数据中心资源统一管理 VDC可以从多个物理数据中心的资源池中获取资源,数据中心采用Available Zone(AZ)方式提供资源池,选择不同的AZ也就选择了不同数据中心的资源池;每个AZ内部划分不同的Host Aggregate,不同Aggregate具备不同的SLA特性,由管理员根据SLA特性自助划分并对用户不可见,当用户提出SLA需求系统调度器将根据SLA需求在满足要求的Aggregate中选择资源
    • VDC间的隔离 管理隔离、网络隔离和资源隔离
    • 配额管理 VDC支持对使用的资源进行配额控制,配额种类包括:VCPU个数、内存大小、VLAN个数、VPC个数、子网个数等
    • 用户管理 每个VDC支持独立的用户管理能力。VDC管理员可以授权某用户访问VDC的权限,获得权限后,用户可以登录该VDC并申请该VDC的服务;一个用户可以获得多个VDC的授权,从而成为多个VDC的用户
    • 服务管理 VDC管理员可以对服务目录和服务生命周期进行管理
    • 模版管理 VDC内支持多种服务模版,可以帮助快速定义新服务;VDC支持的服务模版包括: VN模版、VAPP模版,可以帮助管理员实现快速部署;支持所有VDC可见的全局模版和仅本VDC可见的局部模版
    • 服务自动化 为系统提供服务自动发放上线能力
    • 自助网络管理 VDC的自助网络管理利用底层SDN提供的基础能力,主要包括的功能有:VPC、子网、VDC虚拟网络拓扑
    • 自助运维管理 容量管理、拓扑管理、性能管理、告警管理
    • 支持服务列表 用户登录VDC自助服务门户,可以在服务目录看到多种预置的云服务,包括:云主机服务、物理服务器服务、EBS服务、虚拟防火墙VFW服务(弹性公网IP、SNAT/DNAT、基于状态的报文过滤ASPF、访问控制ACL、IPSec VPN、VLB服务、VAPP服务)

    SDN网络

    SDN是一种新的网络框架,其本质是网络的可编程,SDN框架给用户提供最大的网络灵活度,租户可以灵活申请网络资源来满足自己的IT业务。在数据中心,SDN网络框架可以适用于如下场景

    • 网络自动化 通过提供向北API,由上层管理软件通过调用API接口,实现网络自动化,提供即时的网络服务,为业务快速上线部署提供网络环境
    • 灵活的业务网络 基于SDN网络架构,将物理网络虚拟化,提供不同的业务网络,实现业务网络的灵活部署;提供多租户隔离,用户西定义网络策略实现保护数据中心内部的资源安全访问

    部署架构

    分布式数据中心网络子系统采用SDN框架的网络设计,下图分别为DC2 基于 OpenStack 和 FM 的框架图

    DC2 SDN网络框架图(OpenStack)

    通过上述的SDN框架实现网络虚拟化,自动为每个租户提供所需虚拟网络环境,如下图所示

    DC2网络子系统架构图

    上图可以看出,核心交换机上配置VPN VRF和Internet VRF,VPN VRF与汇聚交换机上的VPN VRF对接,Internet VRF与汇聚交换机的 Global VRF对接,用户将租户之间的网络逻辑隔离;汇聚交换机上配置一个Global VRF,每个租户的虚拟防火墙都对接到Global VRF中实现对公网访问;汇聚交换机上配置多个VRF,用于为每个租户提供虚拟路由器,提供租户的业务网关路由功能,在VRF下配置三层网关用于提供业务网关,每个VRF将与租户的虚拟防火墙对接,实现对租户业务的保护;租户如果租用来虚拟负载均衡对接到虚拟路由器上,提供服务器的负载均衡功能,同时受虚拟防火墙的规则保护

    虚拟交换机逻辑上接入到TOR交换机端口,每个租户有自己独立的虚拟交换机;虚拟交换机上有不同的端口组,不同端口组有不同的网络属性;虚拟机网卡可任意加入不同端口组,用户不同租户之间的隔离;同时租户可以创建多个安全组,一台虚拟机(通过不同的虚网口)可以找到不同的安全组内,不同的安全组有不同的安全访问策略保证租户内的虚拟机隔离

    特性设计

    • 多租户网络设计 数据中心支持多租户管理,能够在以较低成本合理利用资源,优化资源利用率;数据中心必须具备不同租户资源的隔离设计,确保端到端的隔离以及满足租户的安全要求。DC2采用虚拟技术支持多租户,在逻辑上划分成多个(每个租户)虚拟网络环境,每个虚拟网络拥有独立的路由表、地址空间、安全服务、配置管理
    • DC内网络设计
      • 三层网络设计 在核心层或汇聚层使用VRF技术提供网络层(L3)之间隔离设计,保证每个租户有独立的路由转发表,不同VRF之间的数据流交互默认情况下将不被允许;每个VRF可以绑定多个三层网关,承载多个子网,为虚拟机或物理服务器提供网关功能。同一个VRF下的不同网关之间默认可以互相访问
      • 二层网络设计 支持VLAN ID或VXLAN两种不同二层的隔离域,一个租户内不同的二层网络之间转发需要通过网关设备才可以进行互通,不同的租户默认是无法互通的
    • 网络服务设计
      • 虚拟防火墙 将一个物理防火墙逻辑的虚拟出多个防火墙或在虚拟机上运行软件虚拟防火墙,每个虚拟防火墙有独立的路由转发表、安全服务策略、配置管理;租户修改其所属虚拟防火墙的配置时不影响其他虚拟防火墙的运行
      • 虚拟负载均衡 将物理负载均衡器逻辑的虚拟出多个负载均衡或在虚拟机上运行负载均衡软件,每个虚拟负载均衡有独立路由转发表、负载均衡策略、配置管理;租户修改其所属虚拟防火墙的配置时不影响其他虚拟防火墙的运行
    • DC间网络设计
      • Internet 数据中心之间支持Internet互连,所有租户之间的业务通过公网IP访问,可以支持跨数据中心的资源调度;由于Internet网络质量相对较差,可能会由于地理距离造成较大延迟
      • VPN或者专线 企业异地数据中心之间可以通过租用运营商的VPN或专线资源实现物理DC之间的互通,VPN或专线链路质量相对稳定,是优先推荐的互连方式

    关键特性

    • 多租户隔离 保证每个租户之间的网络资源互相隔离,拥有独立的网络控制平面、独立的数据转发平面以及独立的策略配置管理;不同租户之间的资源运行互不影响
    • 网络即服务 网络资源作为一种基础服务提供给最终用户,如subnet、虚拟防火墙、虚拟负载均衡、VPN服务
    • 网络自动化 基于网络设备功能的抽象,设计可编排的最小单元作为网络服务单元(网络对象),通过业务需求的编排组合出不同的网络模型
    • VXLAN的虚拟网络 主要的技术原理是引入一个UDP格式的外层隧道,作为数据链路层,而原有数据报文内容作为隧道净荷载来传输

    SDN控制器实现VXLAN的部署框图

    统一管理

    主要针对的场景描述如下

    • 多数据中心统一管理 存在多个物理数据中心需要进行统一管理的场景
    • 物理、虚拟统一管理 数据中心中存在虚拟资源和物理资源需要统一管理的,例如:支持对虚拟资源和物理资源的统一监控,拓扑管理等运维管理能力
    • 异构资源池统一管理 数据中心有异构的虚拟化平台需要统一管理,例如:同时有vSphere虚拟化和KVM虚拟化平台需要统一管理

    部署架构

    • 云和非云统一管理 提供云资源和非云资源的统一管理能力
      • 非云资源管理 管理物理资源的性能、告警和拓扑
      • 云资源管理 管理云资源的自动化部署、操作能力;云资源的性能、拓扑、容量管理;云资源和非云资源拓扑映射关系

    物理、虚拟资源统一管理

    • 异构虚拟化统一管理 针对不同的方案采用不同的异构虚拟化方式
      • 方案一 在采用FM作为云资源池管理节点的场景下,FM提供了对异构Hypervisor的适配能力主要包括FusionSphere和VMware的vCenter。FM对异构平台的适配采用接口调用方式,FM提供了适配VRM和vCenter北向接口
      • 方案二 采用OpenStack对多Hypervisor的适配能力来解决,目前支持KVM(OpenStack原生支持VMware、XEN、Hyper-V、KVM,目前除KVM外其他尚不能商用,商用需要各厂商对各自插件的服务支持)

    关键特性

    DC2管理子系统总体架构

    • 云资源和非云资源统一监控能力 对云资源和非云资源的统一监控体现在对虚拟平台和物理资源的告警监控能力上,根据不同运维场景可选择不同的监控软件
    • 云资源和非云资源的性能管理能力 包括获取性能数据和性能阈值告警处理等
      • 虚拟机性能 支持和FusionManager及vCenter对接,监控虚拟化平台上VM的性能指标,包括CPU利用率、内存利用率、网络带宽、磁盘IO等
      • 物理资源性能 物理资源性能依赖于eSight或CA监控部件的指标获取;主要的对象有物理服务器,网络设备(交换机、路由器、防火墙等),存储设备的性能监控;监控指标主要包括CPU利用率、内存利用率、网络带宽等,根据设备类型不同略有不同。监控采集层软件将监控结果上报给OC,由OC进行统一展现
      • 阈值告警 管理员可以定义性能阈值告警,在监控的资源性能指标超过了定义的阈值时,系统将自动产生告警,提醒管理员对响应的性能风险进行处理
    • 云资源和非云资源的拓扑管理能力
      • 物理拓扑管理 对物理资源的自动发现,物理资源连接关系的自动发现。拓扑数据的自动发现由CA部件提供,OC集成CA的拓扑数据并统一展现
      • 虚拟拓扑管理 提供VDC内部不同虚拟化部件拓扑关系的展现,由于虚拟部件和连接关系都可以由管理员自主定义,因此虚拟拓扑是根据创建的结果来定义的
      • 拓扑关系映射 虚拟网络是叠加在物理网络上的,因此存在虚拟网络设备和物理网络设备间的映射关系。例如:VFM是在哪个物理FM上创建,VLB是在哪个物理LB上创建等
    • 云资源的容量管理能力 通过OC从FusionManager获取云平台资源数据来实现;OC将统一展现当前云系统资源的使用情况;主要包括VCPU、内存、磁盘容量、带宽等资源的使用情况;缺乏对物理资源的容量管理能力,包括物理空间、存储空间、网络带宽的容量管理能力
    • 异构虚拟化平台管理能力 真的FusionSphere和OpenStack两种部署场景提供异构虚拟化平台的支持
      • FusionSphere 采用FusionManager来屏蔽异构虚拟化平台
      • OpenStack 天然支持多种虚拟化平台(KVM、XEN、VMware、LXC等)

    备份业务

    用户在部署和使用虚拟机或应用时,为应对文件、数据丢失或损坏等可能出现的意外情况,往往需要对现有数据进行备份。分布式云数据中心解决方案针对备份业务提供来虚拟机备份框架和应用备份框架,其关键价值点有:提供基于虚拟机的备份,无需专用的备份系统,用户可以在服务Portal上自助完成虚拟机备份;提供基于代理的应用备份能力,用户可以按照应用或文件粒度进行应用备份

    部署架构

    分布式云数据中心的备份子系统,主要承载分布式云数据中心数据保护的功能,其架构目标如下

    • 虚拟机备份系统采用无代理备份方式、以虚拟机为单元进行备份
    • 应用备份系统采用有代理备份,用户可以在系统内安装代理,实现应用数据的备份和恢复
    • 用户可以定义备份策略
    • 用户可以通过业务Portal实现虚拟机和应用的备份

    虚拟机备份子系统的框架及其构成

    虚拟机备份架构

    • ManageOne管理平台 提供虚拟机备份自服务Portal,用户可以通过Portal对虚拟机进行备份的自助操作
    • 虚拟化平台 FusionSphere平台,提供虚拟机快照功能,和HyperDP备份服务器配合提供虚拟机备份业务
    • HyperDP备份服务器 部署在虚拟机内,虚拟机规格为4U4G及30GB系统盘,每个HyperDP备份服务器可备份200个虚拟机,最多可部署10个备份服务器组成一个备份域
    • 备份存储 备份HyperDP虚拟机关在的虚拟磁盘,或备份到NFS/CIFS共享文件系统中

    用户通过ManageOne下发备份策略到FusionManager,由FusionManager下发到HyperDP,HyperDP根据备份策略和虚拟化平台配合,针对虚拟机完成备份

    应用备份子系统架构及其构成为

    应用备份架构

    • ManageOne 提供应用备份自服务发放Portal,用户可以通过Portal申请应用备份服务
    • 备份系统
      • Simpana 协调和管理Simpana其他组件,发起数据保护、管理和恢复操作
      • Simpana MediaAgent 在备份客户端与存储介质之间传送数据
      • Simpana Proxy 用于备份客户端与CommServe、MediaAgent间的通信转发;用于管理节点与CommServe通信,实现备份业务的开通、注销,报告获取等
      • Simpana CommCell Console 用户通过Simpana控制台,实现执行备份、查看备份历史、浏览和恢复数据等操作
      • Simpana客户端安装包 定制化的Simpana客户端代理程序安装包,供用户下载安装到需要备份的主机上
      • 下载Portal 提供Web页面供用户选择下载所需Simpana客户端安装包
    • 备份客户端
      • Simpana FS iDataAgent 用于备份和恢复主机的文件系统
      • Simpana xx iDataAgent 用于备份和恢复主机上的某种应用,比如Oracle、Exchange等,一种应用对应一种代理组件

    关键特性

    虚拟机无代理备份能力和服务

    • 云主机用户可以根据业务需要自助申请云主机备份服务,云主机备份为无代理备份,用户无需额外安装代理软件;用户可对云主机做整机备份
    • 用户可以自定义备份策略
    • 支持虚拟机整机恢复,当用户选择整机恢复室,系统将为用户创建一个新的虚拟机,并将用户的所有数据恢复到新的虚拟机上
    • 适用于服务器虚拟化、数据中心、一体机、桌面云场景下用户虚拟机的备份
    • 支持生产存储为虚拟存储(基于SAN、NAS或本地磁盘)及FusionStorage下的虚拟机备份

    虚拟机的备份采用无代理的备份,一来虚拟化平台提供的虚拟机快照技术实现;虚拟机备份是周期性进行的,每次备份备份服务器都会通过虚拟化平台提供的北向接口创建一个新的虚拟机快照,完成数据增量计算和数据下载后,删除上一次备份的虚拟机快照。其关键技术是

    • 虚拟机快照 利用FusionSpherre的写时重定向技术(Redirect on Write)实现--在虚拟机磁盘文件被修改时,可以不修改原磁盘文件,而是将修改区域记录在另一个差分磁盘中,将差分磁盘的父磁盘指向原磁盘文件,使得虚拟机在从差分磁盘文件中读取数据时,能够自动从原磁盘文件中获得需要的数据;当虚拟机生成快照时,虚拟机将当前状态保存在快照文件中,包括磁盘内容、内存和寄存器数据
    • 数据备份过程
    • 数据恢复过程
    • 约束

    应用备份能力

    • 应用备份以数据中心管理员手工操作为主;用户可以根据业务需要线下向管理员申请应用备份服务;管理员在备份系统上增加相关权限和业务配置后,通知用户下载备份代理进行相关的备份业务
    • 用户可以在备份平台上自己定义备份策略
    • 用户可以根据需要备份应用,下载不同的备份代理软件,系统可以支持应用备份和文件粒度的备份
    • 支持基于SAN、NAS或VTL作为备份存储
    • 兼容多种应用和操作系统

    容灾业务

    为保证企业的业务连续性,企业除了对业务数据做备份外,通常还需要建立容灾系统。容灾系统是指在相较远的异地建立两套或多套功能相同的系统,系统之间可以相互进行健康状态监视和功能切换,当一处系统因意外停止工作时,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作。容灾系统需要具备较为完善的数据保护与灾难恢复功能,保证生成中心不能正常工作时数据的完整性及业务的连续性,并在最短时间内由灾备中心接替,恢复业务的正常运行,将损失降到最小

    部署架构

    分布式云数据中心容灾子系统,提供基于IaaS层的容灾方案,包含

    • 基于存储阵列复制的云平台主备容灾框架 通过存储系统的远程复制实现生产中心到容灾中心之间虚拟主机或应用的数据保护;根据业务的RPO要求以及生产中心与容灾中心的网络状况,可以选择同步复杂或异步复制
      基于存储阵列复制的云平台主备容灾框架
    • 基于主机复制的云平台主备容灾框架 主要是通过虚拟化平台的Hypervisor层进行IO不活与复制,实现虚拟主机数据的远程复制。具有实时IO分流复制、复制网关、可扩展和存储无关等特点

    基于主机复制的云平台主备容灾框架

    • 基于VIS的云平台双活容灾部署框架
      基于VIS的云平台双活容灾部署框架

    基于VIS的云平台双活容灾是结合VIS集群技术和云平台Active-Active模式部署技术实现的装货容灾方案。通过在云平台与存储阵列之间部署VIS集群,多个VIS节点按Active-Active模式分布在本地和远端,并结合VIS的镜像技术,可以支持本地和远端同时访问共享存储;实现容灾倒换后存储业务的无缝切换;同时云平台同一个集群内的主机按照Active-Active模式分布在本地和远端,利用虚拟的HA功能实现容灾自动倒换功能

    安全业务

    一个体系化的分布式云数据中心安全解决方案必然应该覆盖所有组成元素,且安全元素支持逻辑隔离,而不能单用传统的技术手段、物理边界实现其全部的安全保障。安全子系统架构目标

    • 模块化 从物理层安全、网络安全、主机安全、应用安全、虚拟化安全、用户安全、安全管理、安全服务八块内容进行设计
    • 端到端安全 实现用户从接入、使用、完成退出的端到端的安全防护
    • 低耦合 涉及到数据、网络、应用等各个层面的安全防护,但整个安全架构体系具备低耦合性的特点,各种安全技术之间不存在强关联性
    • 逻辑隔离
    • 易扩展
    • 合规性

    部署架构

    分布式云数据中心从分层、纵深防御思想出发,根据层次分为物理设施安全、网络安全、主机安全、应用安全、虚拟化安全、数据保护、用户管理、安全管理等几个层面,全面满足用户的各种安全需求,安全子系统架构图如下

    安全子系统架构图

    该架构中包含以下安全层面的能力

    • 物理设施安全
    • 网络安全
    • 主机安全
    • 虚拟化安全
    • 应用安全
    • 数据安全
    • 用户管理
    • 安全管理
    • 安全服务

    关键特性

    • 网络安全防护
      • 虚拟防火墙
      • 软件虚拟防火墙VSA
      • 安全组
      • 下一代防火墙统一威胁防护
      • VDC网络安全防护框架
      • 防IP及MAC仿冒
      • DHCP隔离
      • 广播报文抑制
    • 虚拟化无代理防病毒
    • TPM完整性保护

    ManageOne简介

    ManageOne在解决方案中承担CMP(Cloud Management Platforms)的职责,通过自研和集成的方式,为企业客户提供对企业私有云资源及企业租用的公有云资源统一管理的能力,包括租户自助服务节目,云产品管理和产品目录,计量,计算、存储和网络资源自动化配置,云服务和云资源的运维监控等

    ManageOnePosition

    特点

    ManageOne系统特点包括:多级VDC管理、一云多池、混合云管理、虚拟化资源池管理、主动式运维、云服务运维、多级云统一运维、开放易集成、多规模部署等

    架构

    ManageOne产品架构主要介绍ManageOne的运维面和运营面,以及ManageOne与周边系统的关系。ManageOne围绕云服务及其依赖的基础设施资源提供运营和运维监控能力

    • 提供云服务运营管理能力 ManageOne提供云产品管理、租户管理、VDC管理等能力,运营业务能力由云服务提供,从而实现云服务的统一运营管理
    • 提供云服务及虚拟资源运维监控能力 ManageOne基于南向对接系统中抽取的资源对象的告警、性能、拓扑等信息,对资源进行监控、统计、分析与预测,从而实现云数据中心资源的统一运维管理
    • 提供对基础设施的运维监控能力 ManageOne提供对计算、存储、网络设备的运维监控能力,采集和监控告警、性能等数据,从而实现基础设施的统一运维管理

    ManageOne

    小结

    文章介绍分布式云数据中心解决方案,其中涉及许多虚拟化技术,若有兴趣可深入研究

    参 考 文 献

    [1] Distributed Cloud Data Center V100R001C10

    [2] ManageOne6.5.1

    展开全文
  • 智慧 DCIM 以提高数据中心 ROI 为最终目标,保障数据中心业务连续性为阶段目标,由专业研发团队设计、开发,以场景关联人员周期、资产生命周期、管理周期三环,提供企业“人、事、物”综合管理的能力。

    云智慧 AIOps 社区是由云智慧发起,针对运维业务场景,提供算法、算力、数据集整体的服务体系及智能运维业务场景的解决方案交流社区。该社区致力于传播 AIOps 技术,旨在与各行业客户、用户、研究者和开发者们共同解决智能运维行业技术难题,推动 AIOps 技术在企业中落地,建设健康共赢的AIOps 开发者生态。

    引言

    2020年,数据中心建设被中央正式列入新基建战略,与此同时,疫情下数字经济及IT国产化的高速发展也催生了各行各业对数据中心的新需求,即在加大建设投入的同时,更要保证其运行稳定及服务可用。此外,我国当前数据中心建设仍面临着布局结构性失衡、能耗水平居高不下等问题。因此,推动企业数据中心朝着绿色、安全、高效的方向进一步发展以及解决能耗、需求匹配等难题是当前数据中心的的首要任务。

    趋势解读

    从企业内部运营目标来看:管理数字化、流程规范化、人员专业化、技术标准化、运维自动化都会成为核心诉求。此外,在Gartner最新发布分析报告中,通过对全球400多位 I&O 领导者调研总结,给出了以下三条DCIM(Data Center Infrastructure Management)领域发展建议:

    • 将DCIM⼯具与运维领域的IT服务管理(ITSM)、IT资产管理(ITAM)、IT运营管理(ITOM)及配置管理数据库(CMDB)等软件相集成,从⽽更完整地了解运营情况;
    • 在物联⽹、边缘计算、微型数据中⼼、服务管理、⼯作流和⾃动化等技术领域设置集成点,从⽽全⾯了解基础设施情况;
    • 利⽤运营分析和⾃动化,实施本地部署或XaaS模式工具,从⽽在混合环境中最⼤限度地提⾼资源利⽤率,并增强服务交付能⼒。

    需求与挑战

    通过持续地落地实施与走访调研,大多数企业会以提高数据中心 ROI 为最终目标来开展建维工作。因此,保障数据中心业务连续性也会被当作当前阶段重要目标,并且会以场景关联人员周期、资产生命周期、管理周期三环,提供“人、事、物”综合管理的能力。

    • “物”即资产生命周期:有形与无形资产从采购、入库到下架、清理。
    • “人”包括内部与外部人员:实现对其入职、学习、工作、离职管理。
    • “事”不仅涵盖日常工作流程化规范化管理,还要对紧急事件进行预防演练、应急处理过程进行管理。

    此外,当前阶段数据中心管理仍面临以下三大类问题:

    1. 整体业务发展问题:涵盖范围广、扩张速度快、运维成本高;
    2. 运维技术(数据+工具)问题:设备定位难、工具智能化不高、数据利用率低;
    3. 精细化管理支撑问题:资产盘点慢、资源规划难、安全管控难。

    解决方案与功能场景介绍

    基于以上需求及挑战,云智慧为企业提供数据中心统一运管解决方案,帮助企业实现对数据中心基础设施层面人、事、物的全面智能化管控。

    整个解决方案包括软件和IoT智能硬件两部分。其中软件平台部分帮助用户实现数据中心业务管理智能化,为企业赋能多样化能力:如多平台整合、大数据运维、自动化运维、规划设计、决策支撑等; 而IoT智能硬件部分则是帮助用户重点实现数据中心资产管理智能化,以及通过丰富的感知器从数据源头控制资产生命周期的时效性与准确性。

    此外,通过众多落地案例,云智慧总结了数据中心运维过程中最有代表性的六大场景,包含全资源管理、运维监控、统一调度、全景可视、智能分析、方案推荐。下面我们将对相关场景做详细介绍:

    • 资产全生命周期管控,有效降低资产总体拥有成本

    针对新形态数据中心资产管理的创新型需求,通过“软件+硬件+流程引擎”为一体的资产管理解决方案,实现资产管理的智能化、自动化全生命周期管控,帮助客户有效降低资产总体拥有成本:

    •通过资产库存管理功能,为客户降低IT资产的追踪成本,减少资产销账。

    •通过利用率分析,帮助客户快速检索闲置资产,提高资产利用率

    •通过资产安全管理,降低资产损坏以及由于数据丢失而导致的额外费用,降低资产缩水风险

    •通过保养和配置管理,帮助客户降低保养、维修和召回的费用,减少汇报的需求

    •最后协助客户提升操作的合规性。

    • 以全资源监控、全告警覆盖等打造 统一营维平台

    统一营维平台是将数据中心内包含的资产、容量、线缆、供电、制冷、能耗、环境、微环境、运算等资源进行了有效整合与利用,实现了跨专业、跨区域、跨范围的资源整合与管理。 此外,结合自有精确到U级定位硬件,通过灵活可配的流程管理引擎,对各形态资产从验收到报废全运维生命周期的状态及位置进行实时评估和跟踪,从而实现资产管理的精细化、标准化、无纸化,以此保证资产数据的持续准确有效,降低人为操作风险。

    统一运维平台是在上述资产全生命周期管理的基础上提供了基础环境的全覆盖监控,包括机房环境、机柜微环境以及基础资源。

    下图展示了云智慧可以监控的典型资源与对应的告警类别。特别是对于机柜级微环境的温湿度的实时监控能力,弥补了当前绝大部分数据中心管理的空白。例如:云智慧可以监控每个机柜的局部制冷量,避免过度制冷或者局部过热导致的IT设备运行故障。

    此外,云智慧还结合了基于“规则+算法+LED定位”的自动预警、告警功能为运维人员提供更快速、更准确的故障发现与处置手段,从而提升了整个业务系统的可用性。如:当发生温度预警/告警时,云智慧统一运管平台可通过LED灯的闪烁或高亮给予运维人员直观的指示;此外,系统还可以通过3D可视化、2D图表等人机交互界面,对数据中心内的全部资源及子系统进行集中管理,以及利用数据处理引擎对数据进行多维度的处理与分析,不断对故障预警的时效性和准确性进行提升;最后,还可以通过友好的交互界面、集中统一管理、集中告警呈现、多维信息融合、问题快速溯源、故障影响判断等能力,真正做到统一平台界面的综合类监控交付。

    • 打通风火水电等各专业领域工具墙,实现统一调度

    数据中心的安保级别通常较高,监控不到位就会导致非法入侵、人员违规行为等危险行为,若未及时纠正规范,就会对数据中心安全可能造成严重威胁。

    云智慧方案通过监控视频、红外遥感、人脸识别、门禁系统等功能对园区各进出场景跟踪记录,针对异常人员行为分析及跟踪警告。系统通过巡查人员的手持设备记录每个巡查点的准确时间和数据,从而使得巡查人员按照手持设备中的巡查计划依序巡查每个巡查点,得到数据采集后再把手持设备的信息录入到系统,从而得到准确全面的巡查数据。

    下图为云智慧具有代表性的案例截图。 在实际企业落地过程中,以下功能可以进行组合分拆,以满足企业对安全管理的个性化要求。

    • 左上:对巡查人员的进出时间以及当前所处的位置进行监控;
    • 右上:提前制定和发布巡检计划和设计巡检路径,设定巡查点位置;
    • 左下:对巡检人员的实际巡检路径以及各巡查点的实际完成时间进行跟踪,一旦超时将触发超时告警;
    • 右下:在一些具有区域安全管控的场景下,可以对不同级别的巡查人员设定电子围栏,一旦越线将触发越权告警。

    • 以工单/事件/流程为载体实现标准化调度

    云智慧为企业提供了内容完整、流程标准的运维服务功能,以实现数据中心日常运维的流程化、标准化、精细化。此外,云智慧通过帮助企业建立快速响应并适应企业业务环境及发展的基础设施运维模式,实现类比 ITIL 的流程框架、运维自动化管理,从而转变企业基础设施运维的环境,使得基础设施运维各部门和IT运维部门领导者能够拥有统一的语言、统一的界面来面对各项挑战以及理解新变化所带来的影响。 与此同时,云智慧会为企业提供丰富的移动端应用,实现多渠道协同办公。云智慧的移动应用可以兼容市面上绝大多数的移动平台——无论是操作系统还是终端设备类型,给企业带来更便捷的使用体验。

    • 以数字孪生/3D全景可视化/全资源可视化等解决认知难题

    云智慧利用强大的可视化引擎,将多维度动态数据融入到数据中心园区、楼宇、设备、设施、管路、桥架等实物3D之中,实现全元素三维可视化。此外,云智慧提供了强大的2D/3D 可视化自动切换展现、自定义路线巡游、第一视角参观功能,并且可通过鼠标、键盘的简单操作即可实现数据的查询、检索、分类、定位等功能,大幅地改善了普通静态界面的单调、交互性差、操作和信息传递效率低、决策和响应度慢等问题,让运维工作变得简单、直观、灵活、高效。

    • 自研数据中心容量管理,衡量数据中心 “绿色”是否达标

    正如行业趋势分析中提到的“数据中心面临日益增长的资源和电力需求”,电力效率以及功率密度方面的问题已成为影响企业可持续发展的重要因素,因此容量管理成为数据中心运营的重要关注点。

    云智慧解决方案通过外部采集设备、设施进行数据整合,并通过后台AI算法计算出数据中心实时的PUE、CLF、PLF、WUE等能耗指标;此外,还可以按设备类型、机房区域等方式进行分类统计分析,必要时可形成热度图、趋势图。与此同时,系统能够将能耗成本、能耗组成情况进行ECC大屏等多种形式展现,同时可根据变化趋势及时地进行信息预判,结合特定的算法模型分析效率损失的原因,协助企业从整体上改善效能。

    • 以数据做底座、算法为支撑、报告为出口,为决策提供有力依据

    云智慧通过“数据+算法+报告”相结合的形式,为决策提供有力依据。例如:云智慧支持对资源的统筹、规划与管理,实现现有资源的充分评估、利用。此外,还可通过丰富的筛选条件,快速、准确定位业务可用区域,提高资源利用率。在资源规划设计或割接环节中,云智慧可进行资源预调配(演练),模拟构建方案,根据算法引擎进行预部署的自动演算,生成计划方案与分析报告,还可模拟故障影响范围,实现关键设备影响分析的快速判断,并生成影响方案与分析报告。通过上述这些手段可以帮助企业提高SLA、规避风险、提供可靠的决策依据。

    案例分享

    • 某五大行之一总行数据中心(两地三中心)

    • 某保险公司数据中心监控管理平台

    • IDC 智能综合运维服务平台

    • 某商业银行综合安全管控平台

    • 某航空公司上海生产中心

    方案优势

    • 数字孪生之资产全生命周期 自动化 管控

    首要优势在于该方案以资产全生命周期自动化管控手段搭建企业数字孪生的数据基础,包括自动化资产管理与动态可视化资源监测两方面:

    • 数字孪生之全生态监控

    第二个优势点,一方面在于通过全生态监控支撑数字孪生的感知、监测诉求。云智慧的产品内置数百种采集器以及众多主流厂家的常见设备模型,支持上万个指标监测,对IT基础设施、动环、物联网等设施进行分布式采集;另一方面,支持数据中心环境、物理设施到应用性能的端到端全视图;此外,平台支持人员轨迹、链路、能耗的统一管控,从而实现100%全生态监控。

    • 数字孪生之多维呈现

    第三个优势点在于其丰富的展示能力: 既支持传统2D环境下的各种图形图表,也支持3D环境下的BIM、虚拟现实,同时,云智慧还可以与LED硬件进行交互,实现与现实世界联动;平台为客户提供了基于AI算法的容量预测、沙盘演练手段,提升数据中心客户应急调度、预测性维护能力。

    写在最后

    近年来,在AIOps领域快速发展的背景下,IT工具、平台能力、解决方案、AI场景及可用数据集的迫切需求在各行业迸发。基于此,云智慧在2021年8月发布了AIOps社区, 旨在树起一面开源旗帜,为各行业客户、用户、研究者和开发者们构建活跃的用户及开发者社区,共同贡献及解决行业难题、促进该领域技术发展。

    社区先后 开源 了数据可视化编排平台-FlyFish、运维管理平台 OMP 、云服务管理平台-摩尔平台、 Hours 算法等产品。

    可视化编排平台-FlyFish:

    项目介绍:https://www.cloudwise.ai/flyFish.html

    Github地址: https://github.com/CloudWise-OpenSource/FlyFish

    Gitee地址: https://gitee.com/CloudWise/fly-fish

    行业案例:https://www.bilibili.com/video/BV1z44y1n77Y/

    部分大屏案例:

    您可以添加小助手(xiaoyuerwie)备注:飞鱼。加入开发者交流群,可与业内大咖进行1V1交流!

    也可通过小助手获取云智慧AIOps资讯,了解FlyFish最新进展!

    展开全文
  • 云数据中心基础

    万次阅读 2018-05-17 13:19:54
    数据中心概述: DC (Data Center) 企业IT系统的核心 海量数据运算、交换、存储的中心 关键信息业务应用的计算环境 集中管控各种数据、应用程序、物理或虚拟化设备的环境 数据中心四大焦点:可靠、灵活、绿色、...
  • 云数据中心概述与趋势

    千次阅读 2019-04-12 17:04:14
    数据中心(Data Center)是企业IT系统的核心,海量数据运算、交换、存储的中心,关键信息业务应用的计算环境,集中管控各种数据、应用程序、物理或虚拟化设备的环境。 数据中心四大焦点:可靠,灵活,绿色,资源...
  • 众多周知,云计算是第四次信息技术革命的核心,未来3-5年将成为全球角力的焦点。...作为云计算的基础平台,数据中心不但是我国抢占云计算时代全球话语权的保证,同时也是保障我国信息安全,实现自主可控的关键点。
  • 003云数据中心基础原理笔记

    千次阅读 2017-04-05 22:22:15
    云数据中心
  • 云数据中心备份容灾设计方案

    千次阅读 2019-07-22 16:30:42
    云数据中心备份容灾设计方案 导读:云计算中心 涵盖系统多、类型复杂、关键性程度不一,因此对于恢复目标也有不同的要求,针对不同恢复目标的业务采取不同的灾备技术,同时考虑到数据中心重要性,需要建立同城灾...
  • 基于华为产品的高校云数据中心建设规划设计方案

    万次阅读 多人点赞 2017-05-18 22:38:11
    云数据中心建设内容包含网络、服务器、存储等基础设备的部署与管理,核心业务如 根据具体场景分析(校园管理公共服务平台、数字图书馆、邮件系统等业务的云平台部署,平安校园监控、视频教学的物理部署,桌面云...
  • 架构对运维系统的新需求和新挑战 引入云计算和业务需求带来运维压力 随着越来越多的企业拥抱云计算,为了支持业务系统的快速上线、灵活伸缩以及更高的SLA要求,再加上有限的IT运维成本,运维人
  • SDN在云数据中心的架构

    万次阅读 2017-05-19 00:35:05
    前言 SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用...本文站在云数据中心网络维护工程师的角度,给大家分享SDN与云数据中心结合的前世今生。 一、云数据中心
  • 新型数据中心“新”在目标:经济社会数字转型将成新型数据中心核心业务。新型数据中心紧跟经济社会数字化转型加速趋 势,针对ICT技术应用范围延伸、管边端架构要求提升、业务 上云提质增效、数据资产化进程加快.
  • 边缘数据中心需求和核心技术分析

    千次阅读 2020-03-09 19:58:46
    数据猿随着对机架的爆炸式增长需求,未来数据中心行业需要包括OTII和液冷这样的创新技术来提升能效降低能耗;也需要无损网络这样的网络技术来提升数据中心内和DCI的通道能力,去支持未来更多边...
  • 互联网及其延伸,正在导向我们走向一个新的时代,...软件定义在企业的数据中心中的表现是什么?如何发展这项技术?今天我们有幸邀请到了VMware存储架构师Peter Ye(叶毓睿),分享他关于软件定义存储的深刻见解。  遇
  • 本节内容:FusionSphere解决方案简介关键组件之FusionCompute简介关键概念之可用分区简介知识回顾: 华为FusionCloud解决方案是物理分散、逻辑统一、业务驱动、管协同、业务感知的数据中心解决方案,可支持企业或...
  • 数据中心的发展历史

    万次阅读 2020-03-25 14:51:18
    数据中心发展雏形——ENIAC ENIAC是electronic numerical integrator and computer电子数字积分计算机的简称,于1946年专为美国弹道研究实验室存储火力表而研制,参加研制工作的是以宾夕法尼亚大学莫尔电机工程学院...
  • 【科普向】5G核心网架构和关键技术

    万次阅读 多人点赞 2022-03-13 13:11:54
    一、5G的定义 1.1 5G的历史演变 1.2 什么是5G 5G是第五代移动通信技术,是最新一代蜂窝移动通信技术,也是继4G、3G和2G系统之后的延伸。 1.3 5G关键技术 动态自组织网络(SON):...核心思想—转发和控制分离,从而实现
  • xx大学云数据中心建设方案

    万次阅读 多人点赞 2017-05-20 06:25:26
    xxxxx大学云数据中心建设方案                                 2015/11     目录 第1章 云数据中心总体方案 3 1.1 设计原则 3 1.2 系统...
  • 云数据中心的电力基础架构及其关键技术 引言 信息集成是消除企业内信息孤岛、实现信息共享、提供决策支持的核心技术,而数据中心是信息集成系统的基础,具有重要的学术和应用价值,一直是近年来的研究热点,也是...
  • 阿里云DataWorks数据集成(DataX)架构&实践分享 分享嘉宾:罗海伟阿里云 编辑整理:约理中国科学院大学 ...▌阿里云数据集成DataX设计核心思路 离线数据同步原理 实时数据同步原理 ▌阿里云数据集成Dat..
  • CSDN在线峰会系列——阿里专场,邀请了阿里多个团队的技术大咖,与大家一起探讨最新的企业IT技术趋势与演变!
  • 深圳数据中心能评最新报告

    千次阅读 2019-12-10 17:50:49
    当前深圳总共通过能评项目有15个,其中2018年批复5个,2019年批复10个,总机柜数39991个。详细如下:2019-11-26 坪山万国数据云计算人工智能平台一期项目 本项目位...
  • IaaS私有云数据中心将逐步替代原有形态的企业数据中心,为企业日常IT等业务运营环境提供更加强有力的支持。 IaaS私有云数据中心系统设计 文/罗逸秀 当前云计算产业正在如火如荼的发展,大型互联网运营商如阿里、...
  • 数据中心的BGP 说明: 这是最近在学习《BGP in the datacenter》。由于原文是全英文。所以在学习过程中,利用谷歌翻译和网易翻译,再把翻译不通的地方,加上自己理解稍微改了改。在此共享出来,需要的人可以参考...
  • 数据集中管控成为大势所趋,如何做好数据共享和数据分析、如何发挥数据资产价值最大化是我们信息化工作首要目标,本文从基本术语及概念、数据共享服务、数据资源中心架构、数据治理平台、数据运营体系等10核心观点来...
  • 华为数据中心产品汇总介绍

    千次阅读 2022-01-03 18:17:20
    AR G3系列企业路由器是秉承华为在数据通信、无线、接入网、核心网领域的深厚积累,依托自主知识产权的VRP平台(通用路由平台,主要是以TCP/IP协议为核心,实现了数据链路层,网络层和应用层的多种协议),推出的面向...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 53,853
精华内容 21,541
热门标签
关键字:

云数据中心的关键核心