精华内容
下载资源
问答
  • 分布式云数据中心

    千次阅读 2019-10-25 06:48:48
    传统的大型企业数据中心是一个物理分层的架构,采用烟囱式构建基础架构的方式,存在建设与运营成本高、资源利用率低、服务SLA保证困难、管理复杂等诸多挑战 数据中心发展趋势 随着云服务业务的发展,运营商和企业...

    传统的大型企业数据中心是一个物理分层的架构,采用烟囱式构建基础架构的方式,存在建设与运营成本高、资源利用率低、服务SLA保证困难、管理复杂等诸多挑战

    数据中心发展趋势

    随着云服务业务的发展,运营商和企业的云服务形态也在不断变化,数据中心发展趋势应是建设高效节能与运营成本合理的数据中心,支持企业或机构业务的持续发展,满足对业务的全生命周期管理需求:高利用率、自动化、低功耗、管理自动化等成为新一代数据中心建设的关注点

    • 数据中心的分布化建设和集中化管理成为方向
      • 数据中心向基础设施的分布式建设和管理的集中化方向发展
      • 数据的集中化管理和数据中心的整合是当前信息化发展的方向
      • 行业需求推动的技术发展趋势将支撑数据中心的分布式建设
    • 数据中心提供整合的网络、存储和计算能力,管理工具的重构和发展将成为核心的控制点
      • 可编程的虚拟网络交换方式将带来更多挑战和机会
      • 数据中心竞争将由单个设备竞争变化为提供整个网络架构的竞争
      • 数据中心基础设施管理系统将成为未来数据中心的核心控制点
    • 数据中心向全方位服务化方向发展
        数据中心成为服务中心--通过IaaS/PaaS/SaaS等不同层级的服务,为企业用户提供方便灵活的业务选择(IT成本分析、桌面帮助、IT服务管理和数据中心基础设施监控等),是多种服务的承载容器,也是数据中心发展的必然趋势
    • 向基于云计算技术的软件定义数据中心发展
      • 资源全面池化 计算虚拟化向存储虚拟化和网络虚拟化发展,基于SDN技术为实现基于业务需求的可编程、高度弹性和动态、大规模的虚拟化网络提供技术支撑,数据中心存储虚拟化后构成统一资源池(NSA、SAN等)
      • 资源按需分配 计算、存储、网络和安全等所需资源、基于SLA的虚拟数据中心(VDC)服务,VDC部署时间下降到分钟级,资源按需快速发放
      • 混合云 未来几年,会出现以IT服务交付为服务重点的私有云服务企业,企业应评估哪些术语商品服务,并将它们转移到公有云,私有云 公有云技术的混合成为混合云
    • 安全与可靠性成为未来数据中心的基础能力
        安全性是指包括防火墙、IPS/IDS、防病毒入侵检测以及自然灾害在内的安全防范措施。在规划数据中心建设的初始阶段,就应该构建可靠的容灾方案,或建立异地灾备中心,通过技术手段保障业务的连续性和数据的安全性

    分布式云数据中心解决方案架构

    分布式云数据中心是物理分散、逻辑统一、业务驱动、云管协同、业务感知的数据中心,以融合架构(计算、存储、网络融合)作为资源池的基础单元,构建SDN业务感知网络,通过自动化管理和虚拟化平台来支撑IT服务精细化运营

    其核心理念在于:物理分散、逻辑统一。将企业分布于全球的数据中心整合起来,使其像一个统一的数据中心一样提供服务,通过多数据中心融合来提升企业IT效率;去地域化、软件定义数据中心、自动化是这个阶段的主要特征。逻辑统一由两个方面的含义:依赖DC2(分布式数据中心简称)提供统一的运维管理支撑平台将所有数据中心及其资源统一管理、调度和运维支持,分权分域管理;DC2提供统一的服务平台来对外提供服务

    DC2将多个数据中心看成一个有机整体,围绕跨数据中心管理、资源调度和灾备设计,实现跨数据中心云资源迁移的云平台、多数据中心统一资源管理和调度的运营运维管理系统、大二层的超宽带网络和软件定义数据中心能力

    分布式云数据中心的价值

    • 降低TCO,提高ROI DC2采用虚拟化技术,消除软件对运行软件的硬件的依赖性,可以将利用率不足的基础结构转变成弹性、自动化和安全的计算资源池,供程序按需使用。通过资源整合和自动化帮助企业降低运营成本;通过分布式技术实现多个数据中心资源的逻辑统一和高效利用,降低对基础架构的投资;通过灾备服务和基于资源负载均衡的跨数据中心应用迁移来提升应用的可用性和资源利用率,从而为企业节省大量资金
    • 提供业务敏捷性,加快上线速度,提高用户的满意度 DC2在虚拟化技术上,提供了资源的按需服务能力,提供全方位的管理、业务自动化能力。通过自助服务,用户可以按需自助申请所需的计算、存储、网络资源;根据用户不同应用需求提供不同的SLA水平的资源池服务,同时DC2具有灵活的弹性伸缩能力,根据用户配置的灵活调度策略,实现自动的水平、垂直弹性伸缩能力,从而保证IT能够快速响应业务变化

    分布式云数据中心提供的关键能力

    • 采用虚拟数据中心方式为租户提供数据中心即服务(DCaaS)
        虚拟数据中心(VDC)为租户提供DCaaS服务,是软件定义数据中心(SDDC)的一种具体实现。VDC的资源可以来自多个物理数据中心的不同资源池(资源类型分为虚拟化的计算、存储、网络以及Bare-metal物理机资源等);VDC内的资源支持访问权限控制;VDC的网络可以由管理员自助定义,将VDC划分为多个VPC,VPC包括多个子网,并通过VFW、VRouter等部件进行安全、网络管理;VDC服务提供部分自助运维能力,包括查看VDC告警、性能、容量、拓扑信息,提供VDC级别的资源使用计量信息,方便租户计算计费信息
    • 针对多种应用场景优化的云基础设施
        目前主要针对四大场景:标准虚拟化场景,提供对普通应用虚拟化以及桌面等虚拟化方案的基础设施;高吞吐场景,主要针对OLAP分析型应用的支持,在存储和网络方面提供了优化;高扩展场景,对于需要快速水平扩展的应用,采用计算存储一体机方案提供快速扩展能力;高性能场景,主要对于OLAP应用,X86服务器替代小机等场景
    • 基于SDN网络虚拟化技术的网络自动化和多租户
        云数据中心基于SDN虚拟化网络技术,多租户云数据中心场景下每个租户可以自助定义自己的网络并自动化实践
    • 统一灵活的数据中心管理能力

    DC2总体架构

    分布式云数据中心逻辑架构

    DC2总体架构如上图所示,分为基础设施层、虚拟化层和服务层,各层都分别向上层提供接口供上层调用或对接

    • 基础设施层 提供构建数据中心计算、存储和网络的资源能力,DC2提供针对多场景的POD配置方案,基于物理资源构建虚拟计算、虚拟存储、虚拟网络资源池
    • 数据中心管理层 数据中心管理层提供对虚拟计算、存储、网络的资源管理能力,支持镜像、服务管理、资源调度等方面能力,也提供SDN的网络虚拟化管理能力
    • 域管理层 提供对多个云数据中心的统一管理调度能力,提供以VDC为核心的DCaaS,VDC内提供多种云服务能力,也提供对虚拟物理资源的统一运维能力

    DC2逻辑部署图

    分布式云数据中心在FusionManager架构和OpenStack架构下部署方式和部件会有所不同。下图描述的是传统FusionSphere部署架构下的各部件关系,运管采用FusionManager,RD支持跨数据中心的容灾管理,同时对接异地数据中心的FusionManager

    分布式云数据中心传统架构逻辑部署图

    下图则是在OpenStack架构下各部件的部署及连接关系,其中keystone部署在domain域,实现对多个OpenStack实例的统一认证管理。OpenStack平台原生提供适配易购虚拟化平台的能力

    OpenStack架构下部件部署图

    各个部件的功能描述

    • ManageOne 提供分布式云数据中心服务中心(SC)和运维中心(OC)
      • SC 服务中心基于资源池提供的云和非云资源统一编排和自动化管理能力,包括可定制的异构和多资源池策略和编排,可定制的企业服务集成,可通过集成第三方系统补足资源池管理能力,特别是异构的传统资源自动发放能力
      • OC 运维中心面向数据中心业务,进行场景化运维操作和可视化的状态/风险/效率分析,基于分析能力提供主动和可预见的运维中心
    • FusionManager 它的定位是集成多个虚拟化软件和物理设备,提供统一硬件资源管理和虚拟化资源管理
    • FusionCompute 提供网络、存储、计算资源的虚拟化,从而实现资源的池化
    • RD(Replication Director) 提供分布式云数据中心的虚拟机容灾能力,支持主机复制方式将主虚拟机数据映射到容灾虚拟机,支持容灾切换
    • HyperDP 提供分布式云数据中心的虚拟机备份能力
    • VIS 提供存储虚拟化功能,配合系统提供双活容灾能力
    • OpenStack 开运云管理系统,由多个部件构成,采用REST接口和消息队列实现部件解耦,支持对异构虚拟化平台管理(KVM、VMware、XEN等)。主要组件包括
      • Nova 虚拟计算
      • Glance 镜像
      • cinder 虚拟磁盘
      • neutron 虚拟网络
      • swift S3存储
      • keystone 认证
      • Ceilometer 监控

    分布式云数据中心数据关系图

    服务式云数据中心概念关系

    DC2中逻辑概念的关系是

    • Domain 代表数据中心管理系统的总范围,对分布式云数据中心来说包括多个物理数据中心及包含的物理虚拟资源
    • Available Zone(AZ) AZ是对用户可见的,用户在资源申请时首先需要选择AZ。在同一个AZ区域内,存储是可达的,因此虚拟机在同一个AZ内可以迁移。AZ在同一个汇聚/核心交换机下
    • VDC 虚拟数据中心,可以跨多个AZ,包括多个VPC
    • VPC 是一个AZ内保证网络安全而划分的区域,各VPC网络间采用多种隔离技术,一个VPC仅属于一个AZ
    • Host Aggregate 概念来源于OpenStack的定义,同一个Aggregate是具有相同属性的资源集群,属性通过元数据描述。资源分发时通过Scheduler部件来根据用户需求选择合适的Aggregate分配资源,一个Aggregate属于一个AZ

    分布式数据中心解决方案关键特性

    虚拟数据中心

    • 适用场景
        企业私有云中,有独立管理租用资源并实现网络隔离需求的场景,每个VDC是一个具有自助运营、自运维能力的独立管理实体,可以支持一个或多个物理数据中心的资源。根据具体场景其划分方式可以灵活多样
        *     可以按部门划分,每个部门可以独立管理本部门资源
        *     可以按使用领域划分,例如:开发VDC、测试VDC

    部署架构

    • SC FM方式部署 FM提供云管理能力和虚拟化平台的访问接口;SC提供VDC服务和VDC内包含服务的管理能力。SC作为VDC的服务提供方,VDC管理员和用户可以登录SC门户,可以自助管理VDC内的服务、网络和自助运维等;运维层面,VDC相关的信息可以从eSight或合作厂商的部件获取性能、告警信息,然后统一在OC上呈现,运维管理员可以在OC上对运维信息进行统一处理
      FM SC方式部署
    • SC OpenStack方式部署 采用OpenStack提供的服务作为基础云管理平台,SC提供VDC服务,SC和OpenStack利用OpenStack提供的REST API进行对接

    SC OpenStack方式部署

    • 关键特性
      VDC功能概述
    • 多数据中心资源统一管理 VDC可以从多个物理数据中心的资源池中获取资源,数据中心采用Available Zone(AZ)方式提供资源池,选择不同的AZ也就选择了不同数据中心的资源池;每个AZ内部划分不同的Host Aggregate,不同Aggregate具备不同的SLA特性,由管理员根据SLA特性自助划分并对用户不可见,当用户提出SLA需求系统调度器将根据SLA需求在满足要求的Aggregate中选择资源
    • VDC间的隔离 管理隔离、网络隔离和资源隔离
    • 配额管理 VDC支持对使用的资源进行配额控制,配额种类包括:VCPU个数、内存大小、VLAN个数、VPC个数、子网个数等
    • 用户管理 每个VDC支持独立的用户管理能力。VDC管理员可以授权某用户访问VDC的权限,获得权限后,用户可以登录该VDC并申请该VDC的服务;一个用户可以获得多个VDC的授权,从而成为多个VDC的用户
    • 服务管理 VDC管理员可以对服务目录和服务生命周期进行管理
    • 模版管理 VDC内支持多种服务模版,可以帮助快速定义新服务;VDC支持的服务模版包括: VN模版、VAPP模版,可以帮助管理员实现快速部署;支持所有VDC可见的全局模版和仅本VDC可见的局部模版
    • 服务自动化 为系统提供服务自动发放上线能力
    • 自助网络管理 VDC的自助网络管理利用底层SDN提供的基础能力,主要包括的功能有:VPC、子网、VDC虚拟网络拓扑
    • 自助运维管理 容量管理、拓扑管理、性能管理、告警管理
    • 支持服务列表 用户登录VDC自助服务门户,可以在服务目录看到多种预置的云服务,包括:云主机服务、物理服务器服务、EBS服务、虚拟防火墙VFW服务(弹性公网IP、SNAT/DNAT、基于状态的报文过滤ASPF、访问控制ACL、IPSec VPN、VLB服务、VAPP服务)

    SDN网络

    SDN是一种新的网络框架,其本质是网络的可编程,SDN框架给用户提供最大的网络灵活度,租户可以灵活申请网络资源来满足自己的IT业务。在数据中心,SDN网络框架可以适用于如下场景

    • 网络自动化 通过提供向北API,由上层管理软件通过调用API接口,实现网络自动化,提供即时的网络服务,为业务快速上线部署提供网络环境
    • 灵活的业务网络 基于SDN网络架构,将物理网络虚拟化,提供不同的业务网络,实现业务网络的灵活部署;提供多租户隔离,用户西定义网络策略实现保护数据中心内部的资源安全访问

    部署架构

    分布式数据中心网络子系统采用SDN框架的网络设计,下图分别为DC2 基于 OpenStack 和 FM 的框架图

    DC2 SDN网络框架图(OpenStack)

    通过上述的SDN框架实现网络虚拟化,自动为每个租户提供所需虚拟网络环境,如下图所示

    DC2网络子系统架构图

    上图可以看出,核心交换机上配置VPN VRF和Internet VRF,VPN VRF与汇聚交换机上的VPN VRF对接,Internet VRF与汇聚交换机的 Global VRF对接,用户将租户之间的网络逻辑隔离;汇聚交换机上配置一个Global VRF,每个租户的虚拟防火墙都对接到Global VRF中实现对公网访问;汇聚交换机上配置多个VRF,用于为每个租户提供虚拟路由器,提供租户的业务网关路由功能,在VRF下配置三层网关用于提供业务网关,每个VRF将与租户的虚拟防火墙对接,实现对租户业务的保护;租户如果租用来虚拟负载均衡对接到虚拟路由器上,提供服务器的负载均衡功能,同时受虚拟防火墙的规则保护

    虚拟交换机逻辑上接入到TOR交换机端口,每个租户有自己独立的虚拟交换机;虚拟交换机上有不同的端口组,不同端口组有不同的网络属性;虚拟机网卡可任意加入不同端口组,用户不同租户之间的隔离;同时租户可以创建多个安全组,一台虚拟机(通过不同的虚网口)可以找到不同的安全组内,不同的安全组有不同的安全访问策略保证租户内的虚拟机隔离

    特性设计

    • 多租户网络设计 数据中心支持多租户管理,能够在以较低成本合理利用资源,优化资源利用率;数据中心必须具备不同租户资源的隔离设计,确保端到端的隔离以及满足租户的安全要求。DC2采用虚拟技术支持多租户,在逻辑上划分成多个(每个租户)虚拟网络环境,每个虚拟网络拥有独立的路由表、地址空间、安全服务、配置管理
    • DC内网络设计
      • 三层网络设计 在核心层或汇聚层使用VRF技术提供网络层(L3)之间隔离设计,保证每个租户有独立的路由转发表,不同VRF之间的数据流交互默认情况下将不被允许;每个VRF可以绑定多个三层网关,承载多个子网,为虚拟机或物理服务器提供网关功能。同一个VRF下的不同网关之间默认可以互相访问
      • 二层网络设计 支持VLAN ID或VXLAN两种不同二层的隔离域,一个租户内不同的二层网络之间转发需要通过网关设备才可以进行互通,不同的租户默认是无法互通的
    • 网络服务设计
      • 虚拟防火墙 将一个物理防火墙逻辑的虚拟出多个防火墙或在虚拟机上运行软件虚拟防火墙,每个虚拟防火墙有独立的路由转发表、安全服务策略、配置管理;租户修改其所属虚拟防火墙的配置时不影响其他虚拟防火墙的运行
      • 虚拟负载均衡 将物理负载均衡器逻辑的虚拟出多个负载均衡或在虚拟机上运行负载均衡软件,每个虚拟负载均衡有独立路由转发表、负载均衡策略、配置管理;租户修改其所属虚拟防火墙的配置时不影响其他虚拟防火墙的运行
    • DC间网络设计
      • Internet 数据中心之间支持Internet互连,所有租户之间的业务通过公网IP访问,可以支持跨数据中心的资源调度;由于Internet网络质量相对较差,可能会由于地理距离造成较大延迟
      • VPN或者专线 企业异地数据中心之间可以通过租用运营商的VPN或专线资源实现物理DC之间的互通,VPN或专线链路质量相对稳定,是优先推荐的互连方式

    关键特性

    • 多租户隔离 保证每个租户之间的网络资源互相隔离,拥有独立的网络控制平面、独立的数据转发平面以及独立的策略配置管理;不同租户之间的资源运行互不影响
    • 网络即服务 网络资源作为一种基础服务提供给最终用户,如subnet、虚拟防火墙、虚拟负载均衡、VPN服务
    • 网络自动化 基于网络设备功能的抽象,设计可编排的最小单元作为网络服务单元(网络对象),通过业务需求的编排组合出不同的网络模型
    • VXLAN的虚拟网络 主要的技术原理是引入一个UDP格式的外层隧道,作为数据链路层,而原有数据报文内容作为隧道净荷载来传输

    SDN控制器实现VXLAN的部署框图

    统一管理

    主要针对的场景描述如下

    • 多数据中心统一管理 存在多个物理数据中心需要进行统一管理的场景
    • 物理、虚拟统一管理 数据中心中存在虚拟资源和物理资源需要统一管理的,例如:支持对虚拟资源和物理资源的统一监控,拓扑管理等运维管理能力
    • 异构资源池统一管理 数据中心有异构的虚拟化平台需要统一管理,例如:同时有vSphere虚拟化和KVM虚拟化平台需要统一管理

    部署架构

    • 云和非云统一管理 提供云资源和非云资源的统一管理能力
      • 非云资源管理 管理物理资源的性能、告警和拓扑
      • 云资源管理 管理云资源的自动化部署、操作能力;云资源的性能、拓扑、容量管理;云资源和非云资源拓扑映射关系

    物理、虚拟资源统一管理

    • 异构虚拟化统一管理 针对不同的方案采用不同的异构虚拟化方式
      • 方案一 在采用FM作为云资源池管理节点的场景下,FM提供了对异构Hypervisor的适配能力主要包括FusionSphere和VMware的vCenter。FM对异构平台的适配采用接口调用方式,FM提供了适配VRM和vCenter北向接口
      • 方案二 采用OpenStack对多Hypervisor的适配能力来解决,目前支持KVM(OpenStack原生支持VMware、XEN、Hyper-V、KVM,目前除KVM外其他尚不能商用,商用需要各厂商对各自插件的服务支持)

    关键特性

    DC2管理子系统总体架构

    • 云资源和非云资源统一监控能力 对云资源和非云资源的统一监控体现在对虚拟平台和物理资源的告警监控能力上,根据不同运维场景可选择不同的监控软件
    • 云资源和非云资源的性能管理能力 包括获取性能数据和性能阈值告警处理等
      • 虚拟机性能 支持和FusionManager及vCenter对接,监控虚拟化平台上VM的性能指标,包括CPU利用率、内存利用率、网络带宽、磁盘IO等
      • 物理资源性能 物理资源性能依赖于eSight或CA监控部件的指标获取;主要的对象有物理服务器,网络设备(交换机、路由器、防火墙等),存储设备的性能监控;监控指标主要包括CPU利用率、内存利用率、网络带宽等,根据设备类型不同略有不同。监控采集层软件将监控结果上报给OC,由OC进行统一展现
      • 阈值告警 管理员可以定义性能阈值告警,在监控的资源性能指标超过了定义的阈值时,系统将自动产生告警,提醒管理员对响应的性能风险进行处理
    • 云资源和非云资源的拓扑管理能力
      • 物理拓扑管理 对物理资源的自动发现,物理资源连接关系的自动发现。拓扑数据的自动发现由CA部件提供,OC集成CA的拓扑数据并统一展现
      • 虚拟拓扑管理 提供VDC内部不同虚拟化部件拓扑关系的展现,由于虚拟部件和连接关系都可以由管理员自主定义,因此虚拟拓扑是根据创建的结果来定义的
      • 拓扑关系映射 虚拟网络是叠加在物理网络上的,因此存在虚拟网络设备和物理网络设备间的映射关系。例如:VFM是在哪个物理FM上创建,VLB是在哪个物理LB上创建等
    • 云资源的容量管理能力 通过OC从FusionManager获取云平台资源数据来实现;OC将统一展现当前云系统资源的使用情况;主要包括VCPU、内存、磁盘容量、带宽等资源的使用情况;缺乏对物理资源的容量管理能力,包括物理空间、存储空间、网络带宽的容量管理能力
    • 异构虚拟化平台管理能力 真的FusionSphere和OpenStack两种部署场景提供异构虚拟化平台的支持
      • FusionSphere 采用FusionManager来屏蔽异构虚拟化平台
      • OpenStack 天然支持多种虚拟化平台(KVM、XEN、VMware、LXC等)

    备份业务

    用户在部署和使用虚拟机或应用时,为应对文件、数据丢失或损坏等可能出现的意外情况,往往需要对现有数据进行备份。分布式云数据中心解决方案针对备份业务提供来虚拟机备份框架和应用备份框架,其关键价值点有:提供基于虚拟机的备份,无需专用的备份系统,用户可以在服务Portal上自助完成虚拟机备份;提供基于代理的应用备份能力,用户可以按照应用或文件粒度进行应用备份

    部署架构

    分布式云数据中心的备份子系统,主要承载分布式云数据中心数据保护的功能,其架构目标如下

    • 虚拟机备份系统采用无代理备份方式、以虚拟机为单元进行备份
    • 应用备份系统采用有代理备份,用户可以在系统内安装代理,实现应用数据的备份和恢复
    • 用户可以定义备份策略
    • 用户可以通过业务Portal实现虚拟机和应用的备份

    虚拟机备份子系统的框架及其构成

    虚拟机备份架构

    • ManageOne管理平台 提供虚拟机备份自服务Portal,用户可以通过Portal对虚拟机进行备份的自助操作
    • 虚拟化平台 FusionSphere平台,提供虚拟机快照功能,和HyperDP备份服务器配合提供虚拟机备份业务
    • HyperDP备份服务器 部署在虚拟机内,虚拟机规格为4U4G及30GB系统盘,每个HyperDP备份服务器可备份200个虚拟机,最多可部署10个备份服务器组成一个备份域
    • 备份存储 备份HyperDP虚拟机关在的虚拟磁盘,或备份到NFS/CIFS共享文件系统中

    用户通过ManageOne下发备份策略到FusionManager,由FusionManager下发到HyperDP,HyperDP根据备份策略和虚拟化平台配合,针对虚拟机完成备份

    应用备份子系统架构及其构成为

    应用备份架构

    • ManageOne 提供应用备份自服务发放Portal,用户可以通过Portal申请应用备份服务
    • 备份系统
      • Simpana 协调和管理Simpana其他组件,发起数据保护、管理和恢复操作
      • Simpana MediaAgent 在备份客户端与存储介质之间传送数据
      • Simpana Proxy 用于备份客户端与CommServe、MediaAgent间的通信转发;用于管理节点与CommServe通信,实现备份业务的开通、注销,报告获取等
      • Simpana CommCell Console 用户通过Simpana控制台,实现执行备份、查看备份历史、浏览和恢复数据等操作
      • Simpana客户端安装包 定制化的Simpana客户端代理程序安装包,供用户下载安装到需要备份的主机上
      • 下载Portal 提供Web页面供用户选择下载所需Simpana客户端安装包
    • 备份客户端
      • Simpana FS iDataAgent 用于备份和恢复主机的文件系统
      • Simpana xx iDataAgent 用于备份和恢复主机上的某种应用,比如Oracle、Exchange等,一种应用对应一种代理组件

    关键特性

    虚拟机无代理备份能力和服务

    • 云主机用户可以根据业务需要自助申请云主机备份服务,云主机备份为无代理备份,用户无需额外安装代理软件;用户可对云主机做整机备份
    • 用户可以自定义备份策略
    • 支持虚拟机整机恢复,当用户选择整机恢复室,系统将为用户创建一个新的虚拟机,并将用户的所有数据恢复到新的虚拟机上
    • 适用于服务器虚拟化、数据中心、一体机、桌面云场景下用户虚拟机的备份
    • 支持生产存储为虚拟存储(基于SAN、NAS或本地磁盘)及FusionStorage下的虚拟机备份

    虚拟机的备份采用无代理的备份,一来虚拟化平台提供的虚拟机快照技术实现;虚拟机备份是周期性进行的,每次备份备份服务器都会通过虚拟化平台提供的北向接口创建一个新的虚拟机快照,完成数据增量计算和数据下载后,删除上一次备份的虚拟机快照。其关键技术是

    • 虚拟机快照 利用FusionSpherre的写时重定向技术(Redirect on Write)实现--在虚拟机磁盘文件被修改时,可以不修改原磁盘文件,而是将修改区域记录在另一个差分磁盘中,将差分磁盘的父磁盘指向原磁盘文件,使得虚拟机在从差分磁盘文件中读取数据时,能够自动从原磁盘文件中获得需要的数据;当虚拟机生成快照时,虚拟机将当前状态保存在快照文件中,包括磁盘内容、内存和寄存器数据
    • 数据备份过程
    • 数据恢复过程
    • 约束

    应用备份能力

    • 应用备份以数据中心管理员手工操作为主;用户可以根据业务需要线下向管理员申请应用备份服务;管理员在备份系统上增加相关权限和业务配置后,通知用户下载备份代理进行相关的备份业务
    • 用户可以在备份平台上自己定义备份策略
    • 用户可以根据需要备份应用,下载不同的备份代理软件,系统可以支持应用备份和文件粒度的备份
    • 支持基于SAN、NAS或VTL作为备份存储
    • 兼容多种应用和操作系统

    容灾业务

    为保证企业的业务连续性,企业除了对业务数据做备份外,通常还需要建立容灾系统。容灾系统是指在相较远的异地建立两套或多套功能相同的系统,系统之间可以相互进行健康状态监视和功能切换,当一处系统因意外停止工作时,整个应用系统可以切换到另一处,使得该系统功能可以继续正常工作。容灾系统需要具备较为完善的数据保护与灾难恢复功能,保证生成中心不能正常工作时数据的完整性及业务的连续性,并在最短时间内由灾备中心接替,恢复业务的正常运行,将损失降到最小

    部署架构

    分布式云数据中心容灾子系统,提供基于IaaS层的容灾方案,包含

    • 基于存储阵列复制的云平台主备容灾框架 通过存储系统的远程复制实现生产中心到容灾中心之间虚拟主机或应用的数据保护;根据业务的RPO要求以及生产中心与容灾中心的网络状况,可以选择同步复杂或异步复制
      基于存储阵列复制的云平台主备容灾框架
    • 基于主机复制的云平台主备容灾框架 主要是通过虚拟化平台的Hypervisor层进行IO不活与复制,实现虚拟主机数据的远程复制。具有实时IO分流复制、复制网关、可扩展和存储无关等特点

    基于主机复制的云平台主备容灾框架

    • 基于VIS的云平台双活容灾部署框架
      基于VIS的云平台双活容灾部署框架

    基于VIS的云平台双活容灾是结合VIS集群技术和云平台Active-Active模式部署技术实现的装货容灾方案。通过在云平台与存储阵列之间部署VIS集群,多个VIS节点按Active-Active模式分布在本地和远端,并结合VIS的镜像技术,可以支持本地和远端同时访问共享存储;实现容灾倒换后存储业务的无缝切换;同时云平台同一个集群内的主机按照Active-Active模式分布在本地和远端,利用虚拟的HA功能实现容灾自动倒换功能

    安全业务

    一个体系化的分布式云数据中心安全解决方案必然应该覆盖所有组成元素,且安全元素支持逻辑隔离,而不能单用传统的技术手段、物理边界实现其全部的安全保障。安全子系统架构目标

    • 模块化 从物理层安全、网络安全、主机安全、应用安全、虚拟化安全、用户安全、安全管理、安全服务八块内容进行设计
    • 端到端安全 实现用户从接入、使用、完成退出的端到端的安全防护
    • 低耦合 涉及到数据、网络、应用等各个层面的安全防护,但整个安全架构体系具备低耦合性的特点,各种安全技术之间不存在强关联性
    • 逻辑隔离
    • 易扩展
    • 合规性

    部署架构

    分布式云数据中心从分层、纵深防御思想出发,根据层次分为物理设施安全、网络安全、主机安全、应用安全、虚拟化安全、数据保护、用户管理、安全管理等几个层面,全面满足用户的各种安全需求,安全子系统架构图如下

    安全子系统架构图

    该架构中包含以下安全层面的能力

    • 物理设施安全
    • 网络安全
    • 主机安全
    • 虚拟化安全
    • 应用安全
    • 数据安全
    • 用户管理
    • 安全管理
    • 安全服务

    关键特性

    • 网络安全防护
      • 虚拟防火墙
      • 软件虚拟防火墙VSA
      • 安全组
      • 下一代防火墙统一威胁防护
      • VDC网络安全防护框架
      • 防IP及MAC仿冒
      • DHCP隔离
      • 广播报文抑制
    • 虚拟化无代理防病毒
    • TPM完整性保护

    ManageOne简介

    ManageOne在解决方案中承担CMP(Cloud Management Platforms)的职责,通过自研和集成的方式,为企业客户提供对企业私有云资源及企业租用的公有云资源统一管理的能力,包括租户自助服务节目,云产品管理和产品目录,计量,计算、存储和网络资源自动化配置,云服务和云资源的运维监控等

    ManageOnePosition

    特点

    ManageOne系统特点包括:多级VDC管理、一云多池、混合云管理、虚拟化资源池管理、主动式运维、云服务运维、多级云统一运维、开放易集成、多规模部署等

    架构

    ManageOne产品架构主要介绍ManageOne的运维面和运营面,以及ManageOne与周边系统的关系。ManageOne围绕云服务及其依赖的基础设施资源提供运营和运维监控能力

    • 提供云服务运营管理能力 ManageOne提供云产品管理、租户管理、VDC管理等能力,运营业务能力由云服务提供,从而实现云服务的统一运营管理
    • 提供云服务及虚拟资源运维监控能力 ManageOne基于南向对接系统中抽取的资源对象的告警、性能、拓扑等信息,对资源进行监控、统计、分析与预测,从而实现云数据中心资源的统一运维管理
    • 提供对基础设施的运维监控能力 ManageOne提供对计算、存储、网络设备的运维监控能力,采集和监控告警、性能等数据,从而实现基础设施的统一运维管理

    ManageOne

    小结

    文章介绍分布式云数据中心解决方案,其中涉及许多虚拟化技术,若有兴趣可深入研究

    参 考 文 献

    [1] Distributed Cloud Data Center V100R001C10

    [2] ManageOne6.5.1

    展开全文
  • 云数据中心备份容灾设计方案

    万次阅读 2018-09-20 15:06:25
    导读:云计算中心 涵盖系统多、类型复杂、关键性...云数据中心备份容灾设计方案   本文主要内容: 数据中心业务分析 灾备技术实现 未来两地三中心规划 灾备方案实施步骤   数据中心业务分析   业务恢...

    导读:云计算中心 涵盖系统多、类型复杂、关键性程度不一,因此对于恢复目标也有不同的要求,针对不同恢复目标的业务采取不同的灾备技术,同时考虑到数据中心重要性,需要建立同城灾备数据中心,并规划异地灾备中心,实现两地三中心。

     

    云数据中心备份容灾设计方案

     

    本文主要内容:

    • 数据中心业务分析
    • 灾备技术实现
    • 未来两地三中心规划
    • 灾备方案实施步骤

     

    数据中心业务分析

     

    业务恢复目标

    XX云中心业务涵盖系统多、类型复杂、关键性程度不一,因此对于恢复目标也有不同的要求,如针对核心关键的业务系统,要求24小时持续可用,即RPO、RTO几乎为0,针对一般性重要业务系统(和关键业务有关联度)平台则有一定的,RPO、RTO的时间窗口。

    业务分级

    鉴于以上分析,本方案建议根据恢复目标将业务的关键等级划分为两部分,分别为 核心业务系统、一般业务系统 两个级别,根据不同级别分别有针对性的制定容灾备份方案。

     

    灾备技术实现

    根据以上业务分级和恢复目标要求,针对核心业务系统,采用存储数据双活的方式来实现业务平台的持续可用;针对一般性重要业务平台,建议采用主流成熟的备份系统进行定时备份保护;针对一般业务系统可根据业务数据的重要度,采用定时备份或者不备份策略。

    一、本地备份保护

    针对生产中心业务系统本地保护设计拓扑规划如下:

    云数据中心本地备份保护拓扑图

     

    本方案分别对两级业务平台采用相应的容灾技术实现:

    1)  针对关键业务系统,本方案采用存储双活的方式保障关键业务的连续性,提升关键业务数据的可用性和可靠性,在任意一台存储出现问题时,存储自动切换应用无感知;

    2)  针对一般系统,建议采用主流备份软件来实现基于时间策略的定时备份,来保证业务数据的可靠性和可恢复性要求;分级保护的模式一方面保证了关键和重要业务系统,同时降低了项目在本地保护中的总体投入成本。

    二、同城灾备

    XX云数据中心业务平台是重要的市政综合服务平台,涉及面广,实时性高,一旦出现数据中心级灾难,带来的损失无法估量,因此同城建立一套灾备数据中心显得尤为必要,本方案建议拓扑规划如下:

     

    三、灾备数据中心规划

    XX云数据中心的灾备依托于XX大厦的数据中心,实现数据及时的灾备,保障业务的安全实现同城灾备。XX云数据中心与XX大厦中心之间通过裸光纤直接联通,保障链路的通畅,从而实现XX云数据中心所有业务数据的同城灾备,保障数据在远端有一个可用的副本。为了实现XX云数据中心在XX大厦容灾中心的容灾,在XX云数据中心和XX大厦灾备中心分别部署相应存储设备和网络设备。

     

    未来两地三中心规划

    考虑XX云数据中心容灾系统演进和未来业务及数据高可用性要求,未来XX大厦数据中心与政务云数据中心可以考虑升级为双活数据中心,未来灾备规划拓扑如下:

     

    未来双活数据中心可在现有存储平台进行升级,即两地利用存储平台的双活同步机制,结合应用系统的集群应用,可实现两地同时进行业务的负载分担,确保关键应用平台在数据中心级别灾难的情况下,仍然可以持续提供业务支撑服务。在异地构建政务云的第三灾备中心实现政务云的两地三中心,保障业务的连续。

     

    实施步骤

    此方案的建设可分三步走,完善本地系统冗余建设及同城数据灾备、建设同城双活平台、建设异地数据容灾平台。

    一、 完善本地系统冗余建设

    完善运行在单独存储上或裸机部署的业务系统,避免因主机故障造成数据面临的风险。建议完善本地存储系统的冗余建设,同时搭建X86架构的虚拟化平台,并将业务系统迁移。

    (1) 虚拟化部署。将X86服务器进行虚拟化整合,提高资源利用率,同时虚拟化后虚机资源更丰富,业务系统通过多机的方式部署,提升业务服务可靠性。

    (2) 存储冗余设置。存储是业务数据的唯一载体,双机部署存储系统。双存储读写的技术有多种选择,比如同品牌存储之间的镜像、通过第三方软件实现基于操作系统级的存储镜像、存储虚拟化网关实现异构存储的统一管理。基于可扩展性考虑,采用存储虚拟化网关实现存储的冗余。

    二、 建设同城应用容灾平台

    建设同城双活平台。同城部署的好处在于裸光纤可达,将生产中心和应用级容灾中心IP网络和SAN网络同时打通,可以便捷的实现数据的同步和业务的实时切换,根据业务的重要性分别部署不同等级的容灾级别,核心业务实现双活,非关键业务做低等级的应用级切换部署,确保容灾中心也投入生产,提升投资效益。

    三、 建设异地数据容灾平台

    高级别的数据容灾对距离和带宽要求很高,对信息化建设是一个严峻的考验,数据、网络的延迟因实时同步会降低生产中心的使用效率。

    我们规划统一在异地云计算中心搭建数据容灾平台,完成数据远程容灾。此处应用的部署模式实现的容灾,能达到为国家标准的等级四标准。

    (1) 部署方式。服务端+客户端的模式,服务端部署在异地数据容灾中心;客户端部署在生产数据中心和该城同城容灾中心。

    (2) 在线模式。通过专线将容灾中心与生产节点互联,按照策略实现定期的数据备份,数据备份操作在生产节点,存储节点在远程容灾中心。数据备份后传输是一个异步的过程,可根据业务量定制专线带宽,节省带宽费用,初始规划带宽为100M。

    (3) 传输模式。数据会在源端去重、压缩、加密,保障在容灾中心的数据时安全可靠。

     

    精容数安解决之道

     

    一、方案配置说明

    1、本地备份系统配置

    • 在政务网系统中接入一台备份服务器,并安装RunStor备份软件服务器端,作为本地备份系统的管理中心。
    • 给需要备份的业务服务器分别安装RunStor备份软件客户端用于接收反馈备份服务器发出的指令。
    • 通过 RunStor备份软件的全中文统一界面管理,并分析云平台的实际情况,分别对每一台服务器数据进行备份策略定制,即可将数据按照既定策略备份到备份服务器中。
    • 如果云平台中虚拟服务器数量较多,亦可通过RunStor备份软件的虚拟化无代理备份,通过虚拟化平台接口,直接将平台上所有虚拟机进行既定策略的整机备份,无需在每台虚拟机上安装备份客户端。

    2、异地备份系统配置

    • 在异地网络中接入一台备份服务器,并安装RunStor备份软件服务器端,作为异地备份系统的管理中心,并提供可以承载与本地备份系统通信和数据传输的网络。
    • 建立备份数据迁移策略,通过既定策略,定时将本地备份系统中的备份数据迁移到异地备份系统中保存。

     

    二、方案优势

    1、实施简单、不影响业务

    精容数安云备份解决方案,现场实施简单快捷,实施过程确保用户各项业务完全不中断,保护用户的利益。

    2、 专业级的安全措施

    除了多身份多权限登录口令验证外,支持系统各组件之间通信协议加密、支持自签名证书和非对称密钥加密算法,在数据传输及数据存储过程中全程采用CA证书加密,达到金融级别的安全保护等级,杜绝备份环节成为信息安全的短板。

     

     

    3 、 多租户模式的数据保护系统  

    • 物理统一, 逻辑隔离;
    • 多级权限 管理;
    • 不同租户 不同授权模式
    • 备份速度控制;
    • 备份空间控制。

     

     4 、 强大的兼容 、利旧性

    不仅兼容windows、Linux、Unix等常用操作平台,同时还支持各类国产操作系统。可以兼容用户现在和未来的所有系统升级和扩建。

    • 可以支持Oracle、SQL Server、Sybase通过数据库做到任意时间点恢复,并且支持DB2、Informix及开源(Mysql、PostgreSQL等)和国产数据库(达梦、南大通用、人大金仓等)。可以兼容用户现在和未来的所有应用、数据库升级和扩建。
    • 支持备份到虚拟磁带库(VTL)、磁带库、光盘库和文件共享服务器(NAS)等,为用户未来的系统规划提供更大的选择空间。
    • 支持第三方磁盘阵列、服务器、磁带库、虚拟磁带库等设备的扩容,实现利旧,响应国家绿色低碳号召。

    5 、 丰富的管理方式

    • 支持故障提醒,可通过邮件和短信的方式告知系统管理员,保证备份任务的运行流畅,避免系统故障后无数据恢复的局面发生。
    • 可通过手机、Pad等移动终端上的专用APP对备份任务进行监控,提高备份系统的有效管理,确保系统管理员能随时随地掌握备份过程的进展情况。
    •  

    文章部分内容转载自公众号:爱方案(ID:ifangan)

     

    — — 关 于 精 容 数 安 — —

    精容数安,是自主、领先的数据安全管理厂商,提供数据全生命周期管理产品和服务。公司以“数据安全、数据管理、数据运营”为主线,现已建立了一条完善的数据全生命周期管理产品线。精容数安有着从业20余年的技术和管理团队,全系产品均为自主研发,致力于保护数字资产、深挖数据价值,为用户在实现数字化转型的过程中确保数据的保密性、完整性、可用性以及业务的连续性,助力全产业的转型、升级和变革。 

    拨打24小时直通热线(Tel:400-6616-356),了解更多关于精容数安的信息!

     

    展开全文
  • SDN在云数据中心的架构

    万次阅读 2017-05-19 00:35:05
    前言 SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用...本文站在云数据中心网络维护工程师的角度,给大家分享SDN与云数据中心结合的前世今生。 一、云数据中心


    前言

    SDN概念一直如火如荼,若是要谈到概念落地及大规模应用,一定离不开SDN在云计算数据中心的实践应用。云数据中心对网络提出了灵活、按需、动态和隔离的需求,SDN的集中控制、控制与转发分离、应用可编程这三个特点正巧能够较好的匹配以上需求。SDN,可以看为是软件开发和网络技术的混合领域。本文站在云数据中心网络维护工程师的角度,给大家分享SDN与云数据中心结合的前世今生。


    一、云数据中心为什么要引入SDN

    云计算近十年来受到互联网、IT和电信业共同的关注,云计算技术的快速发展和广泛应用使得数据中心的业务形态产生了很大的变化。目前数据中心业务聚焦在Iaas层,即云计算数据中心利用自身所拥有的计算、存储、网络、软件平台等资源向租户提供Iaas虚拟资源出租。典型的IaaS资源包含云主机(虚拟机)、对象存储、块存储、VPC专用网络(VPC,Virtual Private Network虚拟私有云)、公网IP、带宽、防火墙、负载均衡等产品。

    在网络层面,假设暂不考虑公网IP、带宽等衍生网络产品,仅是云主机,网络上最基本的技术要求就是可迁移性和隔离性。可迁移性,通常是指云主机在数据中心具备自动恢复能力。当云主机所在宿主机(物理服务器)出现宕机时,云主机能够自动迁移至另一台正常运行的物理服务器上且IP保持不变。隔离性通常可以分为两个层面,一是不同租户间的网络隔离,鉴于安全考虑,不同租户间内部网络不可达;二是同一租户内部不同子网(vlan)间的隔离,为业务规模较大的租户提供的多层组网能力。

    因云主机迁移IP不能变,进而要求网络需处于二层环境中,早期云数据中心在组网上通常是采用大二层技术。大二层技术,简单理解就是整个数据中心是一个大二层环境,云主机网关都位于核心设备上。一想到二层环境,肯定离不开广播风暴,也离不开遏制广播风暴的生成树协议。全网都用生成树协议,势必会阻塞较多的网络链路,导致网络链路利用率不足。为了解决利用率不足的问题,思科VPC(这个跟上文的VPC不一样,virtual port channel虚拟端口转发)技术和华为华三的IRF堆叠技术应运而出。简单的理解,上面两种技术都是对生成树协议的欺骗,最终使被生成树协议阻塞链路转变为可使用状态,提升链路使用率。结合大二层技术使用的租户隔离方式有两种常用的,一个是vlan隔离,一个是VRF(Virtual Routing Forwarding虚拟路由转发)隔离。若是采用vlan隔离,通常需要把云主机网关终结在防火墙上,这样才能满足租户间安全隔离的需求。这种模式下,一般是一个租户对应一个vlan;针对同一租户有多子网的需求,则需要在网关设备防火墙上通过较为复杂策略来实现。若是采用VRF隔离的方式,通常是把云主机网关终结在高端交换机或者路由器上,一个租户对应一个VRF。针对同租户有多子网的需求,则是一个VRF+多个vlan的模式。

    受限于vlan/VRF规模,无论是“大二层+vlan”还是“大二层+VRF”,都存在云数据中心租户数量不超过4096个的限制,同时也不允许租户间的IP地址段冲突。在加上传统IP网络架构在虚拟化、灵活配置和可编程方面能力不足,在云数据中心网络服务业务链编排上也有所制约。为了解决上述问题,出现了在云数据中心网络中引入了SDN的技术潮。

    二、SDN在云数据中心的系统架构

    SDN的3+2架构模型,从上到下分为应用层、控制层和转发层。以控制层为基准点定义了两个外部接口,其中,向上为应用提供自定义业务功能的API称为北向接口,向下控制使用底层网络资源的API称为南向接口。常用的北向接口标准是Restful,常用的南向接口标准是Openflow。

    SDN的3+2架构模型相信大家都不陌生。SDN在云数据中心跟云管理平台(以Openstack为例)整体融合考虑时,比较常见的系统架构如下所示。针对下图进行几个说明,说说为什么常用这种模式:


    1、关于系统层级的划分

    推荐的SDN系统层次划分中,云数据中心运营管理平台和Openstak统一被定义为应用层,独立的SDN控制器设备构成控制层,底层网络设备构成了转发层。在业界关于Openstack数据中心系统层级,除了图中所示,还有另外一种划分方式。在另一种划分方式中,是把Openstack的Neutorn当成是控制层,由neutron直接对接底层网络设备。在服务器规模较大的云数据中心,尤其是采用虚拟交换机时,控制器跟网络设备(虚拟交换机)之间的交互流量是比较大的。在实际部署中,通常会引用商业版的SDN控制器。商业版的SDN控制器与Neutron的对接,主要体现在于Neutron插件上。

    Neutron是Openstack的网络管理模块。Neutron主要由Neutron server、插件代理(Plugin Agent)构成。Neutron Server包含守护进程Neutron-server和各种插件Neutron-*-plugin。守护进程Neutron-server对外暴露API接口,配置管理网络插件,并把来自API的调用请求传给已经配置好的插件进行后续处理;插件Plugin分为core和additional两类,需要访问数据库来维护各种配置数据和对应关系。插件代理(Plugin Agent)通常位于计算服务器上,与Neutron上的插件进行通信,名字为Neutron-*-agent,通常与Neutron上的各种插件Neutron-*-plugin相对应。Neutron默认的core plugin是ML2。若是引入商业版的SDN控制器,需要安装对应的core plugin用来取代ML2,同时也需要安装对应的插件代理。在这种情况下,SDN控制器通过Neutron core plugin与neutron server进行通信连接,通过控制器南向接口纳管底层网络设备,例如通过openflow下发流表。

    2、关于管理流量和业务流量的区分:

    为保障云数据中心的网络信息安全和流量走向有序,基于数据类型将系统架构划分管理和业务两个平面。管理流量(云平台、控制器及网络设备之间控制流量)跑在管理域交换设备构建物理的通道上,业务流量(所有租户的业务流量)跑在业务域交换设备构建物理的通道上。两个数据通道完全隔离,物理独立。上图中的虚线为系统管理流量,实线为用户业务流量。管理平面并无特殊的组网需求,依旧采用传统组网。业务平面承载数据中心全部用户数据流量,需要考虑前面提到的虚拟机迁移大二层、租户隔离以及IP允许冲突等组网需求。云数据中心在业务平面通常采用vxlan的组网模式。需要澄清一点的是,Openstack的Neutron支持多种业务平面的组网模式,如flat, VLAN, GRE 和VXLAN。在云数据中心选择XVLAN的组网,主要是为了满足前面提到的三个组网需求。

    Vxlan,简单理解就是隧道报文封装。原始以太网数据包,包括原始IP/MAC地址和vlan等报头信息,均成为vlxan的报文内容。Vxlan包头,包含vxlan隧道两端VTEP(进行vxlan封装的网络设备)的IP/MAC地址和vxlan设备对应的vlan,与原始以太网报文无关。在这里,有三个网络标识要拎出来。

    • 第一个是外层802.1Q,位于vxlan报文封装的包头,是vxlan设备对应的vlan,也叫做underlay网络的vlan,为全局vlan。
    • 第二个是内层802 .1Q,位于原始以太报文内部,是原始用户数据对应的vlan,也成为本地vlan,仅在用户的虚拟机上联的vxlan设备内部有效。
    • 第三个是vxlan的隧道标识,也叫做VNI,是区分vxlan隧道的关键。Vxlan标识位有24位,即最多可支持2^24个,数量上远远胜出vlan/VRF。



    业务平面引入vxlan组网,vxlan和租户/租户网络之间的关系是云数据中心的组网模型重点。以一个云数据中心的典型租户VPC为例,分别分析vlan、VRF和vxlan组网的隔离模型。假设租户有2个子网,分别是子网A(192.168.100.0/24)和子网B(10.100.1.0/24),同子网二层互通,跨子网三层互通。

    • 若是在vlan组网中,子网A和子网B分别对应为两个vlan,vlan的网关终结在防火墙上,通过防火墙策略实现跨子网互通。
    • 若是在VRF+vlan的组网中,租户对应为一个VRF,子网A和B分别对应两个vlan,VRF关联两个vlan实现三层互通。
    • 若是在vxlan的组网中,需要理解前面提到的本地vlan和vxlan VNI和全局vlan这三个概念。Vxlan设备是封装和解封vxlan的边缘设备,因此以vxlan设备为界面,形成了全局vlan域和本地vlan隔离域。全局vlan域是vxlan设备和业务域传统网络设备构建的区域,此vlan是在数据中心业务域全局生效的。以下图为例,全局vlan标识为10,是vxlan设备与传统网络互连的二层标识,一般是在组网初始化时就确定了,后续不会更改。Vm至vxlan设备之间是本地隔离域,vlan仅在本地生效。在不同的本地隔离域中,用户每一个子网分别对应一个vlan,同一个子网的本地vlan标识可以相同也可以不同。如图所示,子网A在vxlan设备1构建的隔离域中对应为vlan100,在vxlan设备2构建的隔离域中对应为vlan200。在vxlan组网环境中,尤为关键的是vxlan的VNI标识。VNI标识也是在业务域全局生效的。业界常用方式是,用户的每个子网对应一个vlxan隧道,即一个VNI标识。跨子网通信也对应一个vlxan隧道。如图所示,子网A内部通信的vlxan VNI是10003,子网B内部通信的vlxan VNI是10002,子网A和子网B之间通信的vlxan VNI是10001。SDN控制器需要分配并存储云数据中心用户的vpc网络和底层网络设备本地vlan/vxlan的正确映射关系,设计并下发合适的流表至vxlan,确保业务流量的正常访问。


    3、关于物理交换机和虚拟交换机的选择:

    在SDN云数据中心,进行vxlan封装的可以是物理交换机也可以是虚拟交换机。通常把基于虚拟交换机实现vxlan封装的称为软件解决方案,基于物理交换机实现封装的称为硬件解决方案。这两种方案各有优劣,云数据中心可以基于自身业务模型和规模进行适配选择。

    在软件解决方案中,每台硬件服务器上都有虚拟交换机来承载vxlan的封装/解封装。以开源OVS为例,虚拟交换机有br-int和br-tun两个网桥,br-tun承载vlxan功能。也有其他的商用解决方案,仅有一个网桥来实现全部通信功能。控制器跟大量的虚拟交换机的控制流量交互,是方案的难点。尤其是虚拟交换机有首包请求机制时,控制器的压力比较大。

    在硬件解决方案中,通常由接入交换机来承载vlxan的封装/解封装。接入交换机通常是下挂24/48的硬件服务器,在同规模数据中心的软件方案相比,大大减少了vxlan设备数量。一些商业解决方案中,接入交换机通常会跑bgp evpn,用来在控制平面交互主机路由等关键信息。在硬件解决方案中,通常也会采用上面提到的本地vlan/全局vxlan/全局vlan这三个隔离概念。因为vxlan设备的本地隔离域很大,用户间隔离及用户内部互通流量模型极为复杂。为了区分不同用户,通常会在vxlan设备引入VRF,即一个用户对应一个VRF(VRF是全局生效的),简化控制复杂度。

    展开全文
  • 同时重点阐述了智能网联交通体系之车路协同边端架构方案,介绍了中心云、交通专网/电信网络、边缘、车载/路侧终端协同的“-管--”统一架构,同时提出了基于边端架构的车路协同多源数据融合信息服务...
  • 打通的界限,根据不同的垂直行业应用,就调度不同的“--”来处理,快速响应各行各业的需求,提供“端到端”的算力、时延、体验保障。 华为瑶光作为具有超强的云边协同能力的平台,在5G++AI时代...
    摘要:华为云瑶光作为面向云、AI、5G时代的分布式云操作系统,承载未来“分布式、确定性、多维智慧”的云,致力于打造“极优、极简”的云上体验。

    未来云的形态,不再是集中式的,也不是多个区域的,而是“云中心+云边缘+云终端”的协同。海量节点,海量连接,海量计算都将为企业云上业务带来了挑战。打通云、边、端的界限,根据不同的垂直行业应用,就调度不同的“云-边-端”来处理,快速响应各行各业的需求,提供“端到端”的算力、时延、体验保障。

    华为云瑶光作为具有超强的云边协同能力的平台,在5G+云+AI时代充当着“大统帅”的角色。华为云瑶光系统为企业在云基础服务的创新过程中遇到的痛点,计算资源碎片的优化提供底层的技术支持。同时,瑶光的推出也在重新定义云服务的标准。

    随着技术和市场的发展,众多企业在发展的过程中,都会逐渐的扩大企业规模、产品不断出新、业务复杂度的增加等问题。以华为云为例,当前华为云面临多维经营挑战:

    1) 规模大:华为云布局全球多个地理区域和可用区,提供高速稳定的全球云联接网络、贴近客户的本地化服务;

    2) 资产多:华为云的资产种类和数量多,包含模块化数据中心、海量服务器设备、复杂组网及线路等;

    3) 产品种类丰富:华为云面向用户提供200+云服务、190+解决方案、3500+云市场商品等;

    4) 用户业务复杂:承载300万+企业用户与开发者多样应用,涵盖AI应用、AR/VR、云游戏、云手机等;

    5) 经营流程复杂:包含从数据中心、机房机柜等基础设施建设,到服务器生成、物流发货、上架部署等资源池建设,再到虚拟化、大规模分布式调度、资源池动态优化、产品和服务多样化以及弹性供给等调度和服务能力。

    为此,华为云瑶光基于现网资产经营、客户支撑、产品研发上线等经营活动,构建了智能分析与规划平台,并基于此催化出新的经营和产品能力。

    图2 瑶光智能分析与规划平台架构

    五大系统,激发云服务能力

    瑶光智能分析与规划平台包含如下核心子系统:数据采集和对接子系统、数据存储和服务子系统、数据分析和建模子系统、资源池经营子系统、业务创新子系统。接下来将依次展开介绍。

    • 数据采集和对接子系统

    子系统向下对接华为云全球的基础设施,对海量资产的监控数据进行实时采集和动态分析优化;对复杂的流程(例如规划、建设、运营、运维等)进行信息化和数字化;对产品和服务的管控面数据进行对接,获取服务能力和质量。

    图3 数据采集和对接子系统

    为保证数据的全面性、准确性、多样性,数据采集子系统提供如下主要能力:

    1) 分布式数据采集和对接:数据分布在全球各Region,数据采集也是分层、分布式部署,以此满足数据分布式采集和对接的能力;

    2) 安全的数据采集和对接:数据源系统不能由于对接出现故障,采集和对接需进行流控,以降低对数据源系统可靠性的影响。

    • 数据存储和服务子系统

    数据存储和服务子系统将采集到的海量数据进行分布式存储。由于经营各模块产生的数据格式差异较大,存储模块提供了数据降噪、降维、压缩、清洗等预处理功能,通过对数据的时间序列化处理为周边系统提供数据服务。

    图4 数据存储和服务子系统

    该子系统通过不断积累数据,构建了包含故障经验模式库、经营操作模式库、调度优化数据库、监控画像模式库等在内的关键数据资产,助力运维和运营水平的提升。

    • 数据分析和建模子系统

    数据分析和建模子系统提供了大数据和AI算法的运行环境,业务专家、算法和模型专家基于此进行了数据探索,算法和模型开发运行通过插件化、任务调度管理能力,使得周边系统可快速处理数据并获取结果。

    图5 数据分析和建模子系统

    更进一步,该子系统支撑了多种不同运行环境、不同语言编写的算法,通过多版本管理、参数配置自动化推送、仿真迭代自学习等,提升算法和模型的上线效率和智能化水平。

    • 资源池经营子系统

    资源池经营子系统面向资产经营、运维、客户支撑、产品研发、算法模型等团队提供资源池的经营管理能力。通过指标大屏、管理Console、报表等实现全面、实时查看资源池的经营状态。

    图6:资源经营池子系统

    该子系统在实际经营过程中,构建了全面的分析能力和指标体系,例如:

    (1)面向资产精细化经营:分配率预测、闲置分析、供货分析等

    (2)面向高性能分布式调度:热点分析、碎片分析、调度性能等

    (3)面向高可靠运维:故障智能分析、资产健康度打分、上线效率分析等

    • 业务创新子系统

    为进一步发挥数据的价值,业务创新子系统通过分析和推荐能力,驱动已有产品的创新和改进,提供新的产品和服务供用户使用。

    图7:业务创新子系统

    目前,基于瑶光智能分析和规划平台驱动的示例都已经在有了应用。正如开篇所提到的竞享实例,为了方便用户选购适合的产品,瑶光平台的智能推荐结合大数据分析,提供了产品购买建议,后续结合画像、多元算力匹配等高级功能,即将提供更加高级的推荐能力。

    在硬件产品上,华为云将瑶光智慧云脑应用在HECS(云耀云服务器)上。我们知道,HECS是华为云推出可以快速搭建应用、简单易用的新一代云服务器。结合瑶光的技术支持,HECS更是为用户打造了“极优,极简”的云上体验,全面释放技术红利。

    随着5G、AI、IoT等新兴技术规模化的普及,将会有更多应用依托云计算来提升体验,加快企业数字化转型。好产品更应该让更多的用户使用到。在去年的11月份,华为云对外宣布将瑶光智慧云脑系统正式商用。瑶光作为面向“5G+云+AI”时代打造的智慧云脑,为了更好地帮助用户,瑶光平台的五大关键能力全面激发华为云能力,提供更优服务,助力用户应对未来挑战:

    01全域调度:让云来到身边

    面对万级站点、百万级主机的分布式云形态,瑶光通过全域调度能力打通云、边、端的界限区隔,实现国、省、市、县的全域覆盖,以就近接入的方式为客户带来大幅的带宽成本节约与10倍服务部署效率的提升;低至5毫秒的时延圈,可为自动驾驶、AR/VR、工业互联网等极低时延要求的场景提供技术保障。

    02动态协商与治理:确定性背后的分秒必争

    在端与云的每次交互过程中,每比特数据都将途经广域网(如5G)、边缘站点、数据中心,再经过一系列应用处理、优化内核处理、软硬件加速引擎、高速存储等1000+微服务来进行复杂而精细的处理。

    瑶光通过全链路动态协商与治理保障了各模块间的有机协同,实现毫秒级调度与决策、微秒级IO处理能力,为客户提供确定性低时延及业务零抖动保障。

    这也更适合未来5G时代,企业关键应用上云的确定性、低时延需求,如工业控制、自动驾驶、实时风控等。

    03多目标优化:让“鱼”和“熊掌”可兼得

    随着客户对性能、稳定性、可靠性等需求维度的增加,模型求解的复杂度也将呈指数级增长,传统的算法和算力难以在有限的时间完成求解。

    瑶光依托多目标协同建模自研A-DNN算法,利用Atlas900最强计算集群,突破多目标最优化求解的难题。

    此外,通过资源精准画像与自学习能力,瑶光将提供智能优化建议、智能调优和智能购买服务,为客户提供极优、极简的云上体验。

    04多样算力智能匹配:赋予云上业务最优解

    Cloud2.0时代,企业应用上云进入爆发期,应用多样性时代需要多样算力来承载最合适的负载,以获取更高效率和性价比。

    华为云拥有包括鲲鹏、昇腾在内的业界最丰富的算力资源和不同粒度的算力封装,满足灵活多变的业务诉求。

    其中,移动应用优选的鲲鹏算力可实现十倍并发性能提升,且对于客户各阶段成本和持有周期诉求,瑶光可推荐最佳商业模式,最佳算力,最佳框架选择,做企业最佳的技术伙伴。

    05全栈可信,提供更中立安全的云服务

    • 技术上,华为云业界独家拥有从底层芯片(鲲鹏,昇腾)、到整机(服务器、存储),再到操作系统、中间件、数据库全栈可控的产品和技术,并拥有超过八万条的故障经验模式库;

    • 服务上,华为拥有30年服务大企业客户的经验与积累,华为云原生自带企业级可靠性基因,可以提供更懂企业诉求的、端到端的可靠服务。

    瑶光不断完善智能故障预测及自愈能力,通过时空分布故障预测AI算法,使硬件故障率下降70%,多重措施保证云上业务运行稳定性。同时,华为云已通过全球50+合规认证、已上线云服务100%安全特性覆盖,是企业业务最放心的运行环境。

    面向云+AI+5G时代,业务的创新也在驱动云服务提供商加速创新。华为云瑶光支撑华为云经营朝着更加精细化、智能化、创新化的方向前进,从而为客户提供技术领先、稳定可靠、安全可控、开放创新的全栈智能云服务。

     

    点击关注,第一时间了解华为云新鲜技术~

    展开全文
  • 架构对运维系统的新需求和新挑战 引入云计算和业务需求带来运维压力 随着越来越多的企业拥抱云计算,为了支持业务系统的快速上线、灵活伸缩以及更高的SLA要求,再加上有限的IT运维成本,运维人
  • 基于华为产品的高校云数据中心建设规划设计方案

    万次阅读 多人点赞 2017-05-18 22:38:11
    建立统一云数据中心管控平台,实现资源的统一调度,当一个云数据中心有问题时,可通过这个管控平台,依托自动化技术,实现全球资源的统一弹性调度,这一切的变化,客户是无感知的。  标准化(可扩展性)...
  • 云边端一体化技术白皮书

    万次阅读 2019-02-19 10:49:33
    SuperMap打造了云边端一 体化 GIS 技术体系,致力于在 GIS 系统中充分发挥原生技术的优势,以更加友好的方式,支撑地理空间要素的建模、存储、处理、分析等,使用户在更多种终端设备上,更快速、高效、低成本地...
  • 边缘容器致力于实现--一体化协同,通过非侵入增强方式,完美拓展原生的边界。 阿里边缘容器已经顺利落地杭州‘亲橙里’智能楼宇项目,实现智慧停车、物业管理、人脸识别、千人千面等场景应用,这也是阿里...
  • 刚接触网络的一段时间里,作者经常把数据中心等同在一起来看待,以为数据中心就是成群的虚拟机和各种神秘的转发设备,支撑着“按需服务”的商业模型。后来才慢慢意识到,这是两个交织在一起但完全不同的概念。...
  • 简介: 本文来自阿里高级技术专家张毅萍(屹平)的分享原文,阐述了他对边缘计算的理解、阿里边缘计算的布局及云边端三体协同网络的融合与挑战。 本文来自阿里高级技术专家张毅萍(屹平)的分享原文,阐述了...
  • Border Leaf主要用于南北向网关,将南北向流量发送给对的PE及从PE接收发往数据中心内部的流量 Service Leaf主要用作接入VAS设备,如防火墙、负载均衡器 Border Leaf和Service Leaf设计需要考虑: Border Leaf双活+...
  • 随着云计算的快速兴起,作为IDC(Internet Data Center,互联网数据中心)市场主要玩家的各大运营商,都在加速建设依托云计算平台的数据中心,将计算、存储、网络等资源作为服务提供给客户,以提升IDC业务的盈利水平...
  • 端边云协作推理相关论文总结

    千次阅读 2019-08-18 22:20:19
    我们基于端边云架构来描述一个边缘学习框架,对于每个终端设备,这里有一个或几个边缘服务器可以被访问。在数据被上传到用来主神经网络训练前,需要被卸载到一个可访问边缘服务器来做预学习或预处理。另外,该边...
  • 数据中心

    千次阅读 2019-05-29 16:57:28
    最近想搞一个云数据中心平台方案,方便对接供应商系统,对产生的数据的存储,管理,输出。 在做方案前,先问了自己以下几个问题: 1、数据中心平台的数据来源于哪里? 供应商(硬件数据,业务数据) 运营商...
  • 企业或用户将数据中心部署在线下,采用独立软件提供商软件进行管理。线下数据运维成本较高,故障容灾单一化,是目前遇到的瓶颈。采用上数据库并平滑兼容线下ISV软件管理可以降低企业上云难度,加速企业上云。
  • 简介:近日,阿里AIoT线上春季重磅产品发布会发布了IoT 安全中心和IoT Studio 3.0两大重磅AIoT工具,为用户持续打造稳定可靠、便捷安全的AIoT云网边端基础能力。>>发布会传送门:...
  • 随着数字化的进程,数据的处理、存储和传输得到了飞速的发展。高带宽的需求使得短距互联成了系统发展的瓶颈。受损耗和串扰等因素的影响,基于铜线的电互联的高带宽情况下的传输距离受到了限制,成本也随之上升。而且...
  • NVo3(Network Virtualization over Layer 3),是IETF 2014年十月份提出的数据中心虚拟化技术框架。NVo3基于IP/MPLS作为传输网,在其上通过隧道连接的方式,构建大规模的二层租户网络。NVo3的技术模型如下所示,PE...
  • 本文整理自腾讯专家工程师王继罗在 2020年12月深圳 Qcon 大会上的分享内容——边缘计算场景下云边端一体化的挑战与实践 。 边缘计算想必大家都已经听过了,但是如何将业务扩展到边缘,从而实现更大的业务价值呢? ...
  • 在12月14日的边缘计算Meetup北京站上,来自阿里的高级技术专家张毅萍(屹平)做了《边缘计算与云边端协同网络的融合与挑战》主题分享,本文为张毅萍(屹平)分享原文,阐述了他对边缘计算...
  • 企业通过部署“边端”安全防护解决方案,能够有效实现将网络安全能力从中心延伸到边缘,实现业务快速网络安全防护和处理,为 5G 多样化的应用场景提供网络安全防护。因此,企业更有信心利用 5G 部署安全的智能...
  • 我们近几年经常会听到一个词叫做“云端协同”,即云和相互合作、互相渗透的物联网部署方式,这里的云指的是“云计算”或者说“云数据中心”,而就指的是终端。当云端协同这个词开始步入大众的视野之后,边缘计算...
  • --一体化的计算新格局

    千次阅读 2018-10-29 09:44:00
    转载自: https://www.cnblogs.com/doit8791/p/9825621.html由浙江大学、Google、RedHat、华为等企业于2015年共同参与成立的原生基金会(Cloud Native Computing Foundation,CNCF)秉承着协助、使能、鼓励(help,...
  • 针对不同批次,不同厂家和不同技术规格的产品全局掌握有较大困难,--协同EasyCVR安防视频云服务系统从整体解决方案脱颖而出,为综合运维平台建设提供较好的解决方案,从第三方角度出发,兼容各大厂家产品品牌...
  • 数据中心双活该如何构建

    万次阅读 2016-04-25 21:54:24
    双活本身其实有广义和狭义之分,但是在数据中心这个前提下,我们所说的双活就是广义上的应用、网络、存储和数据的端到端的数据中心双活,顾名思义,应用、网络、存储都应该是双活状态,当然在项目部署和实施过程中,...
  • 如有疑问请加作者微信qw596583587咨询1规划设计1.1 功能需求客户本地数据中心一台... 1.2 组网设计如图所示,本地数据中心出口为一台华为 USG6300 NGFW,本地数据中心服务器网段 为 192.168.9.0/24,上分为公有子...
  • 的融合

    千次阅读 2019-04-29 17:56:16
    、管、,物联网系统的三个主要构成元素,各自技术在高速发展的同时也在不断的影响着现代物联网系统的设计。... ,我们指运行在各地数据中心的远程服务器集群及其提供的服务; 传统在软件...
  • 数据中心的BGP 说明: 这是最近在学习《BGP in the datacenter》。由于原文是全英文。所以在学习过程中,利用谷歌翻译和网易翻译,再把翻译不通的地方,加上自己理解稍微改了改。在此共享出来,需要的人可以参考...
  • 随着物联网的发展,未来的网络结构必定是“”的模式。腾讯在强大的云端能力之外,正在全面布局““和“”的计算能力,为即将到来的万物智联时代提供技术和平台支持。“”的计算“”的计算 “雾...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 54,835
精华内容 21,934
关键字:

云数据中心端边