精华内容
下载资源
问答
  • 下一代存储技术
    千次阅读
    2021-01-16 14:19:03

    什么是SCM介质?

    SCM(Storage Class Memory)是当前业界非常热门的新介质形态,同时具备持久化(Storage Class)和快速字节级访问(Memory)的特点。当前也有叫SCM为PM(PersistentMemory)介质或者NVM(Non-VolatileMemory)介质。SCM介质的访问时延普遍小于1µs,比当前常用的NAND FLASH快2-3个数量级,读写时也没有NAND Flash顺序写入和写前擦除的约束,操作过程更简单;同时,SCM介质的在寿命和数据保持能力方面的表现也远超NAND Flash。基于这些特点,业界普遍认为SCM会成为颠覆存储系统设计的新一代介质,并优先应用于性能和可靠性要求较高的场景。

    SCM介质现状

    目前在研的SCM介质种类繁多,但是比较主流的有4个大类: PCM、ReRAM、MRAM和NRAM

    **PCM(Phase-change memory)**即相变存储器,利用特殊合金材料在晶态和非晶态下的导电性差异来表示0或者1的状态。其优点是结构简单,便于实现大容量和低成本,缺点是对于高温比较敏感。PCM可用于Cache加速场景和大内存应用场景,由于其寿命和内存仍有一定差距,因此需要在系统设计上针对PCM进行优化以避免“写穿”。一个典型的设计优化是搭配DRAM,形成分级的大容量内存资源池,同时满足高性能和高可靠要求。业界SCM的典型代表为Intel和Micron联合研发的3DXpoint。从当前的技术和市场发展趋势看,3DXpoint是未来3年内最具规模商用能力的SCM介质。

    **ReRAM(Resistive random-access memory)**即阻抗随机存储器,通过在上下电极间施加不同的电压,控制Cell(存储单元)内部导电丝的形成和熔断对外呈现不同的阻抗值。其优点是不同阻抗值可以表示不同状态,理论容量密度和成本可以最优;缺点是读写寿命和性能都较低,主要应用于高速的数据存储场景。典型代表厂商为HPE和Crossbar,目前成熟度有待加强。

    **MRAM(Magnetic Random Access Memory)**即磁性随机存储器,通过电流磁场改变电子自旋方向来表示不同状态,理论性能和寿命都很高,适用于贴近CPU侧的高速缓存(如L2 Cache,L1Cache),当前理论研究比较成熟,但是工艺成熟度低,实际产品容量密度较小,代表厂商为Toshiba和Everspin。

    **NRAM(Nantero’s CNT Random Access Memory)**即碳纳米管随机存储器,采用碳纳米管作为开关,控制电路通断表示不同的数据状态。由于碳纳米管尺寸非常小并且具备极强的韧性,因此NRAM理论制程可以达到5nm以下,密度和寿命及其优秀,理论功耗也比较低,可用于替代SRAM(Static random-access memory or StaticRAM)的应用场景。当前由Nantero授权其他存储芯片厂商加工,成熟度比较低,距离规模商用仍需很长的发展历程。

    在这里插入图片描述

    SCM介质产品形态和在存储系统中的应用

    高性能SSD

    SCM第一阶段的应用形态,是基于NVMe Block接口,兼容原有生态的SCM SSD,如Intel推出的OptaneP4800X系列。这种形态对现有系统架构改变不大,同时提供了相对Flash SSD更高的性能。另外,由于SCM SSD无需垃圾回收操作,避免了NAND SSD长期使用后的性能衰减问题,提供了更稳定的时延。业界基于此形态的存储产品正在逐步出现。

    这种形态在存储系统中的主要应用方式包括:

    **元数据缓存:**作为AFA产品(全闪存阵列)的元数据缓存,配合DRAM,形成内存+SCM SSD的两级缓存机制,突破内存容量瓶颈,在保持性能稳定的情况下支持更大的用户容量;

    **数据缓存:**作为用户数据的加速层,提升典型应用场景下的性能体验;

    **主存场景:**作为用户数据的存储层,提供高性能存储系统以满足某些场景的性能要求。

    字节型DIMM形态

    SCM第二阶段的应用形态,是基于内存访问语义(Load/Store),以DIMM的形态接入系统的可持久化内存。这种形态可以提供与内存接近的访问时延(100ns级),并提供相对内存更大的容量和数据持久化能力,是未来超高性能存储系统的重要基础技术。

    要利用好这种形态,需要对现有计算机系统软硬件架构进行较大变化,业界在基于持久化内存的数据结构,事务技术,硬件架构,编程工具等各方面均在进行相应的探索。如在网络方面,现有的跨CPU间内存访问受限于网络时延,无法充分发挥SCM介质持久化的特点(即使最快的网络访问也需要3µs以上,远超介质本身的时延)。因此,华为与其他IT巨头共同提出了Gen-Z标准,使得SCM可以独立以Gen-Z接口接入Gen-Z总线,各CPU可以以纳秒级的时延访问共享SCM介质,才能更好的发挥SCM的性能。

    现有跨CPU内存访问网络:

    在这里插入图片描述

    Gen-Z新一代内存访问网络:
    在这里插入图片描述
    DIMM形态存储需要的各项技术仍在探索中,华为也有相应的前沿性研究项目在进行中,在这项技术成熟后,会第一时间应用于华为存储系统中。

    小结

    SCM介质以其独特的设计原理,极大的弥补了IO设备与内存设备之间的时延鸿沟,同时使内存具备了持久化功能,必将对现有计算机体系结构以及应用方式产生很大影响,在未来很长一段时间会持续成为计算机体系创新的热点,华为也会持续关注SCM的产业化进程,利用这种新的技术,为客户提供创新性的存储产品。

    更多相关内容
  • 全息术:下一代存储技术
  • 2021年下一代数据存储技术研究报告 数据存储技术 研究报告
  • 2021年6月24日,由中国信息通信研究院主办的“2021大数据产业峰会·成果发布会”在京召开。会上,中国信通院云计算与大数据研究所大数据与区块链部副主任姜春宇发布了《下一代数据存储技术研究报告(2021年)》。
  • 本报告聚焦于企业级存储系统,从数据存储技术面临的挑战切入,详细梳理了下一代数据存储技术,跟踪重点行业的应用动态,并展望了存储产业发展趋势。力图展现下一代数据存储技术路径及其发展前景。
  • 下一代数据存储技术研究报告(2021年).pdf
  • 计算机行业:下一代数据存储技术研究报告(2021年)(46页).pdf
  • 随着互联网技术的快速发展,数据的爆炸式增长,存储系统的软硬件紧耦合设计严重地限制了存储技术的发展,也越来越无法满足移动互联网和大数据时代,对存储系统快速、多变的需求。软件定义存储(SDS)作为一种新的...
  • 此外,不同的应用对闪存的要求都不相同,如引导代码存储需要高可靠性、应用程序存储需要高读写性能、数据日志记录需要擦写次数、海量数据存储需要高密度……"在日前举办的第三届中国国际医疗电子技术大会(CMET2010...
  •  新一代存储技术显现  “多、快、省”特点  MRAM是一种非易失性磁性随机存储器。它拥有静态随机存储器(SRAM)的高速读取写入能力及动态随机存储器(DRAM)的高集成度,基本上可以无限次重复写入。其设计原理...
  • 2021年下一代数据存储技术研究报告
  • 下一代数据存储技术研究报告(2021)(46页).pdf
  • 计算机行业:下一代数据存储技术研究报告(2021年).pdf
  • 全球最大的纯闪存解决方案供应商Spansion日前宣布计划开发下一代数据存储产品系列,MirrorBit:registered: ORNAND:trade_mark:架构。基于Spansion专有电荷捕获技术的新型MirrorBit ORNAND2:trade_mark:架构将在连接...
  • 本文将介绍如何为大数据部署下一代存储基础设施
  • 20210715-中国信通院-计算机行业:下一代数据存储技术研究报告(2021年).pdf
  • 在日前举办的第三届中国国际医疗电子技术大会(CMET2010)上,恒忆嵌入式系统事业部亚洲市场部业务拓展经理祁峰为我们带来了医疗应用市场对闪存的要求以及恒忆存储器技术的介绍。
  • 高性能硬件的快速发展,诸如多核 CPU 、高带网络、高性能 SSD以及各种智能芯片,为新一代性能型全闪 SDS 提供了发展机遇,裸金属云存储应运而生。全闪 SDS 基于全用户态设计(kernel bypass)、polling 模型、专核...
  • 美团技术沙龙04 - 美团下一代分布式存储系统.1c499490-4fe8-11e6-a7f8-6561741675a1.pdf
  • 1 下一代存储系统简介 1.1云存储系统简介 信息处理技术、互联网技术、云计算技术的诞生与成长对各行各业产生着潜移默化的影响。互联网时代,数据采集手段纷繁复杂,形态五花八门,半结构化与非结构化数据体量...

    1 下一代云存储系统简介

    1.1云存储系统简介

    信息处理技术、互联网技术、云计算技术的诞生与成长对各行各业产生着潜移默化的影响。互联网时代,数据采集手段纷繁复杂,形态五花八门,半结构化与非结构化数据体量日趋增大,传统的储架构已经逐渐显现出自身的固有局限。

    在传统数据中心中,以OLTP和OLAP为代表的数据库应用占据了昂贵但又低效率的在线存储设施,交易记录、分析性数据则消耗了大量的后端存储空间。异构的存储设备难以应对大数据浪潮带来需求浪潮,无法及时利用数据支撑业务决策,并在“大、智、云、移”的时代提供多样化服务。

    下一代云存储系统融合分布式存储技术,利用标准化硬件设施构造存储池,虚拟化已有存储设施空间,互联互通,打破数据调度壁垒;在统一的系统下提供了对象、块、和文件存储服务;并且具有可靠性高、管理简便的优点。同时,下一代云存储系统具有灵活的扩展性,能够提供PB到乃至EB级的存储能力。

    1.2云存储系统设计目标

    下一代云存储系统从行业切实需求出发,面向数据中心私有云场景,实现大规模、大容量的存储资源池,整合替代现有存储设施,支撑各类OLTP或OLAP业务应用。为了能够对各类决策支撑系统、研发测试系统提供有效支撑;突破随机访问海量数据的性能瓶颈;解决数据安全性、存储平滑扩容的问题,下一代云存储系统在规划建设过程中具有以下几点目标:

    1.高性能

    下一代云存储系统首先需要有能力提供足够的性能,能够覆盖到用户大部分业务需求,满足高并发或大量的业务数据分析等需求。

    2.高可用性

    下一代云存储系统需要满足更高要求的高可用性。存储和数据高可靠性是业务活动连续开展的基础支撑。在存储发生故障时候,有相应的高可用机制来支撑和保障数据的自动恢复和动态迁移。

    3.资源动态扩展

    下一代云存储系统能够支撑资源的动态伸缩以及资源池的动态扩展,能够按需分配,弹性扩展。在系统扩容的时候,能够做到性能和容量的线性扩展,避免资源的浪费。

    4.服务、接口的多样性

    下一代云存储系统能够提供多样的存储服务,包括块设备服务来满足数据库类型的存储要求;文件系统、对象等存储服务来满足半结构化数据和非结构化数据的存储要求。因此,这就要求存储能够提供丰富的标准接口,包括文件系统接口(NFS、CIFS)、块接口(iSCIS、FC)或者对象接口(S3、SWIFT)以及对内能够提供标准的管理接口。

    5.高可管理性

    下一代云存储系统在日常部署、管理、监控的环节能够实现自动化和可视化,提高存储资源服务的可管理性,包括资源分配、资源监控、故障告警等多方面的内容,提高运维管理人员的管理效率;并且逐步支持智能化的采集和分析,高效地利用现有资源,包括对存储IOPS、存储吞吐量以及存储容量的使用进行动态的监测和预测,方便管理人员对存储现有情况进行了解和及时对未来存储的扩容进行规划。

    2 下一代云存储系统架构

    2.1云存储系统总体方案架构

    下一代云存储系统的核心是统一管理存储资源,面向云平台,提供多样化的数据服务。下一代云存储系统将应用与底层存储解耦,不依赖于传统设备和应用厂商的绑定。在未来数据中心全面转型,整体上云的过程中,实现存储与计算、网络资源的联动,顺应数据价值链向服务转移。

    图 2-1 下一代云存储系统架构示意图

    下一代云存储系统主要由基于分布式架构的软件定义存储系统和轻量化异构存储统一管理组件构成。

    基于分布式架构的软件定义存储运行在标准的X86服务器之上,利用虚拟化技术,将集群中的存储资源虚拟化为存储池,并向上提供块设备、文件和对象存储服务。同时,软件定义存储具有高性能,能够轻松应对各类高负载管理的要求,其中包括业务关键型应用与核心业务系统;多副本及强一致性技术的应用提供高可用特性;极强的横向扩展能力则为业务扩张带来的管理维护提供了极大的灵活性和便利。

    轻量化异构存储统一管理组件实现了分布式存储和集中式存储的统一自动化管理,分布式软件定义存储通过面向存储统一管理组件开放存储系统的控制接口,实现存储系统的监控与运维。通过开放的接口,异构存储统一管理组件可以实现分布式存储系统的资源划分与服务编排,并对集中式存储设备划分基于不同QoS策略的虚拟卷服务于云平台,实现与计算、网络的联动。

    2.2系统组件及功能

    2.2.1基于分布式架构的软件定义存储系统

    基于分布式架构的软件定义存储技术集中提供包括对象、块、和文件在内的多种存储服务,并且具有可靠性高、管理简便的优点,并且具有灵活的扩展性,能够提供PB到乃至EB级的存储能力。

    基于分布式架构的软件定义存储技术把所有服务器的硬盘虚拟化成为若干个资源池,提供虚拟卷的创建/删除和快照等功能,提供北向虚拟卷形式的存储服务。

    软件定义存储系统分为硬件设备层、引擎驱动层、特性功能层、服务接口层以及监控管理层五个层面,具体的功能架构图如下所示:

    图 2-2 软件定义存储系统层级示意图

    1.硬件设备层

    基于分布式架构的软件定义存储系统通基于标准的X86服务器,配以不同的磁盘介质,包括传统的机械磁盘HDD、SATA-SSD以及PCIE-SSD等,来提供不同等级的IOPS和带宽等服务性能,同时10GE网卡的广泛应用也让系统在传输和重建过程中具有更快的速度。

    2.驱动引擎层

    基于分布式架构的软件定义存储系统采用分布式算法(例如CRUSH、DHT等)将数据趋近于随机的分散于集群中的所有磁盘中,避免了数据存储热点的产生。数据的存放通过多副本提供高可用性,每个副本分散于不同的服务器上,并且根据业务需求能够遵循强一致性。单个硬盘或节点的故障不影响业务的连续性,一旦发生故障,系统会自动重建。

    3.特性功能层

    基于分布式架构的软件定义存储系统能够实现精简配置,即支持提前划分存储卷的大小,但是加分配时按照数据写入的规模自动增长,节省可用存储空间。在卷级层面可以实现实时QoS,调整附加在卷上的限制属性,同时为了业务的需要,系统也支持在线扩容和缩容,保证其他卷能够获取足够的空间。除此之外,还有快照、容灾、备份等功能。

    4.服务接口层

    基于分布式的软件定义存储系统能够提供多样化的存储服务,支持基于开放Linux平台的SCSI设备输出,支持iSCSI接口协议,支持FC接口协议和基于FC的硬件。

    5.运维管理层

    基于分布式架构的软件定义存储系统能够通过向用户提供可视化交互界面来完成系统的自动化配置、在线升级、告警、监控和日志等功能。包括系统日志和操作日志。系统日志记录重要的系统事件,操作日志记录操作员行为,便于排错、审计以及跟踪。

    2.2.2轻量化异构存储统一管理组件

    轻量化异构存储统一管理组件基于Openstack Cinder组件,实现了对后端存储资源的统一管理,来提供业务驱动、自动化的数据服务。轻量化异构存储统一管理组件将应用与底层存储解耦,解除设备厂商的绑定,打破异构存储设备之间的壁垒,将存储功能应用化,支持文件、块、对象等类型存储资源分配服务。

    在云计算应用场景下,从租户的角度看来,将不同架构的存储封装起来,无论是传统的集中式存储还是分布式存储都进行统一管理并向上提供服务。

    图 2-3轻量化异构存储统一管理组件架构示意图

    轻量化异构存储统一管理组件向下可以将各设备中可提供相同能力的存储资源聚集起来,进行统一管理。这一功能基于Openstack的Cinder组件,通过不同存储厂商提供的面向OpenStack的Cinder的驱动来获取不同存储设备的基本信息,包括磁盘类型、空间大小、服务能力等。在获取不同的存储设备信息之后,将性能、服务相近的存储设备进行编排、分组,以供后续使用。

    轻量化异构存储统一管理组件可以实现业务部署自动化、运维监控智能化。其中,业务部署自动化是指支持运维人员编辑保存服务模板,目的是为了简化创建调用存储的流程。在申请存储资源的过程中,仅需要输入存储容量和卷的数量即可完成资源的申请,统一管理组件会根据事先编排好的模板自动调用不同模块来完成具体工作。同时该组件也支持运维监控的智能化,即针对不同的存储池,不同的虚拟卷,都能够实时监控性能与故障,对存储卷进行有效性、空间、数据可用性等方面进行的监控管理;支持在存储系统的各级软硬件产生故障时,由控制台向管理员告警提示;支持卷级的QoS编排,保证不同租户之间的服务质量。

    轻量化异构存储统一管理组件北向通过REST接口与虚拟化平台或者容器云平台完成兼容,实现存储资源服务的统一发放。OpenStack的不同组件如Cinder、Nova等与异构存储管理组件,完成卷的划分与挂载,实现云硬盘的分配或者虚拟机实例创建在云硬盘中;Kubernets中Persist Volume 存储系统则通过Cinder提供的插件,实现应用和服务的状态保存。

    3 下一代云存储系统特性

    3.1高性能

    下一代云存储系统基于主流的开源分布式存储技术以及开源云平台中的存储管理模块,充分满足国内企业自主可控的要求。下一代云存储系统能够胜任高并发、高效率的需求,与主流NVMe闪存相结合,突破单点性能瓶颈,适应多种场景需求。

    3.1.1 I/O并行提升性能

    下一代云存储系统提供了类似于条带化技术的并行I/O功能,满足支持业务开展的高性能需求。独立存储设备的吞吐量限制,极大影响了存储的性能和伸缩性,所以存储系统一般都支持把连续的信息分片存储于多个设备以增加吞吐量和性能。在下一代云存储系统中,数据会均匀分布到存储池中所有的硬盘上。当某台应用服务器进行读写时,集群中所有的节点都会对其提供服务,这样能很好地保证IO并发。

    3.1.2闪存的应用与分级存储

    下一代云存储系统支持各类接口闪存介质,通过闪存介质的使用,来提供高性能的IO。当前闪存存储开始进入开始逐渐进入数据中心市场,如表3-1所示,闪存相比HHD具有如下差别:

    表 3-1 闪存与HDD特性对比

    固态闪存SSD作为新的存储技术,相比HDD具有超快的数据访问速度,随机数据访问速度比HDD快100多倍,响应时间从毫秒级缩短到亚毫秒级(0.1ms),将IOPS从HDD的200-300提升至数万。SSD的高性能充分满足了存储系统I/O负荷瓶颈带来的困扰。

    SSD在下一代云存储系统中的应用有两种不同的方式,均能提升性能,一是作为读写缓存,二是作为数据盘直接存储数据。

    在第一种情况下,下一代云存储系统采用缓存算法对热点数据进行优化,使热点数据尽可能驻留在高速闪存存储上,以提升系统性能;而对于访问不频繁的数据则从高速存储中迁移到低速机械磁盘做持久化存储。这种方式对于大量读取场景下的业务系统具有较大的提升;或者将高速存储设备作为全局缓存,数据先写入高速存储中,在适当的时机再将数据同步入后端存储中,这种方式同样可以在满足性能要求的前提下明显降低存储成本。

    图 3-1 下一代云存储系统的多级缓存

    面对对性能有强烈需求的业务场景,第二种全闪存模式能够大幅度增强对各类高要求负载的管理,其中包括业务关键型应用、核心业务系统等等。这种情况下,可以充分发挥闪存存储的高性能读写,但是成本较高。

    3.2高可靠性

    3.2.1数据多副本存储

    下一代云存储系统采取多副本备份机制替换传统的RAID模式来保证核心数据的完整性。同一个数据,在系统的不同节点的不同磁盘上会有大于等于三个副本的存储,这样,当节点或者磁盘产生故障的时候,数据可以从冗余的副本中读取并恢复。同时所有的数据均匀的分布在所有的节点上以达到负载均衡的效果,避免局部热点的出现。在下一代云存储系统具体部署时,所有的副本采取跨机架同步分布策略,确保单一机架掉电后的数据可用性。

    3.2.2保持数据一致

    下一代云存储系统支持强一致性和最终一致性两种模型,面向不同的业务场景需求。保证租户成功写入一份数据时,几个副本都保持一致,在读取数据时,无论从任何一个副本上进行,都能够保证取到最新的、可用的数据。强一致性情况下,保证对副本的读写操作会产生交集,从而保证可以读取到最新版本;无论更新操作实在哪一个副本执行,之后所有的读操作都要能获得最新的数据。最终一致性情况下,保证用户最终能够读取到某操作对系统特定数据的更新,针对的是读写都比较频繁的场景,是一个比较折中的策略。

    3.2.3服务质量保证(QoS)

    无论任何行业,业务的连续性与高质量是主流需求,下一代云存储系统提供了多种场景下的服务质量保证手段:

    1、提供面向卷级的服务器访问QoS,充分避免非关键应用占用过多带宽;

    2、在数据较长时间处于不一致的状态时,自动触发数据重建,在此过程中支持QoS,保证重建过程中占用过多带宽,避免影响关键业务的稳定运行。

    3.2.4副本安全边界

    规模庞大的分布式系统,必须考虑多故障的安全隐患,以统计学的规律和概率分布来看,磁盘数量越多,磁盘发生故障的概率越大,甚至几个磁盘同时发生故障。不断的故障会造成系统大部分资源都用于数据重建,影响业务的稳定运行。因此,下一代云存储系统中,为保证系统达到预期的可靠性目标,必须在保证高并发的前提下,尽量缩小副本分布的磁盘范围,即设定安全边界,以防止数据丢失的风险陡然上升。

    副本安全边界有两种模式,一是基于池级的安全边界管理,设定存储池最大跨越的磁盘数量;二是基于卷级的安全边界管理,即设定虚拟卷最大跨越的磁盘数量。

    3.3可扩展性

    下一代云存储系统支持大规模扩展,最低三节点,直至上千节点,随着存储设备数量的增长,整个系统的吞吐量和IOPS等性能指标也同时会随之增长。并且容量和性能呈线性扩展。一旦需求有所变化,即可通过模块化的方式添加更多的存储资源和计算资源。在扩容和缩容的过程中间,分布式算法保证了数据的负载均衡,结合自动的QoS策略,在用户无感知的情况下,保证不会与现有业务产生影响,保障系统的稳定运行。

    图 3-2下一代云存储系统的横向扩展

    3.4易管理性

    3.4.1兼容第三方管理监控接口

    业界主流Web管理界面主要包括SOAP和REST标准,其中后者架构更为轻便,新生系统多采用后者。VMware体系至今仍以SOAP标准为主,而面向OpenStack的接口则遵循REST标准。下一代云存储系统所提供的接口能够兼容这两种标准。

    3.4.2虚拟化和私有云应用支持

    下一代云存储系统支持主流操作系统,可以部署在RedHat、SUSE、CentOS以及Ubuntu上。虚拟化平台则支持VMware、Hyper-V以及KVM等。支持通过RESTful API标准接口与OpenStack 的Cinder组件和SWFIT组件进行交互,向私有云应用提供存储支持。

    3.5高级功能

    3.5.1自动精简配置

    下一代云存储系统支持自动精简配置功能,在创建逻辑卷时,并不真实占用实际物理资源,而是在逻辑卷使用过程中,按需实时分配实际物理空间资源,节约了存储资源,简化了存储规划难度。在存储系统的使用过程中,租户在资源申请阶段往往无法准确预估在业务广泛展开后的具体需求,因而会多申请部分的存储空间作为缓冲,而这部分资源往往无法做到物尽其用,存在了大量的浪费现象。在实际使用中,可以设置容量阈值,当剩余存储容量低于阈值时,进行提示。

    图 3-3 下一代云存储精简配置

    3.5.2卷级快照和链接克隆

    下一代云存储系统提供卷级的快照功能,进行增量备份,并能根据需要快速恢复到每一个备份点,对业务中断后提供快速的恢复功能保证,加强系统整体的连续性,提供了业务质量保证的手段与方法。

    同时此系统还支持链接克隆的机制,基于一个快照创建出多个克隆卷,创建出来的克隆卷与原始卷中的数据内容一致,克隆卷的修改不会影响原始卷,用户既可以通过快照来还原卷以恢复丢失的数据,也可以从快照来创建模板,直接启动新的虚拟机以保证业务的连续性。

    图 3-4下一代云存储系统采用增量快照

    3.5.3全局负载均衡

    下一代云存储系统采用的分布式架构使得数据的IO操作均匀分布在不同服务器的不同硬盘上,避免了局部热点的出现,实现全局的负载均衡。

    系统将数据块打散存放在不同服务器的不同硬盘上,冷热不均的数据均匀分布在不同的服务器上,不会出现集中的热点;数据的分配算法保证主副本与其余副本在不同服务器和不同硬盘上均匀分布;同时,在节点或者硬盘故障时,在数据重建的过程中,也实现全局负载均衡。

    4 下一代云存储系统部署方案

    4.1部署拓扑

    数据中心内部系统的核心要求是“稳定可靠”,一是指系统在运行过程中有能力提供连续可靠的服务,长时间无故障运行;二是指当故障发生之后,有能力快速定位,及时排查,故障范围不蔓延。

    分离式部署的方式,使得系统与云平台系统相独立,避免了计算和存储争抢CPU/内存/网络等物理资源,一旦某一方资源需求骤升导致的另一方资源枯竭,从而影响性能并在整个基础架构中产生的涟漪效应;和在超融合部署方式在集群规模较大后,网络、硬盘、服务器发生故障的概率都会增大;以及数据重删、压缩、加密纠删码等功能、故障的自修复和数据功能实现都会消耗一定的系统资源,导致性能下降和抖动等问题。

    分离式部署相比超融合方式的优点:

    表4-1分离式部署与超融合的对比

    从业务稳定、系统可靠的角度出发,下一代云存储系统采用分离式部署的方式,即存储系统服务器独立于计算资源服务器。这一部署方式使得存储与计算相独立,因而两者之间的故障不会相互影响,易于后期运维故障排查;并且计算与存储的配比可以根据业务场景的需求自行调配,灵活程度高,如果需要扩展资源的话,也可以单独对存储进行扩展;同时,计算与存储分层管理,也清晰了管理权限。具体部署架构如下所示:

    图4-1下一代云存储系统物理部署方案

    其中,存储管理节点需要在两个以上的节点上部署以保证高可用,同样,轻量化异构存储统一管理组件也需要在两个节点上进行部署来提供高可用。

    4.2硬件规格

    下一代云存储系统基于标准的X86服务器,软硬件解耦,解除厂商绑定,支持设备利旧,保护历史投资。下一代云存储系统对硬件平台具有如下基本要求:

    1.运行在标准的X86服务器上;

    2.基于分布式架构的软件定义存储系统集群内部服务器硬盘数量必须一致;

    3.软件定义存储正常运行需要占用单个服务器的处理器的核心数量需大于

    4+N(N是硬盘个数,一个硬盘对应一个核心),例如:单个服务器5个硬盘,共计需要4+5=9个核心,则服务器需配置12核处理器;轻量化异构存储统一管理服务需要8核以上的处理器;

    4.软件定义存储正常运行的服务器的物理内存需满足如下条件:

    大于10GB +(N*2GB)(N是服务器上所有硬盘总计存储容量,单位TB),例如:单个服务器5个硬盘,每个硬盘4TB,则共计需要10GB+20GB*2=40GB,服务器需要配置64GB物理内存;轻量化异构存储统一管理服务需要16GB以上的物理内存;一般情况下,随着内存容量的增大,性能也会越好;

    5.分布式架构的存储集群性能很大程度上取决于存储介质的有效选择。下一代云存储系统内部服务器须有板载PCIe插槽,支持使用快速的SSD硬盘作为缓存来为HDD加速,或者直接采用全闪存架构。使用SSD作为缓存加速的场景下,通常建议一个SSD对应3~4块HDD。使用PCIe/NVMe SSD作为缓存加速的场景下,通常建议一个SSD对应8~10块HDD。

    6.服务器需要四个网口支持双平面,并且两两绑定(配置网口聚合(Bond),模式为802.3ad(Bond模式为4),此模式提供了容错性,提供高网络连接的可用,同时提供了相当的性能。具体的存储平面带宽要求不低于10Gbps。

    4.3组网方案及网络规划

    由于数据的机密性与敏感性,业务相互之间的隔离对于在数据中心内部非常重要。在数据中心内部,数据的访问需要受到严格控制,必须进行业务与管理的网络相互隔离。管理网段与租户网络三层互通,租户通过管理网段访问下一代云存储系统的Portal界面并下发增、删、检、查等管理指令;业务网段则负责业务数据的传输,当存储空间以卷的形式通过业务网段挂载给前端业务系统,并在此网段上提供服务。

    按照分布式存储的范式,下一代云存储系统的管理和业务分属两个网段,互相独立,互不影响,数据传输只在业务网段上进行,管理与业务通过服务器通信,无法通过网络互访。

    图4-2下一代云存储系统网络拓扑示意图

    在业务网段上,规划每个服务器由两根网线分别连接到两台交换机。在管理网段上,规划每个服务器由两根网线分别连接两台交换机。通过节点级的双网卡主备以及集群级的交换机主备来提供网络高可靠性。两个网段使用独立的物理网卡进行隔离,在条件不满足的情况下使用不同VLAN隔离。

    依据木桶效应,一个系统的整体性能上限往往是由系统中的薄弱环节决定。当集群采用混合存储的配置时,标准的10Gbps高速网络能够满足相当规模的集群在负载均衡、数据重建时的压力;然而,当集群采用全闪存架构时,硬盘性能将大幅提升,此时标准的10Gbps网络有可能会成为系统中的短板,56 Gbps InfiniBand网络乃至更高速的100 Gbps网络,近似无阻塞通信,突破存储系统内部交换的瓶颈。在InfiniBand网络中,通信时延控制于纳秒级,计算存储信息及时传递,配合SSD的高速读写,具有可观的性能。

    5 下一代云存储系统应用场景

    5.1下一代云存储系统和虚拟化平台

    OpenStack提供标准的API接口来管理整个底层架构资源。OpenStack 提供块设备存储服务的组件Cinder,本质上是一个资源管理组件,将后端不同的存储设备进行封装,向外提供统一的API,本质上并不是一个存储系统,而是使用插件的方式,结合不同后端存储的驱动提供存储服务,核心是对卷的各种操作与管理。包括通过虚拟卷的方式为虚拟机提供云硬盘,或者可以用于存储并启动虚拟机实例。在虚拟机的各个生命周期中,具体能够实现如下几种操作:

    1、在创建虚拟机的时候,需要对卷进行创建和挂载操作;

    2、在使用虚拟机的时候,需要对卷进行扩展、备份操作;

    3、在删除虚拟机的时候需要对卷进行分离、删除操作。

    通过Cinder组件,用户可以方便、高效地管理虚拟机数据。下图展示了Cinder组件使用后端存储的示意图。计算虚拟化组件Nova与存储管理组件Cinder之间通过RabbitMQ消息队列进行通信。:

    具体的调用流程如下:

    1、用户通过页面或者命令行发出存储管理请求,并通过Cinder-API发出;

    2、Cinder-API通过RabbitMQ消息队列将此消息加入Cinder-scheduler中,依次进行调度;

    3、Cinder-scheduler通过RabbitMQ消息队列与Cinder-Volume通信,将创建、挂载等卷管理请求进行传递;

    4、Cinder-volume收到存储资源请求之后,向后端的下一代云存储系统通信,进行操作,执行请求。

    自此,完成了用户的一个存储资源管理操作请求

    图5-1下一代云存储系统在OpenStack中的应用

    5.2下一代云存储系统与容器云平台

    容器虚拟化技术已经成为一种被大家广泛认可的服务器资源共享方式,容器技术可以在按需构建容器技术操作系统实例的过程当中为系统管理员提供极大的灵活性。容器技术为应用程序提供了隔离的运行空间,每个容器内都包含一个独享的完整用户环境空间,并且一个容器内的变动不会影响其他容器的运行环境。

    下一代云存储系统通过容器引擎卷插件或者编排调度的API接受北向的创建、删除、加载、卸载和迁移数据卷等实际的存储操作请求,并传递给底层的数据平面去实现。Kubernetes作为其集群管理工具,基于其插件化的设计,将有状态的数据保存在以 Persistent Volume(PV)为基础的存储系统。

     

    转自:http://stor.51cto.com/art/201711/556003.htm

    展开全文
  • EMC下一代软件定义存储架构——孙宇熙,EMC中国研究院技术总监 EMC下一代软件定义存储架构——孙宇熙,EMC中国研究院技术总监
  • 摘要:云计算作为下一代计算模式,在科学计算和商业计算领域均发挥着重要作用,受到当前学术界和企业界的广泛关注.云计算环境下的分布存储主要研究数据在数据中心上的组织
  • 以工业互联网为代表的产业互联网的大发展,促进未来网络从以信息...从应用、网络技术、计算技术等的发展趋势分析,推导出未来数据网络需要从计算、网络和存储融合重新设计网络架构,以满足未来新业务和新场景的需求。
  • 基于分布式存储人工智能的下一代医疗区块链系统搭建的商业计划书 项目背景 国务院印发新一代人工智能发展规划规划明确到2020年人工智能总体技术和应用与世界先进水平同步到2025年人工智能基础理论实现重大突破部分...
  • 由华瑞指数云(ExponTech)主办的“全自研下一代软件定义存储产品体验沙龙”在北京圆满举办!

    2022年8月31日,由华瑞指数云(ExponTech)主办的“全自研下一代软件定义存储产品体验沙龙”在北京圆满举办。发布会现场,华瑞指数云重磅推出全自研极速分布式块存储产品WDS 。这是继2021年11月24日该公司在中国数据与存储峰会发布WiDE无量数据引擎之后又一个新的里程碑。

    ExponTech WDS是基于WiDE引擎研发的第一款软件定义存储(Software Defined Storage,简称SDS)2.0产品。它率先打破了当前的SDS 产品 (SDS1.0) 在IOPS和时延方面的能力瓶颈,相对SDS 1.0产品IOPS提升最高达30倍,时延降低幅度达90%,完全满足企业核心数据库、关键业务虚拟化和容器化,以及HPDA等场景对极高性能、极低时延和稳定可靠存储能力的需求,可广泛应用于金融、运营商、医疗、能源、交通、制造等行业,为企业关键应用提供持续卓越的数据存储服务能力。

    ExponTech WDS的问世,弥合了SDS产品能力与企业关键业务及新兴业务需求之间的鸿沟,撕下了SDS1.0产品身上的低端存储的标签,开辟了SDS的下一个时代,引领SDS2迈入 2.0的新时代。

    数据井喷时代 存储亟待升级

    随着数字经济发展和数字化转型的发展风向,数据井喷时代已然到来。自动驾驶,人工智能,数字化营销,数字工厂……本质上都是数据驱动型的新业务形态,这类业务的典型特征是数据规模巨大、业务负载复杂多样、处理性能要求高,因此对数据存储的扩展性,读写效率,可靠性,能耗等提出了极大的挑战。

    伴随着云计算和大数据的出现,SDS产品应运而生。发展至今时,商用SDS产品能够基本解决数据量大、吞吐量大、并发量大的问题,但是它存在性能和IO处理效率上的“致命伤”,IO处理效率太低,性能低、时延高,同时CPU消耗大、消耗系统资源多,无法胜任企业关键业务及关键数据存储的高要求。

    跨越技术鸿沟,突破存储瓶颈

    近年来,借着云计算的东风,SDS 1.0市场取得了长足进步,在互联网、云原生等大量新业务场景中获得企业青睐。根据Gartner预测,到2024年,全球50%的存储容量将以软件定义存储的形式部署,包括本地部署或在公有云上。

    事实上,虽然SDS 1.0具备扩展能力强、软件独立解耦等优势,但依然存在性能低下、时延较高等缺点,被市场普遍视为入门级存储产品,普遍应用于企业非核心业务,难以胜任企业的关键商用应用和核心数据,也难以胜任人工智能,高性能数据分析等新兴业务形态提出的混合负载、实时数据分析的挑战。与之相对的,以AFA全闪存阵列为代表的中高端存储,具备千万级IOPS、百微秒级时延等优势。但遗憾的是,该类产品存在使用门槛高、硬件锁定、扩展性差、运维复杂度高等缺陷,难以应对业务新场景发起的数据规模、部署形态、灵活弹性、降低综合使用成本的挑战。

    据了解,截至目前SDS市场仍处于1.0时代,主流产品依然沿用十年前的开源软件架构,不能迭代升级利用当下新兴技术,无法充分发挥新存储介质的潜能,从而导致SDS 1.0产品在面对企业关键业务和新兴业务场景时,存在一条巨大技术鸿沟。

     

    如何弥补这个技术鸿沟?ExponTech自研的WiDE引擎创造性的全面重新设计和实现了SDS的技术架构,让软件定义,分布式存储的软硬解耦和水平扩展能力和高端存储的性能优势完美融合,既能够充分发挥新兴存储介质的高性能,又能够通过组合式架构应对混合业务负载,满足海量数据持续增长的需求。 

    此次发布会上,ExponTech重磅推出基于WiDE引擎打造的WDS 极速硬盘存储产品,标志着SDS市场开始真正进入2.0时代,极大拓宽SDS产品的市场空间,帮助企业更好应对数字洪流。

    ExponTech WDS 重磅发布,助力国内数据存储产业阔步向前

    ExponTech WDS 是面向企业关键业务和新兴业务场景打造的超高性能块存储产品。经过华瑞指数云和英特尔公司联合测试,WDS取得了亮眼表现。在3服务器节点(每节点4块,总共12块SCM SSD硬盘)集群规模下,集群峰值IOPS高达691万,时延438微秒,单卷 IOPS高达259万,时延低至390微秒。MySQL数据库测试场景,在大压力下端到端时延稳定在5毫秒内,支持高达20000TPS。

    “目前,WDS和WiDE实现了全部的柔性化部署,结合可组合式架构,就可以最小资源消耗+最大性能体验,实现最优部署形态,这是非常大的优势。同时,可组合式架构的能力也给用户带来了绿色、低碳、高效的体验,能够给用户带来资源消耗和性能体验二者兼得的完美组合。”华瑞指数云存储首席架构师于强表示,“可靠性是存储至关重要的根本,WDS在可靠性方面有非常出色的表现。WDS有智能网络亚健康检测能力,通过检测识别网络的时延异常、丢包错包来自动隔离处理网络的故障,或者指导用户及时做修复处理。面对突发故障,WDS也实现了双活容灾能力,我们跨地域实现了副本同步,保证业务连续稳定的运行。”

    华瑞指数云存储首席架构师 于强

    发布会前夕,华瑞指数云联合英特尔发布了《WiDE分布式引擎与英特尔新一代平台联合解决方案技术白皮书》。在发布会上,英特尔云解决方案架构师张庆峰表示,“值得一提的是,本次和ExponTech WDS方案联合验证过程中,使用的另一个特性是RDMA功能,测试搭建了RoCEv2网络,用了英特尔100GE网卡E810和交换机联合联合适配,最终使得存储性能充分发挥出来,更惊喜的发现,网络在这里面没有成为任何瓶颈。未来英特尔希望在存储领域可以跟合作伙伴一起作出更多更好的产品和方案。”

    大数据在线主编袁绍龙作为产品体验官表示:“数据库、高性能大数据分析、AI等高性能的核心业务场景中,我们很少见到软件定义存储的身影,这好像给软件定义存储打上了不能胜任高端核心应用的标签。但我们发现这种标签正在逐步打破,基于全新软件技术栈的软件定义存储产品,通过通用硬件+下一代的软件架构产品其实一样能达到高端存储的性能表现。”随后,在几十家媒体及合作伙伴的共同见证下,ExponTech采用了非常大胆的产品发布方式,现场进行性能实战PK,通过多样性的性能比拼测试,充份体现ExponTech WDS产品的领先性,让现场嘉宾和媒体朋友们赞叹不绝。

    现场的比拼测试,总共准备了6台服务器,组成了两套测试环境,6台服务器硬件均基于统一型号、统一配置,使用了NVMe SSD以及25G网络。在两套测试环境上对比了目前市场上非常主流的Ceph产品以及华瑞指数云的下一代SDS产品WDS,分别从单节点单路和多节点对比产品性能,通过现场几轮测试结束,袁绍龙表示,“测试结果非常惊人,从测试结果来看,WDS在三节点峰值性能4k随机写达到了123万IOPS(时延309us),4k随机读达到了272万IOPS(时延561us),无论是随机写还是随机读都已经跑到了接近硬件网卡的极限性能,WDS的随机写IPOS是Ceph的12倍,时延只有Ceph的2%,随机读性能是Ceph的6倍,时延只有Ceph的13%。

    这个表现跟很多集中式的高端全闪存储公布的数据非常接近,而且WDS还具备性能的线性扩展能力,硬件能力越好,集群节点数越多,WDS就越能线性扩展出相应的性能水准,这一点又是集中式的高端全闪存储做不到的,可见WDS面对单兵作战(单结点性能)和多兵协同作战(集群可扩展)都能应对自如。”此外,现场还提供了另外3台服务器组成的WDS分布式存储集群,供现场的嘉宾们实际使用和体验WDS的管理界面,各项功能,可靠性以及性能。

    如此优秀的性能表明,ExponTech的WiDE引擎以及WDS产品完全跨越了SDS产品和集中式高端全闪存储之间的性能鸿沟,融合了两者的优点,可以真正实现在一套分布式存储底座上,支持企业的全场景数据,包括需要高IOPS和极低时延的核心数据,需要高吞吐和成本敏感的海量数据等。我们有理由期待ExponTech WDS将更好地帮助企业应对数字化时代面临的业务需求,推动企业的数字化和智能化转型。

    展开全文
  • 这一SAS-3IP具有先进的性能和可靠性特性,可让客户以高成本效益的方式及时设计同类最佳的下一代企业存储产品。  SAS-3是第三代的串行连接SCSI接口,是功能强大的高性能串行存储互连技术,在企业应用中获得广泛青睐...
  • 这些分析工具可作为选件与 Agilent U4301A PCIe 协议分析仪和 U4305 PCIe 训练器配合使用,在业界率先支持下一代 PCI Express标准的数据存储器件的快速开发。  NVM Express(NVMe)是可扩展的主机控制器接口,可...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 89,412
精华内容 35,764
热门标签
关键字:

下一代存储技术