精华内容
下载资源
问答
  • 2022-02-16 22:20:03

    云存储相关理论知识

    1. 云存储技术与传统存储技术

    ​ 由于用户数量众多,存储系统需要存储的文件将呈指数级增长趋势,这就要求存储系统的容量扩展能够跟得上数据量的增长,做到无限扩容,同时在扩展过程中最好还要做到简便易行,不能影响到数据中心的整体运行,如果容量的扩展需要复杂的操作,甚至停机,这无疑会极大地降低数据中心的运行效率。

    ​ 云时代的存储系统需要的不仅仅是容量的提升对于性能的要求同样迫切,与以往只面向有限的用户不同,在云时代,存储系统将面向更为广阔的用户群体,用户数量级的增加使得存储系统也必须在吞吐性能上有飞速的提升,只有这样才能对请求做出快速的反应,这就要求存储系统能过随着容量的增加而用于线性增长的吞吐性能,这显然是传统的村容架构无法达成的目标。

    ​ 传统的存储系统由于没有采用分布式的文件系统,无法将所有访问压力平均分配到多个存储结点,因而在存储系统与计算系统之间存在着明显的传输瓶颈,由此而带来单点故障等多种后续问题,而集群存储正式解决这一问题,满足新时代要求的一剂良药。

    2. 云存储的优势

    • 存储管理可以实现自动化和智能化,所有的存储资源被整合到一起,客户看到的是单一存储空间。
    • 提高了存储效率,通过虚拟化技术解决了存储空间的浪费,可以自动重新分配数据,提高了存储空间的利用率,同时具备负载均衡、故障冗余的功能。
    • 云存储能够实现规模效应和弹性扩展,降低运营成本,避免资源浪费。

    3. 云存储模式

    ​ 目前的云存储模式主要有两种:一种是文件的大容量分享,有些SSP(供应方平台)甚至号称无限容量,用户可以把数据文件保存在云存储空间里。另一种模式是云同步存储模式。例如dropbox,skydrive,谷歌的GDrive,还有苹果的iCloud等SSP提供的云存储业务。

    4. 云存储的概念与技术原理

    ​ 关于云存储的定义,目前没有标准。百度百科给出的定义是:云存储是在云计算概念上延伸和发展出来的一个新的概念,是指通过虚拟化、集群应用、网络技术或分布式文件系统等功能,将网络中大量各种不同类型的存储设备通过应用软件集合起来协作工作,共同对外提供数据存储和业务访问功能的一个系统,保证数据的安全性,并借阅存储空间。简单来说,云存储就是把储存资源放到云上人工存取的一种新兴方案。使用者可以在任何时间、任何地方,透过任何可联网的装置连接到云上方便地存储数据。

    ​ 云存储作为云计算的一个核心组成部分,承担着数据最底层数据存储与信息收集的任务,它是整个云平台、云服务的基础。与传统存储设备相比,对它的定义不能简单的理解为是一个单一的硬件设备,这个设备也可以理解为一个系统,这个系统一般都由服务器、存储、网络及相关软件等硬件环境构成。

    一些概念

    DAS

    ​ DAS是指将存储设备通过SCSI(Small Computer System Interface,小型计算机系统专用接口)接口或光线通道直接连接到一台计算机上。顾名思义,这是为了小型计算机设计的扩充接口。DAS将存储设备直接连接到服务器,是最传统的、最常见的连接方式,容易理解、规划和实施。但是DAS没有独立操作系统,也不能提供跨平台的文件共享,各平台下的数据须分别存储,且各DAS系统之间没有连接,数据只能分散管理。

    优点

    1. 连接简单
    2. 低成本需求
    3. 较好性能

    缺点

    1. 有限的扩展性
    2. 专属的连接
    3. TCO(总拥有成本高)

    NAS

    ​ NAS是将存储设备连接到现有网络上,提供数据和文件服务,应用服务器直接把File I/O请求通过LAN传给远端NAS中的文件系统,NAS中的文件系统发起Block I/O到与NAS直连的磁盘。NAS主要面向高效的文件共享任务,适用于那些需要网络进行大容量文件数据传输的场合。NAS本身装有独立的操作系统,通过网络协议可以实现完全跨平台共享,但NAS系统的前期投入相对较高。

    优点

    1. 资源共享
    2. 构建于IP网络之上
    3. 部署简单
    4. 较好的可扩展性

    缺点

    1. 可扩展性有限
    2. 宽带瓶颈

    SAN

    ​ SAN通过光纤通道连接到一群计算机上。在该网络中提供了多主机连接,但并非标准的网络拓扑。它是一个用在服务器和存储资源之间的、专用的、高性能的网络体系,为实现大量原始数据的传输而进行了专门的优化。SAN是一种高可用性、高性能的专用存储网络,用于安全的连接服务器和存储设备并具备灵活性和可扩展性;SAN对于数据库环境、数据备份和回恢复存在巨大的优势;SAN是一种非常安全的快速传输、存储、保护、共享和恢复数据的方法。

    优点

    1. 实现存储介质的共享
    2. 非常好的扩展性
    3. 易于数据备份和恢复
    4. 高性能
    5. 低的TCO

    缺点

    1. 成本较高
    2. SAN孤岛
    3. 技术较为复杂

    RAID

    ​ 磁盘阵列是有很多价格较为便宜的磁盘组合而成的一个容量巨大的磁盘组,可利用个别磁盘提供数据所产生的加成效果提升整个磁盘系统效能。利用这项技术,可将数据切割成许多区段,分别存放在各个磁盘上。

    磁盘热备份

    ​ 热备份是指在建立RAID磁盘阵列系统的时候,将其中一个磁盘指定为热备磁盘,此热备磁盘在平常并不操作,当阵列中某一磁盘发生故障时,热备磁盘变取代故障磁盘,并自动将故障磁盘的数据重构在热备磁盘上。

    快照

    ​ 快照是某一个时间点上的逻辑卷的映像,逻辑上相当于整个快照源卷(base volume)的副本。可将快照卷分配给任何一台主机。快照卷可读取、写入或复制,需要相当于快照源卷的20%的额外空间,主要用途是利用少量存储空间保存原始数据的备份,文件、逻辑卷恢复及备份、测试、数据分析等。

    分布式块存储

    ​ 块存储将存储区域划分为固定大小的小块,是传统裸存储设备的存储空间对外暴露方式。块存储系统将大量磁盘设备通过SCSI/SAS 或FC SAN与存储服务器连接,服务器直接通过SCSI/SAS 或FC协议控制和访问数据。块存储方式不存在数据打包、解包过程,可提供更高的性能。

    分布式文件存储

    ​ 文件存储以标准文件系统接口形式向应用系统提供海量非结构化数据存储空间。分布式文件系统把分布在局域网内各个计算机上的共享文件夹集合成一个虚拟共享文件夹,将整个分布式文件资源已同意的视图呈现给用户。

    总结

    1. 提供海量非结构化数据存储空间
    2. 把分布在局域网内各个计算机上的共享文件夹集合成一个虚拟共享文件夹

    分布式对象存储

    ​ 对象村塾为海量非结构化数据提供通过键值对查找数据文件的存储模式,提供了基于对象的访问接口,有效地合并了NAS和SAN的存储结构优势,通过高层次的抽象,具有NAS的跨平台共享数据和基于策略的安全访问有点,支持直接访问,具有SAN的高性能和交换网络结构的可伸缩性。

    5.云存储的实现层次在这里插入图片描述

    存储层:是云存储的基础。云存储依靠存储层将不同的存储设备互联起来,形成一个面向服务的分布式存储系统。在物理存储设备之上是一个统一的存储设备管理层,实现对物理存储设备的逻辑虚拟化管理、状态监控和维护等功能。

    管理调度层:是云存储的核心。主要功能是在存储层提供的存储资源上部署分布式文件系统或者建立和组织存储资源对象,并将用户数据进行分片处理,按照设定的保护策略将分片后的数据以多副本或者冗余纠删代码的方式分散存储到具体的存储资源上去。同时,在本层还会在节点间进行读写负载均衡调度以及节点或存储资源失效后的业务调度与数据重建恢复等任务,以便始终提供高性能、高可用的访问服务。不过,再具体实现时,该层的功能可能上移,位于访问接口层和应用服务层之间,甚至直接嵌入到应用服务层中,和业务应用紧密结合,形成业务专用云存储。

    访问接口层:这是一个可以自由扩展的、面向用户需求的结构层。一般情况下,可以根据具体情况和需求,开放各种接口,为其提供多种服务。

    用户访问层:在连接互联网的任何一台机器上,直到用户经过授权,都可以通过这一层,进入的云存储平台系统,进行云存储上的运行的授权操作,享受云存储带来的各种服务。

    更多相关内容
  • 联想LeoStor云存储测试方案.pdf
  • 联想LeoStor云存储测试方案.docx
  • 数据工程团队(CDE)负责管理数据存储系统,他们通过运行基准测试来验证这些系统的更新、进行容量规划,还会在不同的失败场景下和多种工作负载下测试我们的实例。我们希望有这样一个工具,它可以评估和比较在...
  • 阿里云ACA试题——云存储:对象存储管理与安全。我考试的时候,只有两道题没见过,但是很简单的。有了这个文档,尽管考吧。
  • COSBench 是衡量对象存储服务性能的基准测试工具。 对象存储是与传统文件系统(例如 NFS)或块设备系统(例如,iSCSI)不同的新兴技术。 Amazon S3 和 Openstack * swift 是着名的对象存储解决方案。 COSBench 现...
  • 并应用这两种测试工具对比测试了基于API接口的开放云存储系统金山快盘和基于RESTFul接口的本地私有云存储系统OpenStack Swift的性能,分析了影响云存储系统性能的因素,为云存储厂商改进云存储服务提供了参考依据,...
  • destoon推出了应用商店,其中的一个功能就是对象存储,不过要普及版以上用户才能使用,...至于又拍,阿里OSS,确实没有测试到过,又拍没用过,阿里自己用官方sdk测试 并参照官方代码写了(如有雷同,纯属巧合)
  • cStor云存储系统测试报告.pdf
  • cStor云存储系统测试报告.doc
  • IOPS(Input/Output Operations Per Second)是一个用于电脑存储设备(如硬盘(HDD)、固态硬盘(SSD)或存储区域网络(SAN))性能测试的量测方式,可以视为是每秒的读写次数。和其他性能测试一样,存储设备制造商...

    作者:【吴业亮】
    转载自博客:http://blog.csdn.net/wylfengyujiancheng

    一、什么是IOPS

    IOPS(Input/Output Operations Per Second)是一个用于电脑存储设备(如硬盘(HDD)、固态硬盘(SSD)或存储区域网络(SAN))性能测试的量测方式,可以视为是每秒的读写次数。和其他性能测试一样,存储设备制造商提出的IOPS不保证就是实际应用下的性能。

    IOPS可以用应用程序来量测,例如一开始由微软开发的Iometer,像IOzone及FIO也有类似功能,IOPS主要会用在服务器,以找到最佳的存储配置。

    IOPS的数值会随系统配置而有很大的不同,依测试者在测试时的控制变因而异,控制变因包括读取及写入的比例、其中循序访问及随机存取的比例及配置方式、线程数量及访问队列深度,以及数据区块的大小。其他因素也会影响IOPS的结果,例如系统设置、存储设备的驱动程序、操作系统后台运行的作业等。若在测试固态硬盘时,是否先进行预调(preconditioning)机制也会影响IOPS的结果

    二、性能特性

    最常量测的性能特性是随机存取及循序访问时的IOPS。循序访问是访问存储设备中相邻位置的数据,一般和较大的数据区块访问有关,例如128 KB,随机存取是访问存储设备中非相邻位置的数据.一般访问的数据区块比较少,例如4 KB。

    最常见的性能特性如下:
    这里写图片描述

    这里写图片描述
    对于硬盘或是其他类似的存储设备,其随机存取IOPS主要和存储设备的寻址时间有关,若是固态硬盘及其他固态电子设备,其随机存取IOPS主要和存储设备的内部控制器及记亿体接口速度有关。这两种设备的循序访问IOPS(尤其是访问大数据区块)一般会包括存储设备可以持续的最大带宽。一般循序访问的IOPS会用MB/s表示,其公式如下:
    这里写图片描述

    有些硬件会因为其队列深度增加而提升其性能,这多半是因为硬盘处理队列及重新排序(reordering)的先进控制器逻辑的结果,此逻辑一般称为标记命令队列(TCQ)或原生指令排序(NCQ)。企业档次的SATA硬盘,例如Western Digital Raptor及希捷的Barracuda NL配合深队列可以提升性能到100%[5]。较常用在服务器的高端SCSI硬盘,一般性能有更大的提升。

    传统的硬盘读取和写入的IOPS大约相同,而大部分闪存SSD的写入速度明显比读偠慢很多,原因是无法写入一个之前写过的区域,会强制引导垃圾数据回收功能。因此硬件测试开始在测试IOPS性能时,分开测试写入和读取。

    像Intel X25-E等较新的闪存SSD固态硬盘其IOPS会比传统的硬盘要高,在Xssist进行的一个测试中,用IOmeter软件,4 KB随机存取,读取/写入比例为70/30,队列深度4,Intel X25-E 64 GB G1的IOPS一开始有 10000 IOPs,在八分钟后快速掉到4000 IOPS,之后的42分钟持续的下降,自第50分钟起到第八小时之间,IOPS在3000至4000之间变化[9]。即使第50分钟IOPS快速下降,X25-E的IOPS仍较传统硬盘要高。像OCZRevoDrive 3 x2 PCIe用SandForce控制器,其持续写入性能和读取速度大致相近。

    二、测试工具fio

    1、简介
    fio is an I/O tool meant to be used both for benchmark and stress/hardware verification. It has support for 19 different types of I/O engines (sync, mmap, libaio, posixaio, SG v3, splice, null, network, syslet, guasi, solarisaio, and more), I/O priorities (for newer Linux kernels), rate I/O, forked or threaded jobs, and much more. It can work on block devices as well as files. fio accepts job descriptions in a simple-to-understand text format. Several example job files are included. fio displays all sorts of I/O performance information, including complete IO latencies and percentiles. Fio is in wide use in many places, for both benchmarking, QA, and verification purposes. It supports Linux, FreeBSD, NetBSD, OpenBSD, OS X, OpenSolaris, AIX, HP-UX, Android, and Windows.

    2、安装

     yum install fio -y
    
    • 1

    3、用法:

    fio -filename=/dev/sdb -direct=1 -iodepth 1 -thread -rw=read -ioengine=psync -bs=16k -size=200G -numjobs=30 -runtime=1000 -group_reporting -name=test
    
    • 1

    说明:
    filename=/dev/sdb 测试文件名称,通常选择需要测试的盘的data目录。
    direct=1 测试过程绕过机器自带的buffer。使测试结果更真实。
    rw=randwrite 测试随机写的I/O
    rw=randrw 测试随机写和读的I/O
    bs=16k 单次io的块文件大小为16k
    bsrange=512-2048 同上,提定数据块的大小范围
    size=5G 本次的测试文件大小为5g,以每次4k的io进行测试。
    numjobs=30 本次的测试线程为30个.
    runtime=1000 测试时间为1000秒,如果不写则一直将5g文件分4k每次写完为止。
    ioengine=psync io引擎使用pync方式
    rwmixwrite=30 在混合读写的模式下,写占30%
    group_reporting 关于显示结果的,汇总每个进程的信息。
    lockmem=1G 只使用1g内存进行测试。
    zero_buffers 用0初始化系统buffer。
    nrfiles=8 每个进程生成文件的数量。

    4k随机读:

     fio -filename=/dev/sdc -direct=1 -iodepth=64 -thread=8 -rw=randread -ioengine=libaio -bs=4k -size=1G -numjobs=32 -runtime=600 -group_reporting -name=randread4k-sdc-output=randread4k-sdc.log 
    
    • 1

    4K随机写:

     fio -filename=/dev/sdc -direct=1 -iodepth=64 -thread=8 -rw=randwrite -ioengine=libaio -bs=4k -size=1G -numjobs=32 -runtime=600 -group_reporting -name=randwrite4k-sdc-output=randwrite4k-sdc.log 
    
    • 1

    4M顺序读:

    fio -filename=/dev/sdc -direct=1 -iodepth=64 -thread=8 -rw=read -ioengine=libaio -bs=4m -size=1G -numjobs=32 -runtime=600 -group_reporting -name=read4m-sdc -output=read4m-sdc.log 
    
    • 1

    4M顺序写:

    fio -filename=/dev/sdc -direct=1 -iodepth=64 -thread=8 -rw=write -ioengine=libaio -bs=4m -size=1G -numjobs=32 -runtime=600 -group_reporting -name=write4m-sdc -output=write4m-sdc.log 
    
    • 1

    混合读写:
    读写比例 70:30

    fio -filename=/dev/vda -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=70 -ioengine=libaio -bs=4k -size=10G -numjobs=30 -runtime=100 -group_reporting -name=readandwrite73
    
    • 1

    读写比例30:70

    fio -filename=/dev/vda -direct=1 -iodepth 1 -thread -rw=randrw -rwmixread=30 -ioengine=libaio -bs=4k -size=1
    展开全文
  • 针对基于网络编码云存储系统数据更新时通信开销过大的...设计实现了基于网络编码的云存储原型系统,在真实网络环境中进行部署和测试,实验结果表明,与现有更新方案相比,所提方案通信开销更小,具有更好的可扩展性。
  • 随着网络和存储技术的发展, 提供可共享和便捷使用云存储服务已成为...提供云存储系统性能评测的思路, 建立面向不同用户、适用于不同阶段的多指标三维评测体系, 采用云测试云的方案测试不同物理位置上的节点访问性能。
  • 云存储系统中使用客户端元数据缓存,不仅可以减轻元数据服务器的压力,避免元数据服务器成为系统瓶颈,提高系统的可扩展性,而且...测试结果表明,新的缓存同步策略给MassCloud云存储系统带来了20~140倍的性能提升。
  • 云存储系统性能测试以及结论探讨.wps
  • 云存储智能自动化测试PPT学习教案.pptx
  • 云存储(cloud storage)这个概念的出现,在一定程度上改变了我们对于传统存储模式的看法。Amazon在两年前就推出的Elastic Compute Cloud(EC2:弹性计算云)云存储产品,旨在为用户提供互联网服务形式同时提供更强的...
  • 服务器及其存储性能测试方法.docx
  • 从快照恢复主机 将主机恢复到任意一个快照的状态 注此功能需要在使用 ceph 存储的前提下进行 为确保主机中的数据不丢失当想要将主机恢复到某个快照的状态时需要先关闭该主机; 之后进入主机的根磁盘快照...
  • 云存储作为云计算服务的核心应用之一,凭借其庞大的云服务器存储容量吸引了大量用户。然而,在这种存储模式下,用户将数据完全...通过安全性理论分析和实验测试证明了所提方案的可行性,是对现有云存储方案的有力补充。
  • 云存储实现对云计算的监控.大凡集群系统的性能、压力测试,都要通过监控系统进行收集整理。其中ganglia是集群监控最常用的工具之一。它与Hadoop生态圈结合的非常好,且性能优良,不会对系统本身性能造成影响  ...
  • 阿里云存储 简单上传系统 SWFUPLOAD 测试版基于S3上传版本改来的使用说明使用文本编辑器打开conf.inc.php改access的id和key为你自己的上传到支持php的主机 并且需要开启fopen等函数支持才可以正常使用选择文件 上传...
  • 使用腾讯对象存储服务(COS),通过Java版SDK对其进行增删改查操作,此Demo经过测试可用,下载后用户需更改代码中的secretid和secretkey以及buckey的名称。
  • 将新浪云存储的资源通过fuse挂载到本地的文件夹中 安装 yum install fuse.x86_64 fuse-devel.x86_64 pip install fuse-python scs-sdk 修改 online.py中的 scs_accesskey = '你的新浪云存储ak' scs_secretkey = '你...
  • 混合云存储阵列(CSA)于2017年云栖大会发布,上市2年多,已经被基因测序,医疗PACS,影视制作,非编,广电,视频监控等行业和场景的客户广泛采用。混合云存储阵列承载了用户的业务负载的同时,以缓存模式(90%的...
    • 前言

    混合云存储阵列(CSA)于2017年云栖大会发布,上市2年多,已经被基因测序,医疗PACS,影视制作,非编,广电,视频监控等行业和场景的客户广泛采用。混合云存储阵列承载了用户的业务负载的同时,以缓存模式(90%的用户场景)将用户的数据上传到公共云OSS中。

    云存储网关(CSG)于2019年6月商业化后,在线上和线下(95%是线上客户),也被众多基因测序,传媒影视制作和互联网客户所采用。

    数据上云不是目的,只是用户混合云业务的前提。对于客户而言,如何将云上的数据最大程度的利用起来,是一个非常迫切的需求。云存储网关可以将数据同步到OSS中,混合云存储阵列集成了云存储网关,一个软件服务,一个硬件,这两个产品的组合方案,能解决客户什么样的问题呢?

    1. 存储阵列数据上云,存储网关数据分发、共享、再计算;
    2. 存储阵列用于生产,存储网关用于应急及研发测试;
    3. 存储网关云上备份归档数据到OSS,再通过存储阵列备份数据到线下;
    • 存储阵列数据上云,存储网关数据分发再计算

    下图就是一个典型的存储阵列与云存储网关协同解决用户数据上云,再分发,再计算的场景。以视频渲染制作公司为例,在主数据中心,混合云存储阵列承载了几十到上百人的团队的日常工作,包括剪辑,转码,调色,特效渲染,成片输出等工作。当一个项目完成阶段性里程碑时,会有一些素材和成片需要进入下一道工序:不管是将这部分数据交付给客户,或者是位于其他办公地点的下一个团队或同事,都可以通过混合云存储阵列将数据同步到OSS中。在远程办公地点部署的云存储网关,会通过极速同步功能,智能感知到位于上游团队交付的新素材,从而快速完成反向同步,随即开始下一道的流程和工序。

    同样,很多视频渲染和基因测序公司,会将本地数据中心作为数据采集和粗加工的产所,再通过混合云存储阵列将采集和粗加工的数据上传到OSS中。在公共云上,云存储网关极速同步拉取最新的数据,依托阿里云提供的弹性计算资源,再进行云上计算业务——将原本线下的渲染或基因测序任务,在云上高效地执行。

    用户数据在存储阵列或云存储网关,和云端的流通过程,是经过加密的,确保用户数据绝对安全。最后,混合云存储阵列和云存储网关都能够将用户数据自动归档到归档OSS中;当用户需要访问归档OSS中的数据时,也可以做到透明读取,无需用户再去OSS控制台解冻。整个流程高效流畅。

    存储阵列数据上云,存储网关数据分发再计算架构图

    同样,很多视频渲染和基因测序公司,会将本地数据中心作为数据采集和粗加工的产所,再通过混合云存储阵列将采集和粗加工的数据上传到OSS中。在公共云上,云存储网关极速同步拉取最新的数据,依托阿里云提供的弹性计算资源,再进行云上计算业务——将原本线下的渲染或基因测序任务,在云上高效地执行。

    用户数据在存储阵列或云存储网关,和云端的流通过程,是经过加密的,确保用户数据绝对安全。最后,混合云存储阵列和云存储网关都能够将用户数据自动归档到归档OSS中;当用户需要访问归档OSS中的数据时,也可以做到透明读取,无需用户再去OSS控制台解冻。整个流程高效流畅。

    • 存储阵列用于日常生产,存储网关用于应急突发情况

    混合云存储阵列具备传统企业存储的特性,如高可用,高性能,安全可靠,同时,可以根据业务需求提供足够多的本地存储空间。因此,存储阵列在客户实际场景中,一般都是用于一些固定项目,负载普遍比较稳定。无论是前端负载,还是后端上云的带宽,都处在比较高的负载。如果再发生一些突发场景,例如:

    1. 一个团队的项目的交付需要紧急上云;
    2. 一个团队需要从云端下载一些之前归档的文件用于验证最近的开发与测试;
    3. 公司因为业务扩张,计划购买一台新的混合云存储阵列,正在等待预算和采购流程;
    4. 混合云存储阵列正在进行扩容或者维护,需要快速应急方案来保证正常的业务生产;

    当客户遇到以上这些突发紧急情况的话,原本规划好的存储阵列不一定可以满足临时的需求。这个时候,可以在公共云上创建一个或者多个云存储网关来弹性支持业务需求。

    存储阵列用于日常生产,存储网关用于突发应急业务

    当创建云存储网关,支撑业务临时需求时,需要区分只是数据上云需求,还是需要将云上数据拉会到本地再应用。如果只是数据上云,存储网关即开即用,只需要规划好云存储网关缓存盘的大小和数量即可获得确定的上云性能。但如果是需要拉取云上的数据到本地的情况,取决于文件数目的多少,反向同步需要一定的时间。建议如果有数据下云的需求,在日常可以创建1-2个网关备用,时刻保证存储网关上的数据与OSS bucket内的数据保持一致。

    • 存储网关归档备份数据到OSS,再通过存储阵列备份数据到线下

    有很多混合云存储的客户,他们主要的业务系统是在云上,但他们有将数据备份到云下的需求。例如,有个客户运营着几十个数据库系统,每天进行一次备份,并将备份数据存储在OSS上。随着运营的数据库系统的数量的增多和重要性的增加,数据只备份一份已经不能满足业务需求。对这个客户而言,线下再备份一份数据就是一个合理的选择。基于混合云存储阵列的反向同步功能,用户能很方便的将OSS bucket与存储阵列的本地文件夹做关联,及时高效,安全可靠地将数据备份在存储阵列上。当数据需要恢复时,用户再将数据从线下的混合云存储阵列同步到OSS中,再将备份数据恢复到数据库中,完成数据的恢复流程。

    存储网关归档备份数据到OSS,存储阵列备份数据到线下

    • 总结

    以上三个典型的混合云存储阵列与存储网关协同场景,核心是两个产品都具备连接OSS的能力,并能将数据缓存在存储阵列与存储网关上,从而在兼顾性能与成本的同时,给用户的混合云业务提供了最大可能的便捷与弹性。存储阵列与存储网关不同的是存储阵列具备企业级存储的特性与本地存储能力,而云存储网关主要是面向公共云客户的云服务,弹性,按需,灵活。两个产品在不同的客户需求下,可以互相搭配,高效协同地为客户解决线上到线下或者是线下到线上的混合云场景下的数据流动问题。


    原文链接
    本文为阿里云原创内容,未经允许不得转载。

     

    展开全文
  • PAGE 3 测试存储节点高可用 测试条件ceph集群处于health_ok状态 操作练习 ...检查剩余存储节点的状态 图1-7 存储节点高可用 一段时间后ceph状态恢复至health_ok并且horizon上可以正常创建/删除硬盘可以正常启动虚拟机
  • 又拍云存储文件上传基于S3的简单上传版本改来的。 需求: 1.又拍云存储账户 2.PHP主机一枚,本地测试也可以 安装: 1. 打开config.php 配置为你的又拍云账户…
  • 以绝缘子泄漏电流数据为例,使用YCSB对所建存储系统进行了性能测试测试结果表明,Hadoop和Hbase在存储容量、吞吐量以及查询延迟上提供了足够高的性能,能够满足智能电网状态监测数据可靠性及实时性要求。
  • 有阿里的对象存储;2.要获取AccessKey及找准Endpoint,修改代码中相应的部分;3.点击即上传,只支持图片格式,成功后向前端返回上传后的图片路径。 下载后,把资源包解压到网站目录,访问upload.php即可,不要...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 153,157
精华内容 61,262
关键字:

云存储测试