精华内容
下载资源
问答
  • EBS 弹性块存储

    千次阅读 2018-11-06 15:06:42
    EBS 弹性块存储 一、常见三种存储方式DAS、NAS、SAN的架构及比较 1. 存储的分类: ![在这里插入图片描述](https://img-blog.csdnimg.cn/20181106150317954.jpg?x-oss-process=image/watermark,type_ZmFuZ3poZW5...

    EBS 弹性块存储

    一、常见三种存储方式DAS、NAS、SAN的架构及比较

    1.存储的分类:

    被遮盖的是存储区域网络(Storage Area Network)的简称

    2.常见三种存储架构 DAS、NAS、SAN比较

    (1)三者的比较:

    在这里插入图片描述

    (2)DAS存储(直连式存储)

    存储系统被直连到应用的服务器中
    缺点和局限性:
    a.数据备份通常占用服务器主机资源20-30%,因此许多企业用户的日常数据备份常常在深夜或业务系统不繁忙时进行,以免影响正常业务系统的运行。
    b.直连式存储与服务器主机之间的连接通道通常采用SCSI连接,随着服务器CPU的处理能力越来越强,存储硬盘空间越来越大,阵列的硬盘数量越来越多,SCSI通道将会成为IO瓶颈;服务器主机SCSI ID资源有限,能够建立的SCSI通道连接有限
    c.无论直连式存储还是服务器主机的扩展,从一台服务器扩展为多台服务器组成的群集(Cluster),或存储阵列容量的扩展,都会造成业务系统的停机,从而给企业带来经济损失,对于银行、电信、传媒等行业7×24小时服务的关键业务系统,这是不可接受的。并且直连式存储或服务器主机的升级扩展,只能由原设备厂商提供,往往受原设备厂商限制。

    (2)NAS存储(w存储)

    展开全文
  • 4月21日,InfoQ主办的QCon(2016全球软件开发大会)在北京举行,腾讯云资深存储架构师吉永光分享了腾讯云弹性块存储系统的实践,首次披露了SSD云盘的设计理念与技术架构。

    4月21日,InfoQ主办的QCon(2016全球软件开发大会)在北京举行,腾讯云资深存储架构师吉永光分享了腾讯云弹性块存储系统的实践,首次披露了SSD云盘的设计理念与技术架构。
     
    小编第一时间为大家送上现场技术分享,干货满满。
     
    Overview
     
    云存储通常以Iaas(Infrastructure as a service)的方式对外提供服务,是最底层的基础设施。其不但要满足用户苛刻的性能需求,还必须具备灵活的运营调度能力,特别是在公有云中,还需要为用户提供多种存储访问接口,这些需求会使得存储协议栈变得相当复杂。
     
    云存储服务的最底层,通常是若干个抽象的存储池,这些存储池可能基于分布式存储系统构建,也可能是基于传统的SAN存储服务器,或者是两者的混合,其介质可能是sata,sas,ssd,也可能tiered storage pool。

     
    存储池通过虚拟存储网关对外提供统一抽象的存储服务,其服务对象可能是 object存储服务和block存储服务。
     
    通过虚拟存储网关的抽象,我们将存储池的资源以volume(虚拟磁盘)的形式提供给虚拟卷控制器驱动,虚拟卷控制器负责将远程存储资源虚拟为本地磁盘提供给hypervisor,hypervisor再将磁盘提供给上层的虚拟机用户使用。
     

     
    用户可以像使用本地盘一样,使用block存储服务,比如:分区,创建文件系统,并基于文件系统构建web,mysql或者hadoop等服务等。对于使用文件系统的这类应用来说,从自建迁移到使用弹性块存储的公有云,几乎是零成本的。
     
    弹性块存储架构
     
    目前主流的公有云提供商,比如AWS,腾讯云,阿里云等,都需要用户通过购买虚拟机和云盘的方式来获取弹性块存储服务。今天跟大家分享一下腾讯云弹性块存储服务也就是云盘后台分布式存储系统的设计和实现。
     
    我们对于底层存储系统的设计理念就是简单,越简单越可控。
     
    从架构图可以看到,我们的系统主要分为三个模块:Client模块、Master模块,Chunk server模块。Client通常部署在hypervisor上,也就是概述图里面提到的Volume storage controller。
     
    它主要有两个功能:
     
    一是负责磁盘虚拟化。将存储池抽象的volume空间映射为本地盘,存储池的volume是由分布在不同Chunk server上的Block组成,client负责将它们映射为统一的逻辑地址;
     
    二是存储协议转换。将用户的IO请求按照固定的块大小进行拆分,并将请求路由到不同的Chunk server。
     
    Chunk Server是存储节点,负责管理分配Block,保存用户数据。对存储系统来说,最重要的是数据安全,所以我们采用每份数据冗余三份的方式保存。每个Block块会分布在不同的三台Chunk server上。
     
    在公有云中,用户的数据都存在同一个存储池中,用户数据隔离非常重要,所以Chunk server还会进行用户的访问鉴权,只有合法的Client才能访问Chunk server数据,鉴权控制粒度是盘和用户粒度。
     
    Master模块主要负责管理Client到Chunk server的路由,以及Chunk server的故障剔除和恢复。
     
    Master将路由信息推送到Client,Client根据路由信息对用户IO请求实施转发。同时,Maste负责监控Chunk server的状态,当集群出现坏盘或者死机时候,及时对其进行剔除,并启动数据迁移和恢复。
     
    关键实现技术
     
    1. 数据组织
     
    我们将Chunk server上的存储空间划分为若干固定大小的block,它是空间分配回收的基本单位;用户看到的统一逻辑地址空间,就是由分布在不同chunk server上的block构成;chunk server负责block的分配管理。
     
    如果整个系统的路由都已block为粒度进行管理,势必对Master和Client内存造成巨大压力(PB级别的系统,其路由条目可到GB级别),为了优化路由,大多数分布式存储系统都会在block基础上增加一个逻辑管理层,我们称为partition。
     
    partion是路由,故障恢复的基本单位,每个partion包含若干的block;通过引入partition,路由条目可缩小到MB级别。
     
    2. 一致性hash
     
    在分布式系统中,节点故障是常态,如果降低节点故障对用户访问的影响,以及减少故障恢所需要搬迁的数据量,是分布式系统设计首要需要考虑的问题。一致性hash算法能有效解决这两个问题,所以一致性hash在分布式系统的设计中,有着广泛的应用。
     
    为了让用户访问均衡,我们将hash ring划分为多个hash node,hash node对应一组partition group(包含3个partition),不同的hash node可能对应相同的partition group。
     
    首先,每块云盘都有独一无二的diskid,diskid与用户请求的blockid(逻辑地址空间上的id)号,可以构成一个独一无二的key,用来标识某个block;
     
    然后,使用该key可以从一致性hash环上定位到具体的hash node,从而找到该block所属的partition group,该partition group包含了三份数据所属chunk server的ip,磁盘信息;
     
    最后,client根据该信息将请求forward到指定的chunk server上。
     
    3. 多副本冗余
     
    由于我们采用了三份本存储,任何一份数据异常,另外两份数据必须是可以用的,这就要求三份数据是严格一致。
     
    分布式系统写多份通常有两种方法:
     
    3.1 从client直接写多份到存储副本;
     
    3.2 client先写到主副本,再由主副本流水同步到从副本。
     
    第一种方式,写延时最小,但是由于client写三份数据,给他带来的网络流量压力较大;第二种方式,client流量压力最小,但是写延时相对较高。
     
    我们采用了折衷的方案,client先写主副本,同时写两份从副本,当从副本更新成功后,向用户返回写成功。原则是写三份成功再返回用户成功。对于读请求,直接向主副本请求数据。
     
    4. 快速恢复
     
    分布式系统中,副本故障是常态,在故障期间,分布式系统对外提供的是降级服务,如何快速完成数据恢复,是衡量存储系统好坏的重要标准。
     
    导致副本故障的原因很多,有存储设备自身硬件问题,也有网络问题,或者驱动,自身程序的bug等。
     
    若对于所有故障采用相同恢复方式的话,恢复代价较高,比如:对于4T的sata盘,受限磁盘带宽,按照50MB/s的恢复时间,大概需要花费23小时,如果是整机故障,则恢复代价更高。
     
    是否任何情况下我们都需要对数据进行全量的恢复呢?
     
    实际除了硬件故障外,软件或者网络故障其实都可以在短时间内恢复,而在这个时间内发生的数量修改并不多。
     
    我们采用增量恢复技术来加快用户数据恢复,所谓增量恢复,即故障节点恢复后,只向主同步节点故障期间的数据修改即可,这个数据量是远远小于全量恢复的。
     
    如何做到增量恢复呢?

     
    迁移恢复的最小逻辑单位是partition,最小物理单位是block,每个block维护自身的seq号,每次更新,seq号会自增,用户新的写请求依然会同时写到三个副本(包括故障恢复副本),但是故障副本的新写入数据只能写在内存cache,不能刷新到磁盘,后台进程负责比较故障副本上block与主副本block的seq,相同的则跳过恢复,不同的则恢复到故障副本磁盘。
     
    5. 数据迁移
     
    当然,并不是每次故障都那么幸运,能快速恢复,比如不可逆的硬件故障,更换物理设备的时间会比较长,这个时候可能我们需要发全量的数据迁移。即将故障partition的所有数据迁移到另外三份正常的partition。
     
    Mater负责分配三份目的Partition,用户新请求写到主节点后,同时写到另一份从副本和目的主副本,然后目的主副本负责同步到两份目的从副本。后台进程负责将存量数据从源主副本同步到目的副本。
     
    这里需要考虑后台进程与用户写请求的互斥,具体实现原理与快速恢复相同。
     
    6. 多路智能预读
     
    如果说可靠性是存储系统安身立命之本,那性能则是其攻城略地的利器。对块存储系统来说,其性能衡量标准主要有四个方面:
     
    顺序读性能
     
    顺序写性能
     
    随机读性能
     
    随机写性能
     
    对云盘而言,由于底层采用了分布式架构,其发性能,随机性能是大幅优于本地盘的,但由于网络延时的原因,其顺序读写性能与本地盘相比,有着较大差距。
     
    对于写性能,由于文件系统cache的存在,将用户写请求转为了异步请求,其延时对用户并没有大的影响;但是顺序读,文件系统只有简单的预读算法,所以读请求的延时,对用户体验有重大影响。
     
    解决顺序读性能问题,预读是最有效的方法,可以扬长避短。决定预读效果的主要有两个方面,一个是预读算法,一个预读窗口。要实现一个预读算法很容,只需要简单记录用户请求,并判断新请求的起始是否上个请求的结尾即可。
     
    但实际应用中,是否有这么理想的模型呢?
     
    比如同时拷贝几个文件,或者云盘上同时运行了几个应用进程,这都可能导致同时存在多个请求流。如果采用简单的预读算法,其预读效果可能不理想。
     
    为了解决这个问题,我们采用了多路预读方式,即同时探测多个读请求流,若发现为预读,则启动多路预读,保证每个顺序读请求流的命中率。
     
    预读窗口显然是越大越好,可以充分发挥分布式存储系统的并发优势,但是一味的扩大预读窗口,会对后端存储造成压力,影响其他业务IO,最理想的窗口应该是可以保证前端请求可以持续不多的在预读cache命中。
     
    我们会根据前后端的访问延时,动态的调整预读窗口大小,保证命中率的前提下,尽可能降低对后端存储的压力。
     
    快照:快照指的是数据集合在某个时间点(拷贝开始的时间点)的完整拷贝或者镜像,当生产系统数据丢失时,可通过快照完整的恢复到快照时间点,是一种重要的数据容灾手段。
     
    从快照的定义可以看出,快照的主要用途在于容灾,对生产系统的milestone进行备份。
     
    投资界有句名言-“不要把鸡蛋放在一个篮子里”,所以我们设计快照系统的时候,将快照数据存在了与生产系统隔离的,不同存储引擎的存储系统里面,除了在硬件上容灾外,还可以在软件和运营层面容灾(案例)。
     
    当用户创建快照后,我们立即启动后台进程,已block为单位,将用户数据从生产系统拷贝到快照系统,为了保证用户数据的时间点一致,我们快照设计采用了多版本和Cow技术。
     
    用户创建一次快照,用户的写入数据版本就会自增,并分配新的block进行保存,避免对原来数据的修改,从而保证数据的时间点一致。
     
    由于快照分配也是以block为粒度,而用户写不一定覆盖整个block块,所以需要在用户第一次写时,将旧block数据拷贝的新block后,在实施修改。后台进程会负责将所有的旧block拷贝到快照系统。
     
    所以,在我们设计中,创建快照是一个瞬间过程,但整个快照数据的备份,是需要耗费一定的时间,其长短又备份带宽决定。
     
    前面我们也提到,快照的主要目的是容灾,当我们使用快照实施回滚时,通常是发生了数据丢失或者损坏。而快照数据是保存在与生产环境隔离的存储系统中。
     
    如何快速的实施回滚呢?
     
    首先,快照的回滚确实与创建一样,存在数据搬迁过程,需要一定的时间窗口,那为了让用户能够实时回滚数据,我们设计了读写的trigger机制。
     
    用户一旦使用快照实施回滚以后,我们立即启动回滚进程实施数据的搬迁,而且这个时候,用户即可使用该快照数据了。
     
    我们后台通过bitmap记录了完成搬迁的block块,当用户请求时,先检查对应的block是否已经完成回滚动作,若未完成,则先阻塞用户请求,优先触发对该block的回滚,完成后在执行用户请求,从而保证用户能实施使用回滚数据。
     
    7. CDP
     
    数据是企业最核心最有价值的东西,快照虽然能有效快速的将数据恢复到某个时间点,但毕竟存在一定的RPO窗口,其窗口内丢失的部分数据,可能就是一家企业的生命线。
     
    目前公有云的用户运营水平参差不齐,对部分有运营经验和实力的公司,为了保证自身的核心数据的万无一失,除了选择使用云盘外,可能还会在自身业务侧设计容灾架构。
     
    但大部分公有云用户可能不具备这类意识和能力,一旦发生黑客攻击或者误操作导致数据损坏时,虽然通过快照能够进行一定程度的补救,但丢失的部分数据依然可能是致命的。
     
    为了彻底消除RPO窗口,我们加入了CDP机制。其实现原理非常简单,即所有的用户修改请求,除了应用到生产系统,我们会将其旁路到CDP系统,当用户线上系统出现数据损坏时,可以通过重放请求,帮助用户恢复到任意时刻的数据。
     
    然如果CDP系统保留用户全量的修改数据,其成本过于高昂,难以产品化以帮助到广大用户。
     
    为了降低成本,我们结合快照,仅保留7天的修改数据,从而保证用户能恢复到7天内任意时刻数据,从而彻底解决用户数据丢失的后顾之忧。
     
    典型应用场景
     
    1.为云而生,去本地化
     
    高性能、高数据可靠性:高效支持虚拟机热迁移,提前避免物理故障带来的业务中断 ,适用于高负载、核心关键业务系统。提供三份数据冗余,具备完善的数据备份、快照、数据秒级恢复能力 。
     
    弹性扩展:云盘可在区域内自由挂载、卸载,无需关闭/重启服务器;云盘的容量可弹性配置,按需升级容量;单台虚拟机最多可挂载10块云盘,容量达40TB 。
     
    2. 高效支持TB/PB超级大数据分析
     
    云盘多线程访问能力优秀,高效支持Hadoop-Mapreduce、HDFS。高效应对TB/PB级数据的离线处理,广泛应用于数据分析、挖掘、商业智能等领域。
     
    我们做了一个测试,择取12Core 40GB RAM 服务器5台,各挂载1TB SSD云盘、1TB 普通云盘,进行Spark/zookeeper/HDFS部署,模拟离线数据分析。
     
    测试结果显示,1.5TB数据,5块普通云盘提供500MB/s的读取速度, 50分钟读取到内存。使用SSD云盘,可在25分钟完成!
     
    3. 核心数据库
     
    腾讯云SSD云盘,基于全SSD存储介质、CBS分布式架构,实现了超强性能与超高可靠性的集合。
     
    SSD云盘适合对I/O性能要求高、同时对数据可靠性要求也高的场景。
     
    尤其适合如PostgreSQL、MySQL、Oracle、SQL Server等中大型关系数据库应用、对数据可靠性要求高的I/O密集型等核心业务系统以及对数据可靠性要求高的中大型开发测试环境。
     
    在联机事务处理上,我们进行了mysql压力测试,在4台Core 8GB RAM虚拟机上挂载800G的SSD云盘,进行Mysql version 5.5.42部署。
     
    测试结果显示:用sysbench模拟OLTP性能测试,测试集为1千万条记录,TPS可达1616、QPS达29000,单盘足以支撑每秒上万人的在线同时交易!
     

    展开全文
  • 行业分类-设备装置-一种基于弹性块存储的数据写、读方法及装置
  • 输入弹性块名称、选择可用域、设置申请块存储大小、选择购买周期;弹性块创建成功后状态为:【就绪】; 修改操作 点击【修改】可修改该块存储的名称;块存储状态为【就绪】状态才能修改名称; 挂载操作 点击...

    弹性块创建操作
    点击【创建】创建弹性块;输入弹性块名称、选择可用域、设置申请块存储大小、选择购买周期;弹性块创建成功后状态为:【就绪】;

    修改操作
    点击【修改】可修改该块存储的名称;块存储状态为【就绪】状态才能修改名称;


    挂载操作
    点击【加载到主机】可将选择的状态为【就绪】的块存储挂载到指定的云主机上。

    选择云主机,点击【确定】

    绑定操作提交后块存储状态变成【正在挂载】

    挂载操作执行成功后,状态修改为【已挂载】,应用主机显示挂载的云主机名称

    1)挂载成功后,对于 linux虚机,如何mount上去,请参照如下步骤:
    右键linux虚机实例,点击访问:

    Linux/Unix系统:执行如下fdisk -l命令查看是否挂载成功:
    挂载前只有/dev/vda一块盘:

    挂载成功后多了一块盘/dev/vdb

    然后用fdisk  /dev/vdb命令给新盘分区

    输入m后回车:

    输入n,增加一个新分区:

    再输入p,意思是选择主分区,然后回车:

    再输入1,分第一个分区,然后回车

    输入1-20805之间的一个数字或者直接回车

    输入1-20805之间的一个数字或者直接回车

    输入w保存,等待保存完毕:

    分区成功后:

    格式化分区:

    创建一个目录,例如wocloud:

    把刚才新建的分区mount到wocloud目录上:

    用df命令查看是否mount成功了:

    2)对于windows虚机,挂载成功后,如何识别,并分配盘符,请参照如下步骤:
    右键windows虚机实例,点击访问:

    在出来的页面输入用户名和密码:

    http://www.wocloud.cn/u/cms/www/201404/14163931s26v.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164007i6hc.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164101b2zb.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164225c8ks.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164252z288.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164439o3nj.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164730fman.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164809e9y0.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164852b7a0.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164921nrpr.jpg

    http://www.wocloud.cn/u/cms/www/201404/14164945xhej.jpg

    http://www.wocloud.cn/u/cms/www/201404/14165020e84t.jpg

    http://www.wocloud.cn/u/cms/www/201404/14165047mm04.jpg

    等待格式化完成:

    http://www.wocloud.cn/u/cms/www/201404/14165128aflr.jpg

    格式化完成后:

    http://www.wocloud.cn/u/cms/www/201404/14165156sokj.jpg

    在我的电脑里面可以看到新增加的D盘:

    http://www.wocloud.cn/u/cms/www/201404/14165301v9un.jpg

    卸载操作
    选中状态为【已挂载】的块存储,点击【卸载】可将该块存储从云主机上卸载。

    解绑操作提交后块存储状态变成【正在卸载】

    卸载成功后,块存储状态修改为【就绪】;

    销毁操作
    销毁操作允许用户中止块存储服务。删除前提块存储从云主机卸载后状态为【就绪】才能删除。
    【已挂载】状态的块存储不允许删除(删除按钮置灰不能操作)

    【就绪】状态的块存储允许删除,删除成功该块存储不在弹性块管理页面展示;

    创建备份操作
    创建备份操作为用户提供块存储本地备份服务。点击【创建备份】输入备份名称。

    输入备份名称:

    点击【确定】,可通过点击【查看备份】查看生成的备份。

    设置自动备份操作

    自动备份操作可设置块存储开启或关闭,自动备份开启可按周期、自动备份的最大个数进行本地和异地定时备份。

    点击【设置自动备份】设置定时备份

    本地备份:

    异地备份:

    点击【确定】成功设置定时备份,设置定时备份成功后查看【设置自动备份】任务状态为【就绪】

    本地备份:

    异地备份:

    备份查看操作

    勾选已备份的块存储,点击【查看备份】跳转到左侧功能菜单【弹性块存储备份】查看已生成的备份

    续订操作

    续订操作支持块存储按月订购,右键点击块存储名称,选择【续订】

    展开全文
  • 裸金属服务器可实现不差于物理服务器的性能,同时可以实现资源的弹性扩展与使用,全自动化的运维管理,越来越受到金融证券、HPC等对业务性能、数据安全要求较高用户的欢迎。 需求痛点 裸金属云可以实现弹性和...

    相对于公有云模式,裸金属服务器为用户提供物理服务器的租赁服务,延续了物理机无损性能这一得天独厚的优势,能够同时满足核心应用场景对高性能及稳定性的严格要求。使用裸金属服务器客户资源独占,不用和其他客户共享CPU、内存等,性能可以得到充分挖掘。因为采用物理机级别的完全隔离,可提供更安全、可靠计算资源。裸金属服务器可实现不差于物理服务器的性能,同时可以实现资源的弹性扩展与使用,全自动化的运维管理,越来越受到金融证券、HPC等对业务性能、数据安全要求较高用户的欢迎。

     

    需求痛点

    裸金属云可以实现弹性和自动化的计算资源管理,然而却没有有力的数据存储匹配方案:

    1、弹性不足、运维复杂:采用本地硬盘的裸金属服务器扩容不便,缺少统一管理,无法动态合理分配资源,扩容需要大量人工干预,带来极大的成本增长。

    2、资源固化、成本高昂:裸金属云的业务应用由于对存储性能要求较高,会在各主机配置独立NVME盘,但各主机SSD资源无法实现池化与动态分配,资源利用率低,成本高昂。

    3、单点故障、安全性低:本地硬盘方式缺少统一管理与数据保护,成为系统明显的单点故障,一旦服务器或硬盘损坏,将造成数据丢失业务中断等严重后果。

     

    FASS高性能弹性块存储解决方案

            

    △方案拓扑

    存储池主要采用配备全NVMe盘的FASS分布式全闪存储系统构建,FASS使用跨节点的SSD资源创建存储池,并划分多个LUN卷,基于100Gb以太网或Infiniband网络,以iSCSI/iSER/NVMeoF协议映射到每个需要存储的裸金属主机。

    FASS每个LUN卷采用自动精简配置,可以分配远超实际物理资源的空间,满足各主机不断变化的业务需求。后台可以根据各主机的实质使用,动态分配物理资源。

    作为标准的分布式存储系统,FASS支持512节点的Scale-out扩展,可以随着业务需求的变化,通过横向扩展轻松提升容量与性能,满足云端业务的庞大需求。

     

    方案优势

    标准协议、优异性能——FASS分布式全闪存块存储解决方案采用NVMe介质,基于标准的iSCSI、iSER、NVMeoF可以提供极致I/O性能,结合软件层的XPE引擎设计、微控制器技术、轻量元数据索引等机制,块存储端可达到三节点千万级IOPS、微秒级延迟,可轻松满足裸金属云主机的严苛性能需求。

    高可用、弹性扩展——FASS分布式全闪存储系统采用全活高可用架构,可以允许任意节点故障而不中断块存储服务,具有极高的业务可用性。FASS单节点可达到100万级IOPS,随着集群规模的增长同时实现容量性能的线性增长,达到上千万的IOPS性能。

    按需使用、规划极简——FASS默认提供自动精简配置卷,可以无视实际物理空间,创建出大容量的逻辑卷。无需任何人工干预,即可满足不同云主机各不相同且动态变化的容量需求,大幅简化容量管理。

     

    业务场景

    在新信息技术、移动互联网背景下,基于分布式全闪块存储的裸金属服务器可满足互联网、人工智能、大数据、基因工程等技术型公司,以其超高性价比、高性能、可定制、送产权等优势,解决客户在扩张期资源紧张问题。
    1、金融、证券对安全和监管高要求的行业场景,对数据安全有苛刻要求的企业。
    2、高性能计算场景:超算中心、基因测序等高性能计算场景数据处理量大,对服务器的计算性能、稳定性、实时性等要求极高。
    3、核心数据库场景:某些关键的数据库业务不能部署在虚拟机上,必须通过资源专享、网络隔离、性能有保障的物理服务器承载。

    4、移动应用场景:围绕移动应用,尤其是手机游戏的开发、测试、上线、运营。

    (TaoCloud团队原创)

    展开全文
  • 详细介绍了块存储、文件存储和对象存储的区别,有助于了解不同的存储方式之间的差异
  • 弹性块存储(Elastic Block Storage)是近年来利用云存储的灵活性和简单性如何得到改善的一个例子。 如今的云计算远远超过几年前人们的想像。在迁移、存储和易用性方面,已经有很多关于这个主题的文章和白皮书。许多...
  • 【摘要】 块存储适用于数据库、ERP等企业核心应用的存储,具有三大存储中最低的时延。 文件存储适用于HPC、企业OA等需要存储数据被多个计算机点共享的场景,具备PB级别的容量,ms级别的时延。 对象存储适用于大数据...
  • Amazon EBS弹性块存储服务初探

    千次阅读 2013-07-19 13:55:02
    近两年来,云计算的概念炒得火热火热...其实在云计算中还有一个领域就是服务器虚拟化,将物理服务器的CPU、内存、存储和网络虚拟出若干个相互之间安全隔离的虚拟服务器以提高资源使用率,低碳节能环保。像Amazon的EC2
  • 为用户提供的块存储是在整个生命周期中永久存在的。 Cinder Architecture Cinder 主要由 3 个组件组成, cinder-api, cinder-scheduler 和 cinder-volume ,如图 1 所示。   图 1 Cinder ...
  • https://blog.csdn.net/enweitech/article/details/51445087 块存储和文件存储是我们比较熟悉的两种主流的存储类型,而对象存储(Object-based Storage)是一种新的网络存储架构,基于对象存储技术的设备就是对象...
  • 储存、对象存储、文件存储

    千次阅读 2018-08-07 19:40:46
    通常来讲,磁盘阵列都是基于Block存储,而所有的NAS产品都是文件级存储。在讲这三者的内容和区别之前,先介绍一下结构化数据,半结构化数据和非结构化数据。 1、结构化数据 结构化的数据是指可以使用关系型...
  • 计算机存储的发展(块存储,文件存储,对象存储)

    万次阅读 多人点赞 2018-09-15 15:04:08
    块存储 DAS SAN 文件存储 块存储和文件存储异同: 对象存储 1、对象 2、对象存储设备 3、元数据服务器(Metadata Server,MDS) 4、对象存储系统的客户端Client 三者之间异同比较 参考文献 如果要实现一个...
  • 如果云主机绑定了弹性块存储、挂载了网卡、生成了快照则提示无法销毁,需先解除绑定或销毁,再执行云主机销毁操作。如下图所示: 方式一: 方式二: 查看初始密码操作 选中云主机,点击【更多操作...
  • 一台弹性云服务器可以挂载多磁盘吗? 更新时间:2020/06/28 GMT+08:00 查看PDF 分享 可以。平台近期对磁盘功能进行了升级,对于系统升级后创建的弹性云服务器,系统最多支持挂载60磁盘。具体如下: 创建...
  • 多云管理平台接口

    2018-12-02 19:18:37
    1. 弹性块存储删除逻辑:弹性块销毁首先删除到回收站,修改实例状态为待回收,底层状态不变,删除到回收站的弹性块存储不释放配额,回收站中实例保存15天,15天后系统自动对实例执行销毁操作,销毁成功释放弹性块...
  • 阿里云总监系列课重磅上线!聚焦人工智能、弹性计算、数据库等热门领域,首次集齐12位阿里云技术高管,耗时半年精心打磨,从理论到实践倾囊相授,从零开始...本节课程《存储虚拟化及块存储技术》,欢迎大家前来学习。
  • 在一段时间内,CURVE一直被用作网易内部的弹性块存储服务,在此期间,其性能和可靠性得到了体现。 设计文件 想看一眼CURVE吗?单击此处了解! 需要更多细节吗?我们针对每个组件的文档: 基于CURVE的应用 快速开始 ...
  • 摘要: 6月13日,阿里云宣布弹性计算Apsara Block Storage产品正式发布,为企业级客户量身打造,构建高性能、弹性、可靠的大规模分布式块存储服务平台。 Apsara Block Storage可兼容多种类型的计算平台,包括阿里云...
  • 存储类型: https://www.bilibili.com/video/BV1WE41177Kp?from=search&seid=1887114199876544924 存储分类2: 块存储: 文件存储: 对象存储:
  • 块存储和文件存储是我们比较熟悉的两种主流的存储类型,而对象存储(Object-based Storage)是一种新的网络存储架构,基于对象存储技术的设备就是对象存储设备(Object-based Storage Device)简称OSD。  首先,...
  • 1 查看当前linux分区情况,可输入这条linux命令: fdisk -l (该命令可确定弹性块存储是否挂载成功,挂载成功的话会多出一块盘比如 /dev/vda /dev/vdb) 我当前的分区情况如下: [root@localhost ~]# fdisk -l ...
  • 1. 块存储 Amazon的EC2中就有块存储,叫做EBS (Elastic Block Storage)。  其实就是虚拟机挂载的一块虚拟磁盘。推而广之,你会发现,自己平时用的VMware、VirtualBox都可以创建虚拟磁盘。能够造出这个东西,且构造...
  • 还不知道 AWS 是什么?这 11 个重点带你认识 AWS !

    万次阅读 多人点赞 2020-03-20 16:15:44
    弹性块存储(EBS)——它是块级存储,可以用作数据库应用程序等的主要存储,因为它们具有灵活性和可伸缩性。 电子文件系统(EFS)、FSx、Snowball等是亚马逊网络服务云存储服务提供的其他一些产品。 AWS数据库 ...
  • 几种块存储简单介绍!!!

    千次阅读 2014-02-28 13:31:29
    块存储,简单来说就是提供了块设备存储的接口。通过向内核注册块设备信息,在Linux中通过lsblk可以得到当前主机上块设备信息列表。 下面会先介绍常见的单机块设备工具来建立Common Base。 Contents 单机块存储 ...
  • 分布式对象存储 接口协议 (SCSI协议) 文件(NFS、CIFS协议) 对象(OpenStack SWIFT、Amazon S3) 时延 较低(左右) 中(10ms~100ms) 高(60ms以上) ...
  • 一、在SAN中,存储资源就像一块一块的硬盘,直接挂载在主机上,我们称之为块存储,操作对象是磁盘,存储协议是SCSI、FC。 1、在腾讯云创建一台云主机实例:块存储测试WEB01 2、控制台–云硬盘–购买数据盘 3、这块...
  • 块存储与两者的区别在哪里?其实,这三个概念都是围绕数据而衍生的。 【对象存储】 首先来说对象存储,最常用的方案,主要是将多台服务器内置大容量硬盘,再装上对象存储管理软件,管理其它服务器并提供读写访问的...
  • 块存储的世界

    2016-06-15 10:15:02
    1 单机块存储 1.1 LVM & Device-mapper1.2 SAN & iSCSI 2 分布式块存储服务 2.1 分布式块存储2.2 Amazon EBS & 阿里云磁盘2.3 阿里云2.4 Ceph & Sheepdog2.5 Sheepdog2.6 Cinder 3 总结4...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 29,397
精华内容 11,758
关键字:

弹性块存储