精华内容
下载资源
问答
  • 什么是Zookeeper的容灾性? Zookeeper本身是分布式存储,至少3个节点,里面分leader和follower 简单来说,就是有一个主节点,另外2个从节点一旦某个节点挂掉了,Zookeeper会自动通过选举产生一个新的节点继续提供...

    什么是Zookeeper的容灾性?

    Zookeeper本身是分布式存储,至少3个节点,里面分leader和follower
    简单来说,就是有一个主节点,另外2个从节点一旦某个节点挂掉了,Zookeeper会自动通过选举产生一个新的节点继续提供服务;而一旦这个坏掉的节点又重新好了,会自动加入到节点集群里面中这个机制保障了对外提供服务不会中断,就是Zookeeper的容灾性

    展开全文
  • 数据库容灾性解决方案综述 目前数据库容灾目的的都是尽量减少或避免因灾难的发生而造成的损失。它是一个系统工程,备份与恢复就是这一系统工程的两个重要组成部分。除此之外,还有许多具体的工作,像备份媒体的保管...

           数据库容灾性解决方案综述
           目前数据库容灾目的的都是尽量减少或避免因灾难的发生而造成的损失。它是一个系统工程,备份与恢复就是这一系统工程的两个重要组成部分。除此之外,还有许多具体的工作,像备份媒体的保管、存放,容灾演练等都是容灾中要做的。
            从广义上讲,任何有助于提高系统可用性的努力,都可被称为容灾。
    数据库容灾根据不同实际需求可以有不同的等级。中小企业通常只需采用本地容灾即可。所谓本地容灾就是在企业网络本地所进行的容灾措施,其中包括在本地备份、存储、保管备份数据文件。在一些大中型企业,所采取的容灾级别就高些,称之为“异地容灾”或“远程容灾”。
           异地容灾就是采用异地存储备份,异地保管存储媒体等方式。这样就可避免因本地灾难发生而引发的数据丢失问题。而本地容灾通常是把备份磁带放在各个部门的房间中,如果发生水灾、火灾、地震等灾难,这些保存的数据肯定降受影响。
           不管企业采用哪种容灾方案,数据备份还是最基础的,没有备份的数据,任何容灾方案都没有显示意义。

    本文摘自 http://www.gzsam.com.cn

    展开全文
  • 即数据批量读取而非随机读写,Hadoop擅长做的是数据分析而不是事务处理 大规模数据集 简单一致模型。为了降低系统复杂度,对文件采用一次写多次读的逻辑设计,即是文件一经写入,关闭,就再也不能修改 程序采用...

    首先来了解一下HDFS的一些基本特性

    HDFS设计基础与目标

    • 硬件错误是常态。因此需要冗余
    • 流式数据访问。即数据批量读取而非随机读写,Hadoop擅长做的是数据分析而不是事务处理
    • 大规模数据集
    • 简单一致性模型。为了降低系统复杂度,对文件采用一次性写多次读的逻辑设计,即是文件一经写入,关闭,就再也不能修改
    • 程序采用“数据就近”原则分配节点执行

    HDFS体系结构

    • NameNode
    • DataNode
    • 事务日志
    • 映像文件
    • SecondaryNameNode

    Namenode

    • 管理文件系统的命名空间
    • 记录每个文件数据块在各个Datanode上的位置和副本信息
    • 协调客户端对文件的访问
    • 记录命名空间内的改动或空间本身属性的改动
    • Namenode使用事务日志记录HDFS元数据的变化。使用映像文件存储文件系统的命名空间,包括文件映射,文件属性等

    Datanode

    • 负责所在物理节点的存储管理
    • 一次写入,多次读取(不修改)
    • 文件由数据块组成,典型的块大小是64MB
    • 数据块尽量散布道各个节点

    读取数据流程

    1. 客户端要访问HDFS中的一个文件
    2. 首先从namenode获得组成这个文件的数据块位置列表
    3. 根据列表知道存储数据块的datanode
    4. 访问datanode获取数据
    5. Namenode并不参与数据实际传输

    HDFS的可靠性

    • 冗余副本策略
    • 机架策略
    • 心跳机制
    • 安全模式
    • 使用文件块的校验和 Checksum来检查文件的完整性
    • 回收站
    • 元数据保护
    • 快照机制

    我分别试验了冗余副本策略/心跳机制/安全模式/回收站。下面实验是关于冗余副本策略的。

    环境:

    • Namenode/Master/jobtracker: h1/192.168.221.130
    • SecondaryNameNode: h1s/192.168.221.131
    • 四个Datanode: h2~h4 (IP段:142~144)

    为以防文件太小只有一个文件块(block/blk),我们准备一个稍微大一点的(600M)的文件,使之能分散分布到几个datanode,再停掉其中一个看有没有问题。
    先来put一个文件(为了方便起见,建议将hadoop/bin追加到$Path变量后
    :hadoop fs –put ~/Documents/IMMAUSWX201304
    结束后,我们想查看一下文件块的情况,可以去网页上看,也可以在namenode上使用fsck命令来检查一下,关于fsck命令
    :bin/hadoop fsck /user/hadoop_admin/in/bigfile  -files -blocks -locations > ~/hadoopfiles/log1.txt
    下面打印结果说明 个600M文件被划分为9个64M的blocks,并且被分散到我当前所有datanode上(共4个),看起来比较平均,

    /user/hadoop_admin/in/bigfile/USWX201304 597639882 bytes, 9 block(s):  OK
    0. blk_-4541681964616523124_1011 len=67108864 repl=3 [192.168.221.131:50010, 192.168.221.142:50010, 192.168.221.144:50010]
    1. blk_4347039731705448097_1011 len=67108864 repl=3 [192.168.221.143:50010, 192.168.221.131:50010, 192.168.221.144:50010]
    2. blk_-4962604929782655181_1011 len=67108864 repl=3 [192.168.221.142:50010, 192.168.221.143:50010, 192.168.221.144:50010]
    3. blk_2055128947154747381_1011 len=67108864 repl=3 [192.168.221.143:50010, 192.168.221.142:50010, 192.168.221.144:50010]
    4. blk_-2280734543774885595_1011 len=67108864 repl=3 [192.168.221.131:50010, 192.168.221.142:50010, 192.168.221.144:50010]
    5. blk_6802612391555920071_1011 len=67108864 repl=3 [192.168.221.143:50010, 192.168.221.142:50010, 192.168.221.144:50010]
    6. blk_1890624110923458654_1011 len=67108864 repl=3 [192.168.221.143:50010, 192.168.221.142:50010, 192.168.221.144:50010]
    7. blk_226084029380457017_1011 len=67108864 repl=3 [192.168.221.143:50010, 192.168.221.131:50010, 192.168.221.144:50010]
    8. blk_-1230960090596945446_1011 len=60768970 repl=3 [192.168.221.142:50010, 192.168.221.143:50010, 192.168.221.144:50010]

    Status: HEALTHY
    Total size:    597639882 B
    Total dirs:    0
    Total files:   1
    Total blocks (validated):      9 (avg. block size 66404431 B)
    Minimally replicated blocks:   9 (100.0 %)
    Over-replicated blocks:        0 (0.0 %)
    Under-replicated blocks:       0 (0.0 %)
    Mis-replicated blocks:         0 (0.0 %)
    Default replication factor:    3
    Average block replication:     3.0
    Corrupt blocks:                0
    Missing replicas:              0 (0.0 %)
    Number of data-nodes:          4
    Number of racks:               1

    h1s,h2,h3,h4四个DD全部参与,跑去h2 (142),h3(143) stop datanode, 从h4上面get,发现居然能够get回,而且初步来看,size正确,看一下上图中黄底和绿底都DEAD了,每个blk都有源可以取回,所以GET后数据仍然是完整的,从这点看hadoop确实是强大啊,load balancing也做得很不错,数据看上去很坚强,容错性做得不错

    1

    再检查一下,我本来想测试safemode的,结果隔一会一刷,本来有几个blk只有1个livenode的,现在又被全部复制为确保每个有2个了!

    hadoop_admin@h1:~/hadoop-0.20.2$ hadoop fsck /user/hadoop_admin/in/bigfile  -files -blocks -locations
    /user/hadoop_admin/in/bigfile/USWX201304 597639882 bytes, 9 block(s): 
    Under replicated blk_-4541681964616523124_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_4347039731705448097_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-4962604929782655181_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_2055128947154747381_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-2280734543774885595_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_6802612391555920071_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_1890624110923458654_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_226084029380457017_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-1230960090596945446_1011. Target Replicas is 3 but found 2 replica(s).
    0. blk_-4541681964616523124_1011 len=67108864 repl=2 [192.168.221.131:50010, 192.168.221.144:50010]
    1. blk_4347039731705448097_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    2. blk_-4962604929782655181_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    3. blk_2055128947154747381_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    4. blk_-2280734543774885595_1011 len=67108864 repl=2 [192.168.221.131:50010, 192.168.221.144:50010]
    5. blk_6802612391555920071_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    6. blk_1890624110923458654_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    7. blk_226084029380457017_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    8. blk_-1230960090596945446_1011 len=60768970 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]

    我决定再关一个datanode,结果等了好半天也没见namenode发现它死了,这是因为心跳机制,datanode每隔3秒会向namenode发送heartbeat指令表明它的存活,但如果namenode很长时间(5~10分钟看设置)没有收到heartbeat即认为这个NODE死掉了,就会做出BLOCK的复制操作,以保证有足够的replica来保证数据有足够的容灾/错性,现在再打印看看,发现因为只有一个live datanode,所以现在每个blk都有且只有一份

    hadoop_admin@h1:~$ hadoop fsck /user/hadoop_admin/in/bigfile -files -blocks -locations
    /user/hadoop_admin/in/bigfile/USWX201304 597639882 bytes, 9 block(s):  Under replicated blk_-4541681964616523124_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_4347039731705448097_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_-4962604929782655181_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_2055128947154747381_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_-2280734543774885595_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_6802612391555920071_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_1890624110923458654_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_226084029380457017_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_-1230960090596945446_1011. Target Replicas is 3 but found 1 replica(s).

    我现在把其中一个BLK从这个仅存的Datanode中移走使之corrupt,我想实验,重启一个DATANODE后,会不会复员
    hadoop_admin@h4:/hadoop_run/data/current$ mv blk_4347039731705448097_1011* ~/Documents/
    然后为了不必要等8分钟DN发block report,我手动修改了h4的dfs.blockreport.intervalMsec值为30000,stop datanode,再start (另外,你应该把hadoop/bin也加入到Path变量后面,这样你可以不带全路径执行hadoop命令,结果,检测它已被损坏
    hadoop_admin@h1:~$ hadoop fsck /user/hadoop_admin/in/bigfile -files -blocks -locations

    /user/hadoop_admin/in/bigfile/USWX201304 597639882 bytes, 9 block(s):  Under replicated blk_-4541681964616523124_1011. Target Replicas is 3 but found 1 replica(s).

    /user/hadoop_admin/in/bigfile/USWX201304: CORRUPT block blk_4347039731705448097
    Under replicated blk_-4962604929782655181_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_2055128947154747381_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_-2280734543774885595_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_6802612391555920071_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_1890624110923458654_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_226084029380457017_1011. Target Replicas is 3 but found 1 replica(s).
    Under replicated blk_-1230960090596945446_1011. Target Replicas is 3 but found 1 replica(s).
    MISSING 1 blocks of total size 67108864 B
    0. blk_-4541681964616523124_1011 len=67108864 repl=1 [192.168.221.144:50010]
    1. blk_4347039731705448097_1011 len=67108864 MISSING!
    2. blk_-4962604929782655181_1011 len=67108864 repl=1 [192.168.221.144:50010]
    3. blk_2055128947154747381_1011 len=67108864 repl=1 [192.168.221.144:50010]
    4. blk_-2280734543774885595_1011 len=67108864 repl=1 [192.168.221.144:50010]
    5. blk_6802612391555920071_1011 len=67108864 repl=1 [192.168.221.144:50010]
    6. blk_1890624110923458654_1011 len=67108864 repl=1 [192.168.221.144:50010]
    7. blk_226084029380457017_1011 len=67108864 repl=1 [192.168.221.144:50010]
    8. blk_-1230960090596945446_1011 len=60768970 repl=1 [192.168.221.144:50010]

    Status: CORRUPT
    Total size:    597639882 B
    Total dirs:    0
    Total files:   1
    Total blocks (validated):      9 (avg. block size 66404431 B)
       ********************************
       CORRUPT FILES:        1
       MISSING BLOCKS:       1
       MISSING SIZE:         67108864 B
       CORRUPT BLOCKS:       1
       ********************************
    Minimally replicated blocks:   8 (88.888885 %)
    Over-replicated blocks:        0 (0.0 %)
    Under-replicated blocks:       8 (88.888885 %)
    Mis-replicated blocks:         0 (0.0 %)
    Default replication factor:    3
    Average block replication:     0.8888889
    Corrupt blocks:                1
    Missing replicas:              16 (200.0 %)
    Number of data-nodes:          1
    Number of racks:               1


    The filesystem under path '/user/hadoop_admin/in/bigfile' is CORRUPT

    我现在启动一个DATANODE h1s(131),结果很快的在30秒之内,它就被hadoop原地满HP复活了,现在每个blk都有了两份replica
    hadoop_admin@h1:~$ hadoop fsck /user/hadoop_admin/in/bigfile -files -blocks -locations
    /user/hadoop_admin/in/bigfile/USWX201304 597639882 bytes, 9 block(s):  Under replicated blk_-4541681964616523124_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_4347039731705448097_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-4962604929782655181_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_2055128947154747381_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-2280734543774885595_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_6802612391555920071_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_1890624110923458654_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_226084029380457017_1011. Target Replicas is 3 but found 2 replica(s).
    Under replicated blk_-1230960090596945446_1011. Target Replicas is 3 but found 2 replica(s).
    0. blk_-4541681964616523124_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    1. blk_4347039731705448097_1011 len=67108864 repl=2 [192.168.221.131:50010, 192.168.221.144:50010]
    2. blk_-4962604929782655181_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    3. blk_2055128947154747381_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    4. blk_-2280734543774885595_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    5. blk_6802612391555920071_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    6. blk_1890624110923458654_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    7. blk_226084029380457017_1011 len=67108864 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]
    8. blk_-1230960090596945446_1011 len=60768970 repl=2 [192.168.221.144:50010, 192.168.221.131:50010]

    发现这个文件被从131成功复制回了144 (h4)。

    结论:HADOOP容灾太坚挺了,我现在坚信不疑了!

    另外有一个没有粘出来的提示就是,h4 datanode上有不少重新format遗留下来的badLinkBlock,在重新put同一个文件的时候,hadoop将那些老旧残留的block文件全部都删除了。这说明它是具有删除无效bad block的功能的。

    实验简单来讲就是

    1. put 一个600M文件,分散3个replica x 9个block 共18个blocks到4个datanode

    2. 我关掉了两个datanode,使得大部分的block只在一个datanode上存在,但因为9个很分散,所以文件能正确取回(靠的是checksum来计算文件值)

    3. hadoop namenode很迅速的复制了仅有一个replica的block使之成为 3 replica(2) but only found 2

    4. 我再关掉一个datanode,结果发现每个datanode被很均衡的分配了block,这样即使只有一个datanode,也因为之前有确保2个replicas的比率,所以依然healthy

    5. 我从这个仅存的datanode中删除一个blk,namenode report这个文件corrupt,(我其实一直很希望能进safemode,结果-safemode get一直是OFF)

    6. 然后我启动另外一个datanode,30秒不到,这个missing的block被从这个新启动的datanode中迅速“扩展”为2个replicas

     

    容灾性非常可靠,如果使用至少三个rack的话,数据会非常坚挺,对HADOOP信任值 level up!

    转载于:https://www.cnblogs.com/syveen/archive/2013/05/18/3086338.html

    展开全文
  • 就是数据的可靠,数据的正确. 非强一致后的关机导致数据丢失,数据不可靠.) 要求数据强一致,且要求可用高.那就是 zk 的1/2 ,并且主机宕机后要重新选举和数据同步. 可用 这个词在CAP理论里面,不只是指...

    分布式两个层面含义:
    1. 分布式服务,rpc 调用
    2. 分布式数据库

     cap 理论 和 caid 中 c 的区别.
       http://www.infoq.com/cn/articles/cap-twelve-years-later-how-the-rules-have-changed
    

    其中数据的分布式又分
    两个维度.

    • 同一份数据 N 个备份.
      CAP (
      一致性就是数据的可靠性,数据的正确性. 非强一致后的关机导致数据丢失,数据不可靠.) 要求数据强一致,且要求可用性高.那就是 zk 的1/2 ,并且主机宕机后要重新选举和数据同步.
      可用性 这个词在CAP理论里面,不只是指服务可以被访问,还有个属性是延迟,因为延迟这个属性很难被量化定义,延迟越低越好。
      )

    • 同一份数据拆成 N 块.
      提高整体并发极限. 数据的迁移,自动扩容,自动缩容. 扩展性.

      本文主要讲的是 分布式数据库中如何多份备份的一致性问题.

    大并发,大数据
    这里写图片描述
    图来自 2010 谭俊青 mysql 数据库集群的高可用设计及应用
    **
    1. 先备份保证数据简单可靠性,
    2. 用paxos来保证数据一致性,数据的高可靠性.
    3. 数据备份同步用来保证读可用性.
    4. 数据拆分来保证系统水平扩展性.
    **
    读写分离:读 salve 库,改到 master 库,压力还是太大怎么办?
    1.半同步?
    2.全同步?
    3.不要从同步维度思考,使用 master-master 模式.(从master 转移角度思考.将一部分数据的 master 迁移到另外一台机器上. 把数据拆分和备份完美地整合在一起. )(缺点:索引总量并没有降低)

    线下读太多怎么办?
    通过slave 或者 hbase 解决,elasearch.
    线上读太多怎么办?
    线上写太多怎么办?

    展开全文
  • DFS 管理支持选择地启用命名空间根引用 改进的 Dfsdiag.exe 命令提示符帮助文本 基于DFS复制的改进: 故障转移群集支持 只读的已复制文件夹 只读域控制器中包含只读 SYSVOL 文件夹 Dfsrdiag....
  • 注意这里的设置是指对用户的可见的设置。 例如要求usera用户进入该命名空间后,只能看见自己可以浏览的共享文件夹。那么就在usera可读文件夹中将usera设为“read”;在其他文件夹中不将Usera加入或去除即可。 ...
  • 容灾

    2017-03-14 09:27:00
    容灾 容灾系统是指在相隔较远的异地,建立两套或多套...容灾技术是系统的高可用技术的一个组成部分,容灾系统更加强调处理外界环境对系统的影响,特别是灾难事件对整个IT节点的影响,提供节点级别的系统恢复功...
  • 华为业务连续性容灾方案白皮书华为业务连续性容灾方案白皮书华为业务连续性容灾方案白皮书
  • 数据中心容灾连续

    2020-11-13 20:23:54
    对于保持数据中心灾难恢复和业务连续的组织和人员来说,数据中心标准机构Uptime Institute最近发布的一份名为 “疫情之后的数据中心”调查报告可能会让他们有些不安。报告指出,“在我们的分析中有一个重要的假设...
  • 华为业务连续性容灾解决方案
  • 网站可用所谓网站可用(availability)也即网站正常运行时间的百分比,业界用 N 个9 来量化可用, 最常说的就是类似 “4个9(也就是99.99%)” 的可用容灾恢复能力的关键指标RPO:(Recovery Point Obejective...
  • 数据库性能、一致性、分区容灾性架构思考与探讨
  • 业务连续与存储容灾建设 内容包括为什么需要建立容灾系统、建立容灾系统要考虑什么、容灾相关技术实现以及方案案例解析。
  • 我们如何实现数据库备份,恢复,容灾和高可用? 如果您从事数据库行业,那么您最近可能会更担心这些问题。 去年年底,包括炉石数据丢失和MongoDB黑客勒索在内的事件突显了这一消息。 最近,另一个事件引起了人们...
  • 一致问题一般是指数据前后之间的逻辑关系是否一致(正确和完整)。简单举例来说,比如A用户正在写数据N的时候,B用户开始读数据N,由于A用户刚写了一半,所以B用户读的数据就不是前后逻辑一致的,这就是一致...
  • 容灾系统

    千次阅读 2014-03-13 13:13:35
    当计算机系统在遭受如火灾、水灾、地震、战争等不可抗拒的自然灾难以及计算机犯罪、计算机病毒、掉电、网络/通信失败、硬件/软件错误和人为操作错误等人为灾难时,容灾系统将保证用户数据的安全(数据容灾),甚至...
  • 数据库容灾解决方案的优劣 数据库容灾说白了就是把数据库里的资料备份好,放在不同的地方,以便当前数据库坏了,进行恢复。 目前大多数企业都在考虑对数据库维护的成本,基于对成本的考虑,技术问题都很容易解决...
  • 业务连续性容灾解决方案 ... 目标 学完本课程后您将能够: 掌握业务连续性容灾解决方案的拓扑结构和设计原则 掌握业务连续性容灾解决方案使用的技术原理和实现方法 掌握业务连续性容灾解决方案的子系统模块 了解子系统的
  • 完成了容灾恢复:多层结构下分布式数据库数据容灾概要设计,待概要设计论证无误后将进行详细设计部分。一、概念: 对象与表的对应关系: 学校有学生表,市里有学生表,省里有学生表,它们的表结构应该是完全一致的...
  • 我们如何实现数据库备份,恢复,容灾和高可用? 如果您从事数据库行业,那么您最近可能会更担心这些问题。 去年年底,包括炉石数据丢失和MongoDB黑客勒索在内的事件突显了这一消息。 最近,另一个事件引起了人们...
  • 第28集中男主角完败对手的那场戏可真是让人觉得酣畅淋漓,无限回味之后,小编不由得对杨洋在剧中提到的【实时的异地容灾】产生了兴趣,这招“杀手锏”到底是什么意思呢? 实时的异地容灾容灾备份领域的专业词汇,....
  • 高可用容灾的几个衡量指标

    万次阅读 2014-04-09 14:59:07
    描述通俗叫法可用级别年度停机时间基本可用2个999%87.6小时较高可用3个999.9%8.8小时具有故障自动恢复能力的可用4个999.99%53分钟极高可用5个999.999%5分钟容灾恢复能力的关键指标RPO
  • 华为业务连续性容灾解决方案本地高可用解决方案技术白皮书.pdf
  • 自动容灾

    2018-09-07 17:09:25
    1.完成自动容灾,需在HDFS部署环境中增加两个组件:  a:zookeeper 集群  b:ZKFC zookeeper FailoverController process 2.zookeeper作用:  Apache Zookeeper是一种高可用服务,用于维护少量数据协调,...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 2,503
精华内容 1,001
关键字:

容灾性