精华内容
下载资源
问答
  • Windows2016故障转移集群+SqlServer2016always on+ISS故障转移
  • Windows2016 故障转移+SqlServer2016 alwayson+ISS故障转移,依靠Windows自身携带的功能进行故障转移容灾
  • 故障保护 vs 故障转移

    2019-12-30 08:51:10
    故障转移是恢复出现故障的网络设备功能的能力。这是一个比故障保护更广泛的概念,故障保护只规定对其他组件没有不利影响。故障转移意味着通过冗余实现功能的恢复。 故障保护的典型用例&好处 旁路交...

    故障保护是指被配置在为在设备本身发生故障时保护系统中的所有其他组件免受故障影响的设备。实际上,这可能会产生与故障打开相同的结果,但故障保护通常是通过添加单独设备(称为旁路开关)来实现的。

     

    故障转移是恢复出现故障的网络设备功能的能力。这是一个比故障保护更广泛的概念,故障保护只规定对其他组件没有不利影响。故障转移意味着通过冗余实现功能的恢复。

     

    故障保护的典型用例&好处

    旁路交换机部署在网络设备的“前面”,并通过与设备建立直接连接并监视其接收和处理能量的能力来工作。这是通过以非常快的时间间隔(通常是每隔2微秒一个)向设备发送一个非常小的网络数据包(称为心跳数据包)来实现的。如果数据包返回,则旁路保持打开状态;如果数据包未返回,流量将绕过设备并移到网络中的下一台交换机。

    下图是正常模式下的流量

    下图是故障模式下的流量(电力和/或可配置的触发器)

     

    故障保护实现的注意事项

    现在,许多网络安全设备(如下一代防火墙和IPS解决方案)都包括内部旁路功能。但是,内部旁路不能提供外部旁路交换机的所有功能。IT人员可以主动激活部署在网络设备前面的外部旁路交换机,使设备脱机以进行常规维护,定期故障排除或在网络中重新定位。外部旁路实质上是将特定设备临时从活动网络中移除,从而无需等待网络维护窗口来执行升级或响应支持问题。

     


    故障转移的典型应用案例&好处

    此功能通常集成到核心设备中,例如网络交换机和数据包代理,以确保最长的网络正常运行时间。尽管该功能可以包含在安全和监控工具中,但是许多故障情况会使该解决方案的实用性失效。此功能最好作为专用解决方案的一部分。

    故障转移实现的注意事项

    现在可以使用外部旁路交换机和网络数据包代理(NPB),它们能够在网络设备发生故障时为流量指定备用路径。例如,如果主IPS设备出现故障,当外部旁路交换机或网络数据包代理监测到故障(事件发生的几个微秒内)时,交换机可以自动开始向辅助备用设备发送流量。这对于实现弹性而言可能是一种经济高效的解决方案。

     

    本文转载自广州虹科“网络安全与可视化”公众号。

    展开全文
  • 哨兵选举与故障转移: 主要针对非集群模式下主从模式,由哨兵负责。哨兵发现主下线后,哨兵发起选举,其余哨兵负责投票,选出一个哨兵作为故障转移的Leader, 由这个leader哨兵完成故障转移 集群选举与故障转移 ...

    哨兵选举与故障转移:

    主要针对非集群模式下主从模式,由哨兵负责。哨兵发现主下线后,哨兵发起选举,其余哨兵负责投票,选出一个哨兵作为故障转移的Leader, 由这个leader哨兵完成故障转移

    集群选举与故障转移

    主要针对集群模式下的主从,由主的从负责。一个从发现主下线后,主发起选举,其他有资格的主(有槽的)负责投票,选出一个从作为新主,新主完成故障转移包括槽重新分配。

     

    选举算法均是RAFT算法。

    展开全文
  • 故障转移集群 for windows 2019.pdf
  • 如何创建SQL Server 2000故障转移群集
  • 详细讲述基于Windows Server 2008 R2的故障转移群集的实现,包括基本知识介绍,故障转移群集环境准备,实施过程,群集的维护
  • 搭建故障转移群集

    2013-04-16 15:55:01
    搭建故障转移群集
  • win2016系统+Sql2016进行故障转移,详细配置信息。按照图文操作。肯定成功。 故障转移集群管理
  • 2、故障转移集群.docx

    2021-08-04 16:36:30
    2、故障转移集群.docx
  • SQL脚本,该脚本动态生成用于故障转移/返回所有Log Shipped数据库的DR脚本。 尽管它甚至使单个数据库故障转移/故障回复变得更加简化,但对于具有多个数据库的服务器(例如SharePoint,合并SQL Server等)最有用。
  • MySQL 故障转移

    2020-01-27 19:22:20
    在高可用领域,除了通过规范化运维和软硬件优化,提升平均失效时间(MTBF), 降低平均恢复时间(MTTR)也非常关键,本文主要讲述的内容是其中的**故障转移**和**故障恢复**部分。

    在高可用领域,除了通过规范化运维和软硬件优化,提升平均失效时间(MTBF), 降低平均恢复时间(MTTR)也非常关键,本文主要讲述的内容是其中的故障转移故障恢复部分。

    降低平均恢复时间(MTTR)
    • 宕机的原因
      • 运行环境(操作系统、硬盘、网络等)原因占 35%
      • 性能问题(DDL/长事务导致资源耗尽等)占 35%
      • 复制原因占 20%
      • 其他(数据丢失或损坏)占10%
    • 基于复制的冗余
      • 使用 MySQL 的复制功能搭建热备份
      • 主备相隔粒度越大,可用性保障等级越高(机柜<机房<城市)
    • 故障转移
      • 应用和数据库连接方式会影响故障转移的时效,应用可以通过虚拟IP/DNS/中间件等形式访问数据库
      • 虚拟IP,一个虚拟 IP 绑定一个真实 IP,故障转移时把绑定的 IP 修改为备库的 IP 即可实现快速故障转移
      • DNS,一个 DNS 可以绑定多个 IP,可以实现快速故障转移,同时可以实现负载均衡
      • 中间件,通过重写 JDBC 等接口,灵活调用和访问数据库,可以实现快速故障转移、读写分离、负载均衡,同时可以实现分库分表等分布式查询等
    故障探测
    I. 探测方法
    1. ping 虚拟ip
    2. select 获取 test 库中的 heartbeat 表
    3. update 更新 test 库中的 heartbeat 表 create table heartbeat (ts timestamp);
    II. 探测结果汇总
    1. 网络异常: 网络连接超时,无法从网络上找到对应主机
      • 被探测实例单机网络故障
      • 被探测实例所在机房网络故障
      • HA 程序所在机器网络故障
      • HA 程序所在机房网络故障
    2. 主机异常: 网络连接被拒绝,找到主机,无法在主机上找到对应服务端口的实例
      • 被探测实例所在机器机器故障
      • 被探测实例异常退出
    3. 实例异常: 探测连接创建超时,服务端口存在,但是创建连接时超时
      • 被探测实例异常,已经无法正常提供服务
    4. 读写异常: 成功创建连接,但 select/update 操作执行超时,但是无法执行读/写操作
      • 被探测实例 Hang 住
    III. 探测程序部署架构
    1. 单点部署,自身不具备高可用
    2. 热备部署,自身具备高可用
      • 使用 Keepalived 进行监控和切换
      • 如果发生机房间的网络故障,容易产生脑裂(两个机房都认为对方有问题)
    3. 分布式部署,避免脑裂
      • HA 程序使用 ZooKeeper 保存、识别 MySQL 实例和自身的状态,也可以利用它实现分布式锁,进行并发同步
      • 需要至少在三个机房各一台机器,部署至少 3 个节点的 ZooKeeper 集群
      • 利用 PAXOS 协议对分布式一致性©和分区容错性§的强支持,避免脑裂,准确判断问题节点
    故障转移和修复
    1. 根据探测结果判断是否出现故障,如果是故障,则判断是否是提供服务的主库
    2. 查看备库备库状态,确认备库可用,并且备库 Replication 的延迟小于阈值
    3. 等待备库应用 relay log(需要设置应用超时时间),然后 stop slave;
    4. 记录备库 relay log 对应主库的位点
    5. 掉用中间件/DNS/VIP 的接口,把应用流量转移到备库
    6. 把新主库设置为 RW
    7. 老主库再次连接上后,kill 掉它上面的所有连接,保证应用流量都到备库,避免 DNS 等 catch 功能导致的切换不干净
    8. 老主库再次连接上后,把它设置为 RO
    9. 老主库恢复后,进行故障恢复:
      • 修复数据:切花前备库往往存在一点延迟,根据记录的位点,从老主库 binlog 提取数据,来修复新主库
      • 修复复制:重新启动复制后,往往会出现主键冲突,需要谨慎对比和修复数据,不能盲目 skip 复制的错误
    故障转移程序依赖的数据
    1. 主备关系和实时状态
    2. 故障转移黑名单
    3. 每个实例的故障转移类型:中间件、DNS、VIP
    4. 每种故障转移类型的切换接口
    5. 每个实例的故障转移级别:遇到哪一种类型的故障(探测结果)进行切换
    MHA 介绍
    • 架构
      • Manager 单点部署
      • Node 随 MySQL 实例部署
    IP角色
    192.168.1.200Manager
    192.168.1.201Node
    192.168.1.202Node
    192.168.1.203Node

    在这里插入图片描述

    • 功能简介

      • 一主多备情况下 Master 自动监控和快速故障转移(9-12s)。
      • 在线切换 Master 到不同主机,在替换 raid 控制器、提升 master 机器硬件等等情况下。
      • Master crash 不会导致主从数据不一致性,MHA 自动识别 slave 间 relay log events 的不同,然后应用与不同的slave,最终所有 slave 都同步。
      • 适用任何存储引擎。
    • MHA 的实施步骤

      • 从 Down 的主上面获取到 Binlog 事件
      • 确定最新(最全)的从库(比较Master_Log_File,Read_Master_Log_Pos)
      • 分别应用不同的relay log事件到其他从库
      • 应用从主库上获取的binlog事件(发生故障时的事件)
      • 提升一个从库为新的主库(此时从库已经一致)
      • 将其他从库的主库重新指定
    • 主库探测逻辑

      • 支持 masterha_secondary_check ,通过配置另外一个机器(remote_host1)作为跳板探测 Master,Manager-(A)->remote_host1-(B)->Master_host。B 探测失败才会执行 FO。
      • 两种探测方式可选: ping_connect/ping_select,默认为 select,间隔默认是 3 秒,失败 3 次(代码写死的)则认为 master_down 。
    • Node Fencing,用户可以自己实现一个 shutdown_script,设置配置文件后 MHA 会自动调用

    • 功能限制

      • 不支持多级复制 M->M->S
      • 保留中继日志,需要定期清理
      • 支持最大集群数 100 左右
      • MHA Manager 本身是单点(可结合 Keepalived 实现高可用)
    参考文档

    《高性能 MySQL》

    展开全文
  • Windows2008故障转移,真实医院案例,全程无死角截图,欢迎下载
  • 航空气象要素对飞行安全的影响越来越大...基于保障风廓线雷达正常运行的目的,通过Hyper-V虚拟化技术和故障转移集群的方法,结合人为干预设备的试验,实现了风廓线雷达系统的故障转移功能,平均故障修复时间提高了95%。
  • 基于linux操作系统的一个故障转移集群的搭建,使用了三台centos6.5完成的实验
  • 故障转移群集.docx

    2019-12-24 11:39:18
    实训环境 1.一台Windows Server 2016 DC,主机名为DC。 2.两台Windows Server 2016服务器并加入域,主机名为...2.创建故障转移群集。 3.添加文件服务器角色。 4.手动切换主节点。 5.设置故障回复选项。
  • Edgerouter + Edgemax 1.7 +双WAN故障转移+ AWS VPC VPN故障转移+ BGP 这是带有EdgeOS 1.7,双WAN故障切换和两个通过BGP路由的AWS VPC VPN连接的Edgerouter的基本配置。 WAN1:具有pppoe和静态IP的ETH0 WAN2:...
  • Flume ——故障转移

    千次阅读 2018-08-02 09:31:21
    Sink processors能够提供在组内所有Sink之间实现负载均衡的能力,而且在失败的情况下能够进行故障转移从一个Sink到另一个Sink。 简单的说就是一个source 对应一个Sinkgroups,即多个sink,这里实际上与第六节的复用...

    Sink groups允许组织多个sink到一个实体上。 Sink processors能够提供在组内所有Sink之间实现负载均衡的能力,而且在失败的情况下能够进行故障转移从一个Sink到另一个Sink

    简单的说就是一个source 对应一个Sinkgroups,即多个sink,这里实际上与第六节的复用/复制情况差不多,只是这里考虑的是可靠性与性能,即故障转移与负载均衡的设置。

    下面是官方配置:

    Property Name

    Default

    Description

    sinks

    Space-separated list of sinks that are participating in the group

    processor.type

    default

    The component type name, needs to be default, failover or load_balance

    从参数类型上可以看出有3Processors类型:default, failover(故障转移) load_balance(负载均衡),当然,官网上说目前自定义processors 还不支持。

    下面是官网例子

    a1.sinkgroups=g1

    a1.sinkgroups.g1.sinks=k1 k2

    a1.sinkgroups.g1.processor.type=load_balance

     

    一、Default Sink Processor

    DefaultSink Processor 接收单一的Sink,不强制用户为Sink创建Processor,前面举了很多例子。所以这个就不多说了。

     

    二、Failover Sink Processor(故障转移)

             FailoverSink Processor会通过配置维护了一个优先级列表。保证每一个有效的事件都会被处理。

             故障转移的工作原理是将连续失败sink分配到一个池中,在那里被分配一个冷冻期,在这个冷冻期里,这个sink不会做任何事。一旦sink成功发送一个eventsink将被还原到live 池中。

             在这配置中,要设置sinkgroups processorfailover,需要为所有的sink分配优先级,所有的优先级数字必须是唯一的,这个得格外注意。此外,failover time的上限可以通过maxpenalty 属性来进行设置。

    下面是官网配置:

    Property Name

    Default

    Description

    sinks

    Space-separated list of sinks that are participating in the group

    processor.type

    default

    The component type name, needs to be failover

    processor.priority.<sinkName>

    <sinkName> must be one of the sink instances associated with the current sink group

    processor.maxpenalty

    30000

    (in millis)

    下面是官网例子

    a1.sinkgroups=g1

    a1.sinkgroups.g1.sinks=k1 k2

    a1.sinkgroups.g1.processor.type=failover

    a1.sinkgroups.g1.processor.priority.k1=5

    a1.sinkgroups.g1.processor.priority.k2=10

    a1.sinkgroups.g1.processor.maxpenalty=10000

    这里首先要申明一个sinkgroups,然后再设置2sink ,k1k2,其中2个优先级是510,而processormaxpenalty被设置为10秒,默认是30秒。

    下面是测试例子

    1. #配置文件:failover_sink_case13.conf
    2. #Name the components on this agent
    3. a1.sources= r1
    4. a1.sinks= k1 k2
    5. a1.channels= c1 c2
    6.  
    7. a1.sinkgroups= g1
    8. a1.sinkgroups.g1.sinks= k1 k2
    9. a1.sinkgroups.g1.processor.type= failover
    10. a1.sinkgroups.g1.processor.priority.k1= 5
    11. a1.sinkgroups.g1.processor.priority.k2= 10
    12. a1.sinkgroups.g1.processor.maxpenalty= 10000
    13.  
    14. #Describe/configure the source
    15. a1.sources.r1.type= syslogtcp
    16. a1.sources.r1.port= 50000
    17. a1.sources.r1.host= 192.168.233.128
    18. a1.sources.r1.channels= c1 c2
    19.  
    20. #Describe the sink
    21. a1.sinks.k1.type= avro
    22. a1.sinks.k1.channel= c1
    23. a1.sinks.k1.hostname= 192.168.233.129
    24. a1.sinks.k1.port= 50000
    25.  
    26. a1.sinks.k2.type= avro
    27. a1.sinks.k2.channel= c2
    28. a1.sinks.k2.hostname= 192.168.233.130
    29. a1.sinks.k2.port= 50000
    30. # Usea channel which buffers events in memory
    31. a1.channels.c1.type= memory
    32. a1.channels.c1.capacity= 1000
    33. a1.channels.c1.transactionCapacity= 100


     

    这里设置了2channels2sinks ,关于故障转移的设置直接复制官网的例子。我们还要配置2sinks对于的代理。这里的2个接受代理我们沿用之前第六章复制的2sink代理配置。

    下面是第一个接受复制事件代理配置

    1. #配置文件:replicate_sink1_case11.conf
    2. # Name the components on this agent
    3. a2.sources = r1
    4. a2.sinks = k1
    5. a2.channels = c1
    6.  
    7. # Describe/configure the source
    8. a2.sources.r1.type = avro
    9. a2.sources.r1.channels = c1
    10. a2.sources.r1.bind = 192.168.233.129
    11. a2.sources.r1.port = 50000
    12.  
    13. # Describe the sink
    14. a2.sinks.k1.type = logger
    15. a2.sinks.k1.channel = c1
    16.  
    17. # Use a channel which buffers events inmemory
    18. a2.channels.c1.type = memory
    19. a2.channels.c1.capacity = 1000
    20. a2.channels.c1.transactionCapacity = 100


     

    下面是第二个接受复制事件代理配置:

    1. #配置文件:replicate_sink2_case11.conf
    2. # Name the components on this agent
    3. a3.sources = r1
    4. a3.sinks = k1
    5. a3.channels = c1
    6.  
    7. # Describe/configure the source
    8. a3.sources.r1.type = avro
    9. a3.sources.r1.channels = c1
    10. a3.sources.r1.bind = 192.168.233.130
    11. a3.sources.r1.port = 50000
    12.  
    13. # Describe the sink
    14. a3.sinks.k1.type = logger
    15. a3.sinks.k1.channel = c1
    16.  
    17. # Use a channel which buffers events inmemory
    18. a3.channels.c1.type = memory
    19. a3.channels.c1.capacity = 1000
    20. a3.channels.c1.transactionCapacity = 100


     

    #敲命令

    首先先启动2个接受复制事件代理,如果先启动源发送的代理,会报他找不到sinks的绑定,因为2个接事件的代理还未起来。

    flume-ng agent -cconf -f conf/replicate_sink1_case11.conf -n a1 -Dflume.root.logger=INFO,console

    flume-ng agent -cconf -f conf/replicate_sink2_case11.conf -n a1 -Dflume.root.logger=INFO,console

    在启动源发送的代理

    flume-ng agent -cconf -f conf/failover_sink_case13.conf -n a1 -Dflume.root.logger=INFO,console

    启动成功后

    打开另一个终端输入,往侦听端口送数据

    echo "hello failoversink" | nc 192.168.233.128 50000

    #在启动源发送的代理终端查看console输出

    因为k1的优先级是5K210因此当K2正常运行的时候,是发送到K2的。下面数据正常输出。

     

    然后我们中断K2的代理进程。


     

    再尝试往侦听端口送数据

    echo "hello close k2"| nc 192.168.233.128 50000

    我们发现源代理发生事件到K2失败,然后他将K2放入到failover list(故障列表)


     

    因为K1还是正常运行的,因此这个时候他会接收到数据。


     

    然后我们再打开K2的大理进程,我们继续往侦听端口送数据

    echo " hello open k2 again" | nc192.168.233.128 50000


     

    数据正常发生,Failover SinkProcessor测试完毕。

    三、Load balancing SinkProcessor

    负载均衡片处理器提供在多个Sink之间负载平衡的能力。实现支持通过round_robin(轮询)或者random(随机)参数来实现负载分发,默认情况下使用round_robin,但可以通过配置覆盖这个默认值。还可以通过集成AbstractSinkSelector类来实现用户自己的选择机制。

    当被调用的时候,这选择器通过配置的选择规则选择下一个sink来调用。

    下面是官网配置

     

    Property Name

    Default

    Description

    processor.sinks

    Space-separated list of sinks that are participating in the group

    processor.type

    default

    The component type name, needs to be load_balance

    processor.backoff

    false

    Should failed sinks be backed off exponentially.

    processor.selector

    round_robin

    Selection mechanism. Must be either round_robin, random or FQCN of custom class that inherits from AbstractSinkSelector

    processor.selector.maxTimeOut

    30000

    Used by backoff selectors to limit exponential backoff (in milliseconds)

    下面是官网的例子

    a1.sinkgroups=g1

    a1.sinkgroups.g1.sinks=k1 k2

    a1.sinkgroups.g1.processor.type=load_balance

    a1.sinkgroups.g1.processor.backoff=true

    a1.sinkgroups.g1.processor.selector=random

    这个与故障转移的设置差不多。

    下面是测试例子

    1. #配置文件:load_sink_case14.conf
    2. # Name the components on this agent
    3. a1.sources = r1
    4. a1.sinks = k1 k2
    5. a1.channels = c1
    6.  
    7. a1.sinkgroups = g1
    8. a1.sinkgroups.g1.sinks = k1 k2
    9. a1.sinkgroups.g1.processor.type =load_balance
    10. a1.sinkgroups.g1.processor.backoff = true
    11. a1.sinkgroups.g1.processor.selector =round_robin
    12.  
    13. # Describe/configure the source
    14. a1.sources.r1.type = syslogtcp
    15. a1.sources.r1.port = 50000
    16. a1.sources.r1.host = 192.168.233.128
    17. a1.sources.r1.channels = c1
    18.  
    19. # Describe the sink
    20. a1.sinks.k1.type = avro
    21. a1.sinks.k1.channel = c1
    22. a1.sinks.k1.hostname = 192.168.233.129
    23. a1.sinks.k1.port = 50000
    24.  
    25. a1.sinks.k2.type = avro
    26. a1.sinks.k2.channel = c1
    27. a1.sinks.k2.hostname = 192.168.233.130
    28. a1.sinks.k2.port = 50000
    29. # Use a channel which buffers events inmemory
    30. a1.channels.c1.type = memory
    31. a1.channels.c1.capacity = 1000
    32. a1.channels.c1.transactionCapacity = 100

    这里要说明的是,因此测试的是负载均衡的例子,因此这边使用一个channel来作为数据传输通道。这里sinks的对应的接收数据的代理配置,我们沿用故障转移的接收代理配置。

    #敲命令

    首先先启动2个接受复制事件代理,如果先启动源发送的代理,会报他找不到sinks的绑定,因为2个接事件的代理还未起来。

    flume-ng agent -cconf -f conf/replicate_sink1_case11.conf -n a1

    -Dflume.root.logger=INFO,console

    flume-ng agent -cconf -f conf/replicate_sink2_case11.conf -n a1

    -Dflume.root.logger=INFO,console

    在启动源发送的代理

    flume-ng agent -cconf -f conf/load_sink_case14.conf -n a1

    -Dflume.root.logger=INFO,console

     

    启动成功后

     

    打开另一个终端输入,往侦听端口送数据

    echo "loadbanlancetest1" | nc 192.168.233.128 50000

    echo "loadbantest2" | nc 192.168.233.128 50000

    echo "loadban test3"| nc 192.168.233.128 50000

    echo "loadbantest4" | nc 192.168.233.128 50000

    echo "loadbantest5" | nc 192.168.233.128 50000

    #在启动源发送的代理终端查看console输出

    其中K1收到3条数据


     

    其中K1收到2条数据


     

    因为我们负载均衡选择的类型是轮询,因此可以看出flume 让代理每次向一个sink发送2次事件数据后就换另一个sinks 发送。

    Sink Processors测试完毕

    展开全文
  • 陈华军 ha故障转移时的应用切换方案实践、陈华军 ha故障转移时的应用切换方案实践
  • windows server 2012故障转移群集搭建指导手册,介绍以iSCSI虚拟硬盘为共享存储的服务器故障转移群集搭建方法。
  • 故障转移群集方案

    2012-12-06 13:31:22
    搭建给予windows 故障转移集群AG+SQLServer故障转移群集,完成数据高性能高保护,在下你转移,零维护的目标。
  • 啤酒库存服务的故障转移服务 处理来自API网关断路器的回退请求
  • 新建故障转移(任意一台电脑执行)执行代码
  • MHA 手动故障转移

    千次阅读 2015-04-23 12:01:01
    MHA提供了3种方式用于实现故障转移,分别自动故障转移,需要启用MHA监控;在无监控的情况下的手动故障转移以及基于在线手动切换。三种方式可以应对MySQL主从故障的任意场景。本文主要描述在无监控的情形是手动实现...
  • 数据库镜像的故障转移既可以自动发起,也可以手动发起
  • 搭建Windows Server 2008故障转移群集.pdf
  • 在可用性组的上下文中,可用性副本的主角色和辅助角色在称为“故障转移”的过程中通常是可...存在三种故障转移形式:自动故障转移(无数据丢失)、计划的手动故障转移(无数据丢失)和强制手动故障转移(可能丢失数据)...
  • 当没有网络时,WiFiManager 将故障转移到 AP 模式,在该模式下它将托管自己的 AP。 AP ssid:pass 是通过串口设置的。 要在串行窗口中指示 AP SSID 设置,然后按 Enter。 以下是为名为“mine”且密码为“pass”的 AP ...
  • 开始使用Kafka集群教程 ...了解Kafka故障转移 这个Kafka教程正好从命令行中的第一个Kafka教程停止。第一个教程有关于如何运行ZooKeeper和使用Kafka utils的说明。 在本教程中,我们将在我们的开...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 107,551
精华内容 43,020
关键字:

故障转移