精华内容
下载资源
问答
  • Keepalived + Nginx 搭建高可用双机主备集群环境准备,编写Nginx自动重启脚本修改keepalived.conf 配置文件开启服务并测试1. 测试主备切换2. 测试Nginx自动重启配置nginx-tomcat服务集群 在通过 Nginx 构建 服务集群...

    在通过 Nginx 构建 服务集群后, 为保证Nginx服务的高可用性, 配备第二台Nginx 作为后备, 通过keepalived虚拟路由实现双机主备,最终实现内网环境下高可用服务集群。

    • 方案如下图所示:

    在这里插入图片描述

    环境准备,

    • 两台服务器,本文以虚拟机为例。域名通过手动修改hosts文件绑定到ip
      • 主服务器 IP:192.168.61.135
      • 备用服务器 IP:192.168.61.130
      • 虚拟IP 192.168.61.132 自行设置
    • 服务分别安装并启动nginx,并修改首页。

    在这里插入图片描述
    在这里插入图片描述

    编写Nginx自动重启脚本

    注意: 主备之间都需要编写该文件。
    **

    • 脚本中使用到的非linux默认安装的命令
      • **安装killall 命令 **yum install -y psmisc
      • **安装 netstat 命令 **yum install -y net-tools

    在keepalived配置文件存放目录中创建脚本 vim /etc/keepalived/chk_nginx.sh

    #!/bin/bash
    # 这种方式是查询nginx的进程
    #A=`ps -C nginx --no-header | wc -l`
    # 这种方式是查询nginx的端口
    A=`netstat -tnlp | grep nginx | wc -l`
    if [ $A -eq 0 ];then
    				# 启动Nginx ,根据你自己的路径启动
            /usr/local/nginx/sbin/nginx
            sleep 2
            #if [ `ps -C nginx --no-header | wc -l` -eq 0 ];then
            if [ `netstat -tnlp | grep nginx | wc -l` -eq 0 ];then
                    killall keepalived
            fi
    fi
    

    使用 chmod +x ``/etc/keepalived/chk_nginx.sh 赋予文件执行权限

    修改keepalived.conf 配置文件

    vim /etc/keepalived/keepalived.conf

    • 主机配置如下
    ! Configuration File for keepalived
    #全局配置
    global_defs {
       router_id keep_135 #路由ID,局域网内应唯一
       script_user root #运行脚本的用户,避免 WARNING - default user 'keepalived_script' for script execution does not exist - please create.
       enable_script_security #避免SECURITY VIOLATION警告
    }
    
    #脚本检测
    vrrp_script check_nginx_alived {
    	#脚本路径
    	script "/etc/keepalived/chk_nginx.sh"
      # 脚本运行间隔
      interval 2
      # 如果脚本运行成功,则升权+10,如果配置负数(-10),则运行失败,降权。
      weight 10
    }
    
    #虚拟路由配置
    vrrp_instance VI_1 {
        state MASTER #初始情况下的主备状态
        interface ens33   #网卡文件名,注意应填写你的主机使用的网卡名称
        virtual_router_id 51   #虚拟路由id,主备应保持一致
        priority 100 #权重,发生主备切换时成为主机的优先级
        advert_int 1 #侦测心跳,单位s
        #鉴权配置
        authentication {
            auth_type PASS  #鉴权类型 PASS
            auth_pass 1111  #密码
        }
        #脚本追踪
        track_script {
        		#对应vrrp_script 的name
        		check_nginx_alived
        }
        #虚拟IP,可以有多个,一行一个,主备之间应保持一致
        virtual_ipaddress {
            192.168.61.132
        }
    }
    
    • 备用机配置如下
    ! Configuration File for keepalived
    #全局配置
    global_defs {
       router_id keep_130 #路由ID,局域网内应唯一
       script_user root #运行脚本的用户,避免 WARNING - default user 'keepalived_script' for script execution does not exist - please create.
       enable_script_security #避免SECURITY VIOLATION警告
    }
    
    #脚本检测
    vrrp_script check_nginx_alived {
    	#脚本路径
    	script "/etc/keepalived/chk_nginx.sh"
      # 脚本运行间隔
      interval 2
      # 如果脚本运行成功,则升权+10,如果配置负数(-10),则运行失败,降权。
      weight 10
    }
    
    #虚拟路由配置
    vrrp_instance VI_1 {
        state MASTER #初始情况下的主备状态
        interface ens33   #网卡文件名,注意应填写你的主机使用的网卡名称
        virtual_router_id 51   #虚拟路由id,主备应保持一致
        priority 80 #权重,发生主备切换时成为主机的优先级
        advert_int 1 #侦测心跳,单位s
        #鉴权配置
        authentication {
            auth_type PASS  #鉴权类型 PASS
            auth_pass 1111  #密码
        }
        #脚本追踪
        track_script {
        		#对应vrrp_script 的name
        		check_nginx_alived
        }
        #虚拟IP,可以有多个,一行一个,主备之间应保持一致
        virtual_ipaddress {
            192.168.61.132
        }
    }
    

    开启服务并测试

    1. 测试主备切换

    分别启动主备的keepalived systemctl start keepalived
    稍等两秒,使用 ip address 查看虚拟ip的映射

    • 主机
    ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 00:0c:29:1f:b9:16 brd ff:ff:ff:ff:ff:ff
        inet 192.168.61.135/24 brd 192.168.61.255 scope global noprefixroute ens33 #真实IP
           valid_lft forever preferred_lft forever
        inet 192.168.61.132/32 scope global ens33  #虚拟IP
           valid_lft forever preferred_lft forever
        inet6 fe80::4779:a90b:d19b:8490/64 scope link noprefixroute
           valid_lft forever preferred_lft forever
    
    • 备用机
    ens33: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
        link/ether 00:0c:29:73:d8:b4 brd ff:ff:ff:ff:ff:ff
        inet 192.168.61.130/24 brd 192.168.61.255 scope global noprefixroute dynamic ens33  #真实IP
           valid_lft 1594sec preferred_lft 1594sec
        inet 192.168.61.132/32 scope global ens33  #虚拟IP
           valid_lft forever preferred_lft forever
        inet6 fe80::6765:fdf6:f71b:b2f8/64 scope link noprefixroute
           valid_lft forever preferred_lft forever
    

    访问虚拟IP 192.168.31.132
    在这里插入图片描述

    当前指向主节点
    到主节点服务器下运行 systemctl stop keepalived 关闭主节点再次访问,
    在这里插入图片描述

    重新开启主节点后又恢复到主节点。由于没有配置非抢占,默认情况下主备之间将进行抢占,主要能访问到服务即可。

    2. 测试Nginx自动重启

    以主节点为例, 本例中ip192.168.61.135为主节点
    打开两个ssh远程页面,其中一台输入 tail -f -n 50 /var/log/messages 动态查看系统消息
    另外一台关闭nginx nginx -s stop
    可以看到nginx仍然是可以访问的,日志显示 脚本运行成功
    在这里插入图片描述
    也许你在测试nginx重启的时候有可能会遇到很多问题,可以查询到的资料比较有限,这里建议直接使用上文中推荐的源码包安装2.1.5版本的keepalived。如果使用yum安装的可能是较早的版本,问题比较多,个别配置也不兼容。

    配置nginx-tomcat服务集群

    本地另外两台虚拟机分别搭建tomcat服务并启动

    • 192.168.61.128:8080
    • 192.168.61.129:8080

    nginx 配置如下 : 仅展示关键部分

    upstream tomcats {
            server 192.168.61.128:8080;
            server 192.168.61.129:8080;
    }
    server {
    
            listen 80;
            server_name localhost;
            charset utf-8;
    
            location / {
                    proxy_pass http://tomcats;
            }
    }
    

    现在我们就能通过虚拟ip 192.168.61.132 访问tomcat提供的服务了。
    实现内网环境下 keepalived + nginx + tomcat的高可用web服务集群了。
    在这里插入图片描述
    在这里插入图片描述

    展开全文
  • 一旦“心跳”信号表明主机系统发生故障,或者是备用系统无法收到主机系统的“心跳”信号,则系统的高可用性管理软件(双机软件)认为主机系统发生故障,立即令主机停止工作,并将系统资源转移到备用系统上,备用系统...
  • 高可用集群_双机热备解决方案

    千次阅读 2011-09-29 14:47:17
    高可用集群_双机热备解决方案 一、Cluster集群概述  1、方案描述  现代IT技术认为,一个成功系统中数据及作业的重要性已远超过硬件设备本身,在一套完善的系统中对数据的安全及保障有着极高的要求。双机容错系统...

    高可用集群_双机热备解决方案

    一、Cluster集群概述

      1、方案描述

      现代IT技术认为,一个成功系统中数据及作业的重要性已远超过硬件设备本身,在一套完善的系统中对数据的安全及保障有着极高的要求。双机容错系统是由HP公司提出的全套集群解决方案,结合HP服务器产品的安全可靠性和集群技术的优点,为用户提供一个完善的系统。

      2、工作原理

    惠普方案

      3、适用范围

      用户对系统的连续工作性和实时性要求较高,系统停机对系统的影响很大,造成很大的损失。

      4、现实方式及优点

      磁盘阵列备份方式—— 两台HP服务器通过HP MSA磁盘阵列连接起来,形成备份系统,系统易于安装,也相对稳定。

      磁盘阵列备份模式示意图

      

    二、惠普DL380G5+MSA2000 F200 双机高可用性集群解决方案

      1、F200双机方案硬件拓扑

    惠普方案

    F200双机方案硬件拓扑

      主机:采用2台双路四核Intel 至强处理器的HP DL380G5 高性能服务器;配置4GB以上 PC2-5300全缓冲DIMMs (DDR2-667)内存,最高支持32GB;Smart Array P400阵列控制器,256MB高速缓存,支持RAID 0/1/5,配置两块硬盘做RAID1(硬盘镜像模式,允许坏任意一块硬盘数据不受影响),本地安装操作系统和应用软件,数据存储SAN存储池;集成双NC373i多功能千兆网卡,带TCP/IP Offload引擎,非常适合应用于WEB应用;集成iLO 2远程管理,虚拟现场,可支持远程开关机和安装操作系统等;1个1000W热插拔电源,可选冗余电源,实现坏一个电源机器不受影响;标配满配6个热插拔冗余风扇;DVD/CD-RW Combo;2U高度机架式。两台服务器坏任何一台,整个业务系统不受影响。

      SAN环境:采用4块HBA卡,4条链路坏任意一条链路系统不受影响,真正实现无单点故障,利用MSA2000特性,为用户节省两个HP 4GB SAN光纤交换机的投资。

      磁盘阵列:采用HP MSA2000磁盘阵列, MSA2000所有配件均实现冗余,包括电源、风扇、阵列控制器、光纤接口等,比如坏一个电源MSA1000磁盘阵列不受影响;建议配置6块以上300G 15K SAS硬盘做RAID 6,实际可用容量为4*300=1200G,允许同时坏任何两块硬盘系统不受影响。

      2、方案优势

      技术是一种强大的资产,它不仅能够全面提高您企业的生产率、效率、可用性及性能,而且能引导您进入新市场、获得高收益。惠普为您提供久经考验的创新技术,帮助您的业务蓬勃发展。

    本方案优势主要体现在企业数据应用系统的高可用性、高安全性两个方面,并且具有安装部署简单、经济高效的特点:

      双机备份模式,双台服务器互为备份,当一台服务器出现问题停机时,另一台服务器能实时接管中断的工作,保证业务系统的正常运行。

      两路四核至强服务器和MSA2000具有高性能,都是企业产品中成功案例的佼佼者。

      服务器和MSA2000存储柜的磁盘具都有热插拔功能,具可以灵活组成RAID模式,当配置成RAID1+0时允许损坏一半数量的硬盘,业务数据不受影响,保证数据不丢失;当配置成RAID 5时,具有高性价比,允许坏任意一块硬盘,数据不受影响;当配置成RAID 6时 允许同时坏两块磁盘系统不受影响。并且可配置在线热备盘,现实在线升级RAID,在线扩容等等。

      集群具有一定的负载平衡功能,可将多个任务分摊到两台服务上运行,提高系统的整体性能。

      服务器和MSA2000都有内置的LED指示器,能够预先对故障、温度超标和其它异常发出警告,易于管理和维护。

      整个系统中所有部件单元都提供了冗余,避免单点故障。这样,无论系统中哪块硬件坏都不会影响客户企业的业务。并且热插拔能力使您可以在不打断重要计算服务的情况下对部件进行替换和升级。

      利用HP 服务器集成的WEB方式磁盘阵列管理方便快捷地管理MSA2000和其中的任何部件,拥有极佳的本地或远程管理能力,增强了您的使用方便性。例如,容量管理器提醒您注意当前和即将出现的性能瓶颈,帮您在整个系统生命期间跟上变化的数据存储需求。

      整个系统的扩展性能非常强大,使配置更加灵活,能够满足您企业的存储需求,并且在短短几年内都无须对系统进行烦琐的升级操作,帮助您企业获得总体拥有成本。

      为获得高性能和高容量,服务器和MSA2000都支持15,000rpm SAS硬盘和7200 rpm 大容量廉价SATA硬盘。这便于HDD的在大多数HP服务器和MSA HDD单元之间的转移。

      利用最新的数据传输带宽为4GB/S 光纤结构,将存储速度提升。

      最多可连接3个SCSI磁盘阵列盘柜,每个盘柜可以上12块SCSI硬盘,最多可以容纳48块300GB的SAS磁盘驱动器,达到最大容量14.4T,或者48块750G SATA达到36T,实现海量数据存储。

      MSA2000可以同时兼容SAS和SATA混插模式,可以利用这一特点,使用稳定快速的SAS硬盘存储生产数据,而可以使用廉价大容量的SATA硬盘存储备份数据的灵活解决方案。

      MSA2000通过可选的许可,实现基于控制器硬件的卷拷贝和卷克隆技术,通过这两个技术可以实现快速的数据备份和恢复,使得整个数据备份过程和恢复过程在几秒钟之内完成。  

      3、总体架构图

    惠普方案

    总体架构图

    展开全文
  • 本片详细记录了Nginx+keepalived双机热备(主从模式)高可用集群方案-完整部署过程,讲解十分到位,可作为线上实操手册。特在此分享,希望能帮助到有用到的朋友。
  • 如何选择与实施双机热备及高可用方案? 建议采取以下的步骤与方法: 第一,确定对于双机热备或其他高可用性的要求。  在这一步骤要以应用为主导,进行认真的分析。应该明确以下事项: 有哪些服务器在运行 ...
    相关文章:双机软件与集群软件的异同<?xml:namespace prefix = o ns = "urn:schemas-microsoft-com:office:office" />

    如何选择与实施双机热备及高可用性方案?

    建议采取以下的步骤与方法:

    第一,确定对于双机热备或其他高可用性的要求。

     在这一步骤要以应用为主导,进行认真的分析。应该明确以下事项:

    • 有哪些服务器在运行

    • 服务器的操作系统与数据库系统、应用软件都是什么

    • 使用什么样的应用系统

    • 能够承担多长时间的服务中断

    • 数据量、数据写入的频繁程度

    • 硬件条件

    • 大致的预算

    第二,确定双机热备及其他高可用性方案的模式。

     1. 决定要不要备、谁和谁备。采用数据库双机热备,应用服务器集群,是主从方式还是互备?亦或是多台服务器?

     2. 决定如何备。就双机热备而言,是采用共享存储方式、纯软件备份方式、备机方式,甚至什么都不采用?

    第三,选择确定具体的设备、软件的型号。

      要特别注意的是,不同的软件、存储设备之间存在兼容性的问题,因此一定要统一考虑,并提前及时咨询专业人员。切忌出现采购了双机软件对相关的存储设备不兼容等问题。

      请参见:LanderCluster软件概述

          RoseHA双机软件概述

    第四,实施。

    第五,在双机热备或其他高可用性方案实施完成后,一定要进行测试。

    第六,在使用阶段,要定期对双机热备或其他高可用性系统是否能够正常切换进行测试。

    目前,市场上主要的基于WindowsLinux平台的双机软件包括LanderClusterLifeKeeperRosaHA等。有关方案规划与产品选择,请咨询我们。

    双机热备、集群及高可用性软件产品的选择

    在进行双机热备、集群及高可用性软件产品的选择时,可按以下步骤进行:

    1. 明确应用的方式与要求:

      是双机方式还是多点集群?或者是目前使用双机、以后可能升级到集群?(相关内容:双机、集群的配置模式:主从、互备、多点集群)

      如果是双机,是采用共享的存储设备,还是采用基于镜像的纯软件方式?(相关内容:双机热备的实现模式 - 基于共享存储与纯软件方式)

    2. 了解清楚应用环境:

      使用什么操作系统?

      运行什么应用?(比如,数据库的版本)

      使用什么服务器?

      使用什么存储设备?

      如果考虑纯软件方式,则还有了解清楚:数据量的大小、数据写入的频率、应用的关键性与重要性(相关内容:纯软件方式的双机热备方案深入分析)

    3. 在此基础上,考虑以下因素,选择相应的软件产品:

      产品是否能支持所要求的应用方式?

      产品是否能支持所使用的应用环境?

      产品的其他特性:

    • 是否支持远程监控?(可以使你不用非要经常跑到机房,才知道是否一台服务器宕机了)

    • 界面语言。(对双机软件,中文界面并不是非常重要,但也是一个因素。同时,是否有中文手册等则可能非常重要)

    • 安装的难易程度

      是买贵的、买性价比高的、还是买最便宜的?

      是否存在合法的供货渠道?(直接关系到产品是否能得到长期可靠的服务!!!)

      是否需要安装服务? 需要什么样的售后服务? 服务要求是否有保障?

    如果可能会运行特别的应用系统(比如使用面较少的操作系统、数据库、自己开发的应用软件等),是否能得到原厂商在开发与调试一级的支持。(非常重要!!!)

    常见产品:

    LanderCluster集群软件:支持多点集群及双机;远程监控;支持Unix

    LifeKeeper集群软件:支持多点集群及双机

    RoseHA双机软件:双机热备、互备

    选择合适的双机和集群软件

    本文将避免深入的技术研究,以快速的方法,帮助你选择最合适的高可用性软件。

     首先要明确,本文所说的双机和集群软件,都是指需要对数据进行写操作的情况,比如数据库。如果仅仅是应用服务器,则应该选择负载均衡软件

     对于双机和集群软件,选择的基本方法是,先处理可选项少的情况,再处理可选项多的情况,这样便于快速对号入座。

     SCO UNIX: 只有LanderCluster支持。     更多了解LanderCluster

     SUN Solaris只有PCL支持          更多了解PCL HA软件

     Linux

        -无共享存储设备,低端数据库(My SQL),数据量小(<<?xml:namespace prefix = st1 ns = "urn:schemas-microsoft-com:office:smarttags" />500G),可以考虑LifeKeeper.

        -Oracle等数据库,较重要应用,或数据量较大,一定要使用共享存储设备(磁盘阵列柜或SAN)

        -在有共享存储设备的情况下,如果是双机,可以有多种选择,如PCL HA, ROSE HA, LifeKeeperLander Cluster。如果是多机,则建议考虑建议选择比较可靠的产品如PCL HA软件

     Windows

        -无共享存储设备,一般的情况下可以考虑LanderClusterLifeKeeper

        -基于SQL Server的数据库应用,负载大或要求实时切换,关键应用,可以考虑另外一种数据库负载均衡的方式。

        -IBM EXP系列磁盘阵列:目前能可靠支持的是LanderCluster  更多了解LanderCluster

        -其他磁盘阵列柜:

      • 多台服务器 可供选择的包括:LanderCluster, LifeKeeper

      • 两台服务器:几乎所有产品均可支持,其中,ROSE HA价格合理,但要防止买到非正规渠道产品;LifeKeeper价格较贵(原因是其价格与纯软方式、多点版本没有差别),没有本地支持;LanderCluster支持远程监控,具有良好的本地支持,价格合理                      

            

    重要提示:双机热备、集群等,是一种高可用性方案,其目的是增加系统的可靠性,切勿贪图便宜,给后续应用和维护带来诸多麻烦。

    常见产品:

    PCL HA集群软件:LinuxSolaris平台下集群的可靠选择,支持多点集群及双机;远程监控

    PrimeCluster_HA特点及优势

    HA 服务器——应用与服务随时可用

    PRIMECLUSTER拥有近20年的历史,它随着富士通西门子计算机公司在全球的业务开展,遍布各个行业和领域,在欧洲、中东、非洲和亚洲有着大量的成功案例。

    支持多平台――PRIMECLUSTER支持Linux/IntelSolaris/Sparc平台。它在用户层面保持界面、操作方法、管理命令的统一,和OS,硬件平台无关。

    高效、冗余的集群心跳协议――PRIMECLUSTER可拥有多达8条心跳线路;采用自有的ICFInternode Communication Facility)协议取代低效的IP协议

    保护数据完整性――独有的Shutdown Facility机制,确保在集群脑裂(Brain-Split)的情况下用户数据的完整性,最完美的解决方案。严谨的OnlineOffline检查机制,确保应用只可能在一个节点上启动。

    灵活的配置方案――HA模式最大支持8个节点,支持1:1N+1N:M配置模式,多节点多应用可在集群内灵活配置。

    单一管理图形界面――PRIMECLUSTER采用基于浏览器的Java管理界面,可在单一节点上远程管理集群内所有节点。

    <?xml:namespace prefix = v ns = "urn:schemas-microsoft-com:vml" />

    向导化的配置工具――PCS配置工具能够自动生成资源树,简化配置步骤,自动检查配置的一致性和生成配置文件信息。能够自动识别某些资源,如卷管理器、SAN网络和NAS。对于OracleDB2WebServerSAP等应用拥有Turn Key解决方案

    滚动升级――PRIMECLUSTER支持版本异构(甚至OS异构),从而支持滚动升级,最小限度减少停机时间。

    动态配置――HA和负载均衡模式均支持动态配置,可以在不停止应用的情况下对配置进行修改并生效。

     

     

    LanderCluster集群软件:支持多点集群及双机;远程监控;支持SCO Unix

    LanderCluster产品概述

    LanderCluster For Windows2000 是一个高可用集群软件包,目前支持的操作系统为Windows2000Windows2003LinuxSCO OpenServer/UnixWare7 等环境。

    在该系统中,每台主机运行各自的应用系统,用户数据存放在共享存储子系统上。LanderCluster 的守护进程通过 EtherNet 监测整个集群的运行状态。由 PC 服务器、共享磁盘阵列子系统和LanderCluster集群软件包组成一个有效的高可用集群系统。

    LanderCluster系列产品分为LanderCluster-DNLanderCluster-MN

    • LanderCluster-DN双机高可用产品:是LanderCluster集群产品系列中的主流产品。支持Windows/Linux/SCO Unix等操作系统平台,具有稳定可靠、易于管理、开放性强、性价比高的特点,同时支持多语种、支持远程管理等功能,是您构建高可用环境的必要选择。

    • LanderCluster-MN多节点集群产品:是LanderCluster集群产品系列中的旗舰产品。支持两个以上节点的集群环境,支持Windows Server/Linux/SCO Unix等操作系统平台,具有稳定可靠、易于管理、备援方式灵活多样、节点和任务的伸缩性强、保护用户投资、整合和优化用户系统环境、支持包括ISCSI存储环境等特点。该产品能够支持八个以上节点的集群环境。

     

    LifeKeeper集群软件:支持多点集群及双机

    LifeKeeper软件介绍

    美国SteelEye公司的LifeKeeper 是一种支持多种软(WindowNT, Windows2000, 多种Linux等)、硬件平台的高性能容错软件,最多可支持16台服务器集群。Lifekeeper软件源于美国NCR公司及著名的AT&T贝尔实验室。为企业、银行、政府等的信息服务,商务服务,政务服务等提供高可用性解决方案。

     LifeKeeper属于高可用容错集群软件,运行于NTWindows 2000LinuxNCR Unix平台。同时支持纯软件镜像方式和共享磁盘阵列柜方式,并支持远程灾难实时复制备份恢复系统。使用户的服务器、操作系统、数据库系统以及关键的数据及应用程序保持7×24小时连续不间断,提供99.99%的高可用性。软件包括核心部分和一些针对不同应用的ARK

    LifeKeeper的关键特点

     1.不用增加任何额外硬件投资,纯软件方式实现双机容错,且对备机无硬件配置要求。
     
     2.可支持NotesExchangeSQL ServerSybaseInformixOracle 、SAP等多种系统的应用层热恢复。

     
     3.是全球第一套基于NT操作系统的容错软件并同时支持LINUX平台。支持远程灾难备份。

     
     4.支持共享磁盘阵列柜和扩展镜像两种方式,给用户提供了选择上的灵活性,同时也能适应各种机型、网络结构、软件平台及应用系统。

     
     5.LifeKeeper在扩展镜像或共享磁盘阵列任意方式下,均能实现两台服务器各自运行不同应用且相互热备份,即实现双Active运转模式。

     
     6.使用共享磁盘阵列柜方式时,最多可以支持16个节点,远远大于其它类似系统所支持的2个节点数。

     
     7.最大限度地保护用户端的应用连续性。用户的硬件资源(如网卡),软件资源(NT操作系统、数据库管理系统、数据库应用系统、电子邮件系统等)均能处于LifeKeeper的保护之下,当这些被保护资源出现技术故障时,LifeKeeper可随时实施系统资源切换。如此,LifeKeeper真正实现了用户硬件或是软件资源发生故障时系统及应用层上的在线热切换。

     
     8.LifeKeeper占用系统资源极少,不增加网络负荷,且不打扰任何具体应用系统的任何操作。

     
     9.LifeKeeper真正实现无人值守,全自动地实现应用资源切换,且图形界面操作,简单方便。

     
     10.自投入使用以来,已经历了大量交易高峰的实际考验,其执行效率很高且运行十分稳定可靠,全球市场占有率第一。

     

    RoseHA双机软件:双机热备、互备

    RoseHA双机热备软件概述

    在双机热备的架构中,除了要考虑切换时间外,要根据每个系统的作业环境,包括网路系统是单网或是双网,数据库的安装和作业内容及用户端的设备是经由广域网路、区域网路接入不同用户有不同的需求,而要求有不同的切换模式,所以选择不同的切换模式,可以使用户端的改变达到最少的程度。
      ROSEHA根据不同的行业及各行业不同的需求设计多种备援模式以弹性的调适用户的最佳组合及选择。

    • ROSEHA系统运作方式

      在正常的运作情形之下,主机之间透过冗余侦测线路互相侦测,当任一主机有错误产生时,ROSE HA提供严谨的判断与分析,确认主机出错之后,才完全启动备援接管动作。
    支持各种操作系统平台,包括Windows NT/2000/2003SCO Openserver/UnixwareLinuxSolaris等。

      RoseHA支持各种数据库:MS-SQLOracle InformixSybaseLotus/NoseDB2

    接管动作包括

    • 文件系统( File System)

    • 数据库( Database)

    • 网络地址( IP Address)

    • 应用程序(AP)

    • 系统环境(OS)

    其他相关领域产品

    转载于:https://blog.51cto.com/yanse/350149

    展开全文
  • 现代IT技术认为,一个成功系统中数据及作业的重要性已远超过硬件设备本身,在一套完善的...双机容错系统是由HP公司提出的全套集群解决方案,结合HP服务器产品的安全可靠性和集群技术的优点,为用户提供一个完善的系统。
  • 简介Red Hat 公司在2007年发布Red Hat Enterprise Linux 5 时就将原本是作为独立软件发售的用于构建企业级集群集群套件redhat cluster suite(RHCS,红帽集群套件)集成到了...红帽的企业集群解决方案(RHCS)是全球领先
  • DataWare 双机方案高可靠性容错软件系统( DataWare ) ◆ 支持多平台的容错软件DataWare 容错软件包可支持 SCO Unix 、Windows 、SunSolaris 、Linux 多种版本。根据应用平台的需求,可使用相应的版本。 ◆ ...
    DataWare 双机方案
    高可靠性容错软件系统( DataWare )
     ◆ 支持多平台的容错软件
    DataWare 容错软件包可支持 SCO Unix 、Windows 、SunSolaris 、Linux 多种版本。根据应用平台的需求,可使用相应的版本。
    ◆ 功能
    ◇ DataWare 可防止错误,提供故障安全防护和零故障操作环境
    ◇ DataWare 采取高可靠度与高效率机制减少系统宕机,停机时间防范错误,提供故障警告
    ◇ DataWare 可设定故障排除后,自动或手动回复
    ◇ DataWare 提供网络卡本地故障排除
    ◇ DataWare 安装时不需要更改操作系统的核心,变更应用软体和特殊的硬件
    ◇ DataWare 采用直觉式与 GUI 图形使用者界面让管理者在远程或本地管理
    ◇ DataWare 不需要复杂的设定与操作,安装维护方便
    ◆ 强大的管理工具
    ◇ 易操作的图形操作使用者界面( DataWare Unix 或 Linux 采用 Java 语言设计,使用者可在远程浏览器上管理 )
    ◇ 及时的操作状况监视
    ◇ 系统管理者可在区域或广域网络通过个人计算机管理,及时在操作画面显示两部主机的操作状况
    ◆ 支持的对象资源
    ◇ Volumes 资料卷 ◇ IP addresses IP 地址
    ◇ Services 服务 ◇ User Defined 使用者定义
    ◇ Computer alias names 计算机别名( DataWare NT )
    ◇ File shares 分享的档案( DataWare NT )
    ◆ 支持的应用软体
    ◇ NFS
    ◇ 国际互联网服务( WWW , FTP ,等 )
    ◇ 数据库( MSSQL Server, Oracle, Sybase, Informix )
    ◇ Lotus Notes Server, Microsoft Exchange Server
    ◇ 企业网络管理
    ?  使用 TCP/IP 网络协议之 Client/Server 应用软体
    容错磁盘阵列系统
    ◆ 豪威 Proware 磁盘阵列提供数据安全的保障:
    “ 数据与主机电气分离 ” 观念倡导将重要数据及作业存放在与主机分离的外部智能磁盘阵列上,并且加以本地智能管理,其安全性得到特别保护,扩展能力不受主机限制,数据 I/O 不需主机 CPU 分时,双机容错时也不需要占用有限的网络资源以传输备份数据。它不仅解决了以前存在的问题,而且全面突破了长期困扰系统性能的外存 I/O 瓶颈,使得这种观念迅速成为当前 I/O 技术的新潮流。
    Proware 专业化的结构设计,用全硬件方式保证数据的安全性。
    固化的 RAID 校验( Redundant Array of Inexpensive of Disk ),保证任意硬盘故障时,其上数据不会丢失。 豪威 Proware 磁盘阵列 用硬件方式支持 RAID 0 , 1 , 0+1 , 3 , 5 校验。
    除此以外, 豪威 Proware 磁盘阵列 还在系统结构上做了如下精心设计以保证数据安全性:
    ◇ 所有硬盘均配有热插拔硬盘盒,可带电热插拔
    ◇ 机箱内配置有热插拔双冗余电源及双风扇
    ◇ 每个阵列硬盘盒自带冷却风扇
    ◇ 高级合金硬盘盒保证散热
    ◇ 每个硬盘盒上均配有防静电合金屏蔽罩
    ◆ 豪威 Proware 磁盘阵列:作业的连续性
    豪威 Proware 磁盘阵列 支持双机容错。
    阵列背后提供两个(可扩展)主机 SCSI 接口,通过 SCSI 电缆与主机连接,主机的数据及应用程序均可组织在阵列上,在主机上可以只保留一块本地硬盘以安装操作系统及容错软件。
    豪威 Proware 磁盘阵列 支持双机热备及双机双工两种工作方式。
    豪威 Proware 磁盘阵列 配合不同操作系统平台的 DataWare 双机容错软件包,支持双机自动在线侦测,双机故障时,自动在线切换,前端作业连续运行,故障主机修复后可重构双机容错系统。
    ◆ 豪威 Proware 磁盘阵列:提升 I/O 性能
    豪威 Proware 磁盘阵列 自带专用 Intel RAID 控制器, 32M-512MB 缓存, RAID RISC 专用芯片组,所有 RAID 校验恢复及格式化工作均内部完成,不需主机 CPU 分时;
    磁盘阵列 CPU 及缓存自动完成预读 / 预写工作,主机读写时不需等待;
    所有阵列硬盘均由内部 SCSI 并行通道支持并行读写( Multi-SCSI Parallel Channel );
    方案综述
    以上方案中综合地考虑了数据,系统的安全。采用了高可靠性的系统配置,将对安全的要求划分给单独的容错安全子系统。最大程度的提高系统的安全。并且兼顾了系统今后的扩展。采用双机热备份方式,保证了系统运行的安全稳定,充分利用和发挥了服务器的系统资源,使系统性能得到大幅度的提高,并减少了相应的投资。便于使用和管理的软硬件设备,使系统管理员可以方便安全的管理此套容错系统。
     
    北京三木联合信息技术有限公司
    联系人:王胜春
    手  机:
    商务QQ:461309173
    E-mail:[email]wonsc@126.com[/email]

    转载于:https://blog.51cto.com/184701/41362

    展开全文
  • HA(High Available)高可用集群是减少服务中断时间为目的的服务器集群技术,也是保证业务连续性的有效解决方案。集群,一般有两个或者两个以上的计算机组成,这些组成集群的计算机被称为节点。 其中由两个节点组成...
  • Co-StandbyServer 2000是Legato公司最新应用于Microsoft Windows 2000 Server和Advanced Server高可用解决方案。它是专门设计用来保护公司重要服务器的关键数据和功能。通过执行Co-StandbyServer 2000,系统管理员...
  • 环境说明参照上章已完成postgresql流...pg_ctl -D /data/postgresql/data/ stop -m fast配置集群环境安装pacemaker和corosync需要在所有节点执行yum install -y pacemaker pcs psmisc policycoreutils-python postgr...
  • 一般拿 Timer 和 Quartz 相比较的,简直就是对 Quartz 的侮辱,两者的功能根本就不在一个层级上,如本篇介绍的Quartz强大的集群机制,可以采用基于sqlserver,mysql的集群方案,当然还可以在第三方插件的基础上实现...
  • 一般拿 Timer 和 Quartz 相比较的,简直就是对 Quartz 的侮辱,两者的功能根本就不在一个层级上,如本篇介绍的Quartz强大的集群机制,可以采用基于sqlserver,mysql的集群方案,当然还可以在第三方插件的基础上实现...
  • SSAN高可用双机技术

    千次阅读 2016-10-25 22:14:09
    通常情况下SSAN分布式块存储集群建议3个节点起配,然而一些客户出于应用规模和降低成本考虑,尤其是SMB中小企业客户,两个节点的SSAN高可用集群方案是否可行呢?这个是必须行的。SSAN高可用双机技术方案,采用双副本...
  • sqlserver,mysql的集群方案,当然还可以在第三方插件的基础上实现quartz序列化到热炒的mongodb,redis,震撼力可想而知,接下来本篇就和大家聊 一聊怎么搭建基于sqlserver的quartz集群,实现这么一种双机
  • 作为美国存储业领导厂商 ——EMC公司的一个独立的软件部门,Legato提供给用户既高效又方便的解决方案。因此,为我们的用户提供在Windows,Linux和UNIX平台上的、全面的数据保护管理领域的优秀的软件系列产品,是用户...
  • 一般拿 Timer 和 Quartz 相比较的,简直就是对 Quartz 的侮辱,两者的功能根本就不在一个层级上,如本篇介绍的Quartz强大的集群机制,可以采用基于sqlserver,mysql的集群方案,当然还可以在第三方插件的基础上实现...
  • 其科研团队自主研发的HeartsOne Backup数据备份软件中的模块HeartsOne HA在高可用技术方面,根据不同的应用环境,从性能、经济等方面考虑可以做到双机热备、集群热备以及数据同步和远程数据复制等功能。
  • 随着信息化建设的不断推进,各个企事业单位的活动越来越多的依赖于其关键的业务信息系统,这些业务信息系统对整个机构的运营和发展起着至关重要的作用,因此高可用集群客户具有如下需求: 1.业务系统的不间断应用 ...
  • 很多时候大家为了部署高可用方案都是前端配一个 nginx,如果nginx挂掉怎么办,比如下面这张图:你可以清楚的看到,如果 192.168.2.100 这台机器挂掉了,那么整个集群就下线...
  • HA(High available)-Keepalived高可用集群 Keepalived是一个基于VRRP虚拟路由冗余协议来实现的WEB 服务高可用方案,虚拟路由冗余协议 (Virtual Router Redundancy Protocol,简称VRRP),类似于工作在3,4,5层...
  • 标签:转载:http://www.microcolor.cn/solutions/80.html本手册主要介绍通过使用MicroColor ServHAMirror/Cluster软件在Windows操作系统下完成对Mysql应用双机高可用集群配置的思路和步骤。在使用本手册前需要先...
  • 实用标准文档 ORACLE数据库双机热备方案 Windows 本手册主要介绍通过使用 MicroColor ServHAMirror/Cluster 软件在 Windows 操作系统下完成对 Oracle 应用双机高可用集群配置的思路和步骤在使用本手册前需要先完成 ...
  • 很多时候大家为了部署高可用方案都是前端配一个 nginx,如果nginx挂掉怎么办,比如下面这张图:你可以清楚的看到,如果 192.168.2.100 这台机器挂掉了,那么整个集群就下线了,这个问题该怎么解决呢???简单的想想...
  • 文章目录一、高可用群集概述1. 高可用群集相关2. keepalived工具3. keepalived实现原理解析3.1 VRRP(虚拟路由冗余协议)是针对路由器的一种备份解决方案4. keepalived案例讲解4.1 常用选项4.2 常用配置选项5.配置...
  • 在之前一篇使用nginx搭建高可用的解决方案的时候,很多同学会问,如果nginx挂掉怎么办,比如下面这张图: 你可以清楚的看到,如果192.168.2.100这台机器挂掉了,那么整个集群就下线了,这个问题该怎么解决呢?...
  • H3C-联鼎集群高可用解决方案需求分析随着全球经济的增长,世界各地各种各样的组织和机构对IT系统的依赖都在不断增加,电子贸易使得商务一周七天24小时不间断的进行成为了可能。新的强大的应用程序使得商业和社会机构...
  • 由于网络架构的原因,在一般虚拟机或物理环境中常见的用 VIP 来实现...本文介绍如何基于 Azure Load Balancer (LB), 结合 Linux 开源的产品 DRBD,Pacemaker 和 Corosync 实现 MariaDB 的双机高可用,并且搭建了一个...

空空如也

空空如也

1 2 3 4 5 ... 12
收藏数 224
精华内容 89
关键字:

双机高可用集群方案