精华内容
下载资源
问答
  • VMware 11gR2 RAC 双心跳网络设置
    千次阅读
    2014-02-28 17:38:48

    1.查看当前RAC网络信息

    [grid@rac1 ~]$ oifcfg getif

    eth0  10.0.0.0  global  cluster_interconnect
    eth1  192.168.8.0  global  public


    2.添加一块新的网卡eth2作为另外一个心跳网络

    [grid@rac1 ~]$ oifcfg set -global eth2/10.0.0.0:cluster_interconnect


    3.查看添加后的网络信息

    [grid@rac1 ~]$ oifcfg getif
    eth0  10.0.0.0  global  cluster_interconnect
    eth1  192.168.8.0  global  public
    eth2  10.0.0.0  global  cluster_interconnect


    4.停止rac(root用户,两个节点)

    crsctl stop crs

    crsctl disable crs


    4.VMware里面添加一个网卡


    5.修改网卡配置文件(两个节点都做)

     [root@rac1] cd /etc/sysconfig/network-scripts/

     [root@rac1] cp ifcfg-eth0 ifcfg-eth2

    修改文件当中的网卡名字,UUID,硬件地址;

    UUID--》uuidgen命令可以生产。

    硬件地址:ifconfig -a或者从vmware图形界面上可以看到。

    service network restart


    6. 启动RAC(root用户,两个节点)

    crsctl enable crs

    crsctl start crs








    更多相关内容
  • POWERHA常用心跳网络特点和配置.二、常用心跳网络配置 1、 RS232串口心跳配置 硬件配置建议配置专门用作心跳网络的异步卡。异步卡及串口线的选择配置可以参考: PowerHA中异步卡和串口线的选择。 配置方法:添加tty...
  • 集群版本为11.2版本,检查集群日志,问题比较明显,集群alert日志中让看CSSD进程日志,CSSD中显示无心跳网络:has a disk HB, but no network HB;按如下步骤排查处理: 1.首先通过hosts文件确认了数据库心跳网络IP,...

    近期,某用户环境出现集群数据库一个节点无法启动、加入集群的问题。集群版本为11.2版本,检查集群日志,问题比较明显,集群alert日志中让看CSSD进程日志,CSSD中显示无心跳网络:has a disk HB, but no network HB;按如下步骤排查处理:

    1.首先通过hosts文件确认了数据库心跳网络IP,并在操作系统层面确认心跳网卡状态正常并且可以互相PING通、SSH联通。

    2.通过gpnptool get确认集群使用的心跳网络即为上一步检查的。

    3.根据11.2集群组件功能,GIPC进程负责检测集群网络状态;查看GIPC进程日志,发现GIPC进程标识的心跳网络eth1 - rank 0; 即为异常状态(正常时为eth1 - rank 99)。

    4.在步骤1中已经检查心跳网络在主机层面正常;因此结合集群组件的特性,尝试让触发集群重新检测心跳网络的状态(通常可以KILL GIPC进程或者重启集群软件);

    5.本次KILL GIPC进程或者重启集群软件均无效,通过在操作系统 层面重启网卡,之后GIPC进程正确识别网卡状态,集群可以正常启动。

    相关日志如下:

    1.异常时的GPNP中心跳网络信息:
    
    [grid@nphisdb1 gpnpd]$gpnptool get
    Warning: some command line parameters were defaulted. Resulting command line: 
             /u01/app/11.2.0/grid_1/bin/gpnptool.bin get -o-
    
    <?xml version="1.0" encoding="UTF-8"?><gpnp:GPnP-Profile Version="1.0" xmlns="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:gpnp="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:orcl="http://www.oracle.com/gpnp/2005/11/gpnp-profile" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.grid-pnp.org/2005/11/gpnp-profile gpnp-profile.xsd" ProfileSequence="4" ClusterUId="a3268b3b769cdf7dbfc43c8ffd69e87f" ClusterName="nphisdb-cluster" PALocation=""><gpnp:Network-Profile><gpnp:HostNetwork id="gen" HostName="*"><gpnp:Network id="net1" IP="192.168.205.0" Adapter="eth0" Use="public"/><gpnp:Network id="net2" IP="10.10.10.0" Adapter="eth1" Use="cluster_interconnect"/></gpnp:HostNetwork></gpnp:Network-Profile><orcl:CSS-Profile id="css" DiscoveryString="+asm" LeaseDuration="400"/><orcl:ASM-Profile id="asm" DiscoveryString="/dev/oracleasm/disks" SPFile="+CRS/nphisdb-cluster/asmparameterfile/registry.253.1028034033"/><ds:Signature xmlns:ds="http://www.w3.org/2000/09/xmldsig#"><ds:SignedInfo><ds:CanonicalizationMethod Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"/><ds:SignatureMethod Algorithm="http://www.w3.org/2000/09/xmldsig#rsa-sha1"/><ds:Reference URI=""><ds:Transforms><ds:Transform Algorithm="http://www.w3.org/2000/09/xmldsig#enveloped-signature"/><ds:Transform Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"> <InclusiveNamespaces xmlns="http://www.w3.org/2001/10/xml-exc-c14n#" PrefixList="gpnp orcl xsi"/></ds:Transform></ds:Transforms><ds:DigestMethod Algorithm="http://www.w3.org/2000/09/xmldsig#sha1"/><ds:DigestValue>bjVFpM9uJREXWTWBP6GSC1A11Zw=</ds:DigestValue></ds:Reference></ds:SignedInfo><ds:SignatureValue>UN5iBJd7mbmW8usjptRlTXtIBf05z76r+MyCNOSlXAGcsTE/zbb2BFeZkH0LMpyF5jbpQUzHE+U3wjUzZl/VsQS+y9QPeANVz1q1E9XDpfsxJwhRyhv0MNtK4/yy9xr9Y/zgTdg6dO2utm2Hy9pyCoDIrQ75gsmnZCtmPrfwR0A=</ds:SignatureValue></ds:Signature></gpnp:GPnP-Profile>
    Success.
    
    
    2.检查GIPC进程中网络的rank值
    2022-03-20 13:30:58.580: [ CLSINET][346261248] Returning NETDATA: 1 interfaces
    2022-03-20 13:30:58.580: [ CLSINET][346261248] # 0 Interface 'eth1',ip='10.10.10.1',mac='40-f2-e9-64-24-5e',mask='255.255.255.0',net='10.10.10.0',use='cluster_interconnect'
    2022-03-20 13:31:00.903: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank    0, avgms 30000000000.000000 [ 32 / 0 / 0 ]
    2022-03-20 13:31:01.430: [GIPCDCLT][350463744] gipcdClientThread: req from local client of type gipcdmsgtypeInterfaceMetrics, endp 000000000000046d
    2022-03-20 13:31:02.431: [GIPCDCLT][350463744] gipcdClientThread: req from local client of type gipcdmsgtypeInterfaceMetrics, endp 0000000000000199
    2022-03-20 13:31:03.432: [GIPCDCLT][350463744] gipcdClientThread: req from local client of type gipcdmsgtypeInterfaceMetrics, endp 000000000000032e
    2022-03-20 13:31:03.584: [ CLSINET][346261248] Returning NETDATA: 1 interfaces
    2022-03-20 13:31:03.584: [ CLSINET][346261248] # 0 Interface 'eth1',ip='10.10.10.1',mac='40-f2-e9-64-24-5e',mask='255.255.255.0',net='10.10.10.0',use='cluster_interconnect'
    2022-03-20 13:31:06.433: [GIPCDCLT][350463744] gipcdClientThread: req from local client of type gipcdmsgtypeInterfaceMetrics, endp 000000000000046d
    2022-03-20 13:31:07.434: [GIPCDCLT][350463744] gipcdClientThread: req from local client of type gipcdmsgtypeInterfaceMetrics, endp 0000000000000199
    
    
    3.重启集群软件无法解决后,重启网卡
    4.检查GIPC进程日志,已经恢复正常rank   99
    
    [grid@nphisdb1 gipcd]$tail -f gipcd.log |grep rank
    2022-03-20 13:38:30.626: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.143791 [ 300 / 306 / 306 ]
    2022-03-20 13:39:00.634: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 0.628019 [ 204 / 207 / 207 ]
    2022-03-20 13:39:30.642: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.564626 [ 153 / 147 / 147 ]
    2022-03-20 13:40:00.642: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.052632 [ 119 / 114 / 114 ]
    2022-03-20 13:40:30.644: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.016949 [ 121 / 118 / 118 ]
    2022-03-20 13:41:00.655: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.636364 [ 115 / 110 / 110 ]
    2022-03-20 13:41:30.658: [GIPCDMON][346261248] gipcdMonitorSaveInfMetrics: inf[ 0]  eth1                 - rank   99, avgms 1.071429 [ 117 / 112 / 112 ]

    展开全文
  • 参考网上的文章,在同一窗体中模拟服务端,客户端,压缩包中包含 三个项目,学习UDP编程很好的例子 visual studio 2017
  • HACMP的心跳网络

    千次阅读 2013-04-26 22:45:24
     HACMP 软件主要监控 4 种故障:节点,网卡,网络,应用。其中前三种都是通过心跳来监控并产生事件响应的,我们可以看出使用 HACMP 集群,可谓玩的就是心跳。如果不了解心跳的过程和基本原理,使用 HACMP ...

    初识 HACMP 心跳

           HACMP 软件主要监控 4 种故障:节点,网卡,网络,应用。其中前三种都是通过心跳来监控并产生事件响应的,我们可以看出使用 HACMP 集群,可谓玩的就是心跳。如果不了解心跳的过程和基本原理,使用 HACMP 搭建起来的高可用的平台就可能是高不可用。

     

           其实 HACMP 的心跳并不复杂高深,像所有的 HA 软件一样,心跳包是用来传递节点的状态信息,HACMP 的心跳包从最高的 IP 地址依次单向流动到最低 IP 地址,然后再返回到 IP 地址最高的节点形成一个单向循环的环路。每一个物理子网都会有一个心跳环路,包括串口心跳和磁盘心跳这些点对点的心跳,在广义上也是各自独立的心跳环路。每个环路我们称之为一个心跳网络。其心跳过程我们可以参看下图,Node3 有最高的 IP 地址 192.168.1.3,它是该心跳环路的 Group Leader。 Node3 产生的心跳包发送给 Node2,Node2 产生的心跳包发送给 Node1,Node1 则发送给 Node3 形成一个环路。


     

           对于 HACMP 集群来说,至少需要 2 个心跳网络来保证心跳网络的冗余,而且更进一步,至少需要 2 种不同类型的心跳网络保证更高的可靠性,比如,一个 IP 网络心跳,一个磁盘心跳。之所以对心跳网络可靠性有如此高的要求,除了我们之前描述的心跳网络的重要作用以外,还有更重要的原因:如果 2 个节点间心跳通信完全中断后,他们都会认为对方已经宕机,然后都在本地启动应用,并同时去争抢磁盘资源,有可能导致数据出现风险,即所谓的 split-brain 事件。所以 HACMP 包括其他的 HA 的集群应用都有一个很重要的前提,就是要求在任何时刻至少存在一个可用的心跳网络在节点间传递信息

     

    再看 HACMP 心跳

           从 HACMP5.1 版本以后,HACMP 的心跳已经交由 RSCTReliable Scalable Cluster Technology这一套中间层软件来实现。RSCT 相当于是一个集群应用与集群管理的中间通讯平台,它提供了丰富的集群功能简化了集群应用开发的复杂性。在其他的一些软件,比如 IBM CSM 集群管理软件和 HMC 上的部分管理功能都是通过 RSCT 的组件来实现的。

     

           再细分来看,负责心跳的是 RSCT 中的 Topology Services 模块。我们下面先了解一下 Topology Services 的初始化过程。Topology Services 的核心进程是/usr/sbin/rsct/bin/hatsd 。hatsd 启动后就开始广播本节点信息同时侦听其他节点的信息,经过自举、推举、还有一段时间等待(其过程有点类似于以太网交换机通过 spanning-tree 协议选举 root 节点),最后在该子网中找出所有节点里一个 IP 地址最高的,将它定义为 group leader。 Group leader 作为一个权威节点负责该子网中节点状态信息的收集,管理,更新和发布。至此,心跳网络就完成了其初始化过程开始正常心跳。另外,为防止 Group Leader 宕机,还定义了 IP 地址第二高的节点作为 Group Leader 的监控节点称之为 Group Leader Successor,它负责监控 Group Leader 状态,在必要时可以弹劾并成为 Group Leader

     

           在心跳网络建立以后,网络状态的监控被分为两部分,一是网卡物理状态的监控;一是逻辑上的网络链路状态监控。网卡物理状态的监控是通过为每一块网块创建一个监控进程(NIM)来实现的,当网卡状态改变会立刻通知 RSCT,比如网卡 Link down 的信息就会被 NIM 立刻发现并产生 Network adaptor failure 的事件。

           另一方面,hacmp 心跳故障判断还能从逻辑上分析判断网络状态。我们以下图为例。假设在运行过程中,Node3 到 Node2 之间的网络发生意外中断,但是 Node3 网卡的链路状态仍然为 UP,此时物理的网卡监控不会做出反应。然而心跳包会开始丢包,Node2 会发现无法收到 Node3 的心跳包,但此时并不能确定到底是 Node2 还是 Node3 网络出现故障。为了进一步确定故障,Node3 会通过 RSCT 走别的心跳网络发命令给第三个节点(node1),让第三个节点(Node1)分别去 ping Node2 和 Node3。如果故障点在 Node3 上面,那么显然 ping Node3 会失败,于是确定故障位置在 Node3 上面,最后产生一个的 Network adaptor failure 的事件通知给 HACMP。


     

    . 2 个节点的 HACMP 集群

           我们从上文可以发现,准确判断网络故障点的位置需要“第三个节点”做仲裁。只有 2 个节点的 HA 集群如何实现正确判断?从一般的逻辑判断上来说,2 个节点之间出问题一定是公说公有理,婆说婆有理,必须要有第三方来做仲裁。

          

           在只有 2 个节点的 HA 集群中,为了解决这个问题,HACMP 需要配置一个文件来设置一些第三方的一个仲裁 IP 地址。当心跳故障发生时,个节点都会去试图从本机去ping 这些仲裁 IP 地址。能正确的 ping 通则表明本节点的网络正常,从而判断出故障点需要注意的是,仅仅是在网络心跳发生问题时,RSCT 才会调用网络诊断的进程去使用这些仲裁 IP,在正常状态下,这些仲裁 IP 不会参与到心跳过程。

     

           这些仲裁 IP 的选择可以是子网的网关,也可以是子网中其他的某一节点 IP 地址。如果有多个子网,需要为每个子网挑选一个仲裁 IP 地址,把他们写成一个 list 保存到一个配置文件(netmon.cf)中。该配置文件的存放位置在 /usr/es/sbin/cluster/netmon.cf。在两个节点的 HA 群里同步配置的过程中,如果没有配置 netmon.cf 可能会弹出一个 warning 的信息提示该文件需要配置

     

           在配置 netmon.cf 后,RSCT 的进程启动后,会逐条把其中的 IP 读取进来,作为仲裁 IP 使用。我们可以在 nmDiag.nim.topsvcs.xxx 这个日志文件中看到这样的信息。

    06/18 19:01:55.387: read_ping_configuration:Entered for adapter en0

    06/18 19:01:55.387: read_ping_configuration:File /usr/es/sbin/cluster/netmon.cf opened

    06/18 19:01:55.387: read_ping_configuration:Read [192.168.21.130 ] from file.

    06/18 19:01:55.387: read_ping_configuration:gethostbyname (192.168.21.130) was successful.

    06/18 19:01:55.387: read_ping_configuration:Read [172.32.16.3] from file.

    06/18 19:01:55.387: read_ping_configuration:gethostbyname (172.32.16.3) was successful.

    06/18 19:01:55.387: read_ping_configuration:Read 2 ping addresses.

     

    其他一些细节

    4.1 RSCT/HACMP 日志文件

    关于 HACMP 心跳的日志存放在 /var/ha/log 目录下。其主要可供分析的有:

    (1)nim.topsvcs.enX (enX 为网络端口名 ) 该文件对应的记录了网卡 enX 的网络监控进程的启动,心跳和退出的详细日志。

    (2)nmDiag.nim.topsvcs.enX 该文件记录了在心跳出现丢失后,RSCT 对网络拓扑的逻辑分析判断的过程。

    (3)Topsvcs.<pid 进程号 >.<cluster name> 该文件是 topsvcs 的主进程日志文件,记录 topsvcs 进程的启动过程,以及心跳网络拓扑改变等重要的事件信息。

     

    4.2 心跳网络状态查询命令

           我们一般都知道 hacmp 的状态可以通过 /usr/sbin/cluster/clstat 来查看,还有一个命令可以更详细的查看当前集群心跳状态。 lssrc –ls topsvcs 如下图:

    # lssrc -ls topsvcs | more

    Subsystem Group PID Status

     topsvcs topsvcs 315610 active

    Network Name Indx Defd Mbrs St Adapter ID Group ID

    net_ether_01_0 [ 0] 2 1 S 192.168.21.150 192.168.21.150

    net_ether_01_0 [ 0] en0 0x808820f2 0x808820fc

    HB Interval = 1.000 secs. Sensitivity = 10 missed beats

    Missed HBs: Total: 0 Current group: 0

    Packets sent : 1078 ICMP 0 Errors: 0 No mbuf: 0

    Packets received: 866 ICMP 0 Dropped: 0

    NIM's PID: 307250

    net_ether_01_1 [ 1] 2 1 S 172.16.21.1 172.16.21.1

    net_ether_01_1 [ 1] en1 0x808820f3 0x808820fc

    HB Interval = 1.000 secs. Sensitivity = 10 missed beats

    Missed HBs: Total: 0 Current group: 0

    Packets sent : 1078 ICMP 0 Errors: 0 No mbuf: 0

    Packets received: 434 ICMP 0 Dropped: 0

     

           通过分析心跳包的丢包数量和频率可以判断网络的可靠性和负载情况,一方面可以用来分析和解释异常的 HA 备机切换动作,另一方面可以用来分析系统问题并通过调整系统参数来均衡负载。建议在设计 HA 集群的时候不要使用负载过大的 TCP/IP 网络或者 IO 负载很大的磁盘来做心跳。

     

     

    小结

           HACMP 集群的各种网络故障的分析和判断都是由 RSCT 心跳来实现的,网络故障的判断正确与否也直接影响了 HACMP 对应用的切换和还原,所以了解心跳的过程与原理对于设计与配置 HACMP 高可用集群具有重要的意义。

     

     

     

    From:

    http://www.ibm.com/developerworks/cn/aix/library/0811_wangrong_hacmp/index.html

     

     

    展开全文
  • oracle 11G R2 RAC 心跳网络异常处理

    千次阅读 2018-01-26 10:05:39
    概述:在rac中心跳网络承载着重要的作用,当心跳网络的ip配置不正确亦或网卡名字不对都将使得rac启动等异常;运气不好时,心跳网卡都坏了,更换了一个网卡后是不是只能重装解决呢? 实验内容: 1、心跳网络IP...

    概述:在rac中心跳网络承载着重要的作用,当心跳网络的ip配置不正确亦或网卡名字不对都将使得rac启动等异常;运气不好时,心跳网卡都坏了,更换了一个网卡后是不是只能重装解决呢?


    实验内容:

    1、心跳网络IP网段配置错误;

    2、心跳网络网卡更改或者是修改不正确;


    实验一:

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    NAME           TARGET  STATE        SERVER                   STATE_DETAILS       
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.LISTENER.lsnr
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.OCR.dg
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.asm
                   ONLINE  ONLINE       rac1                     Started             
                   ONLINE  ONLINE       rac2                     Started             
    ora.gsd
                   OFFLINE OFFLINE      rac1                                         
                   OFFLINE OFFLINE      rac2                                         
    ora.net1.network
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.ons
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.registry.acfs
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.LISTENER_SCAN1.lsnr
          1        ONLINE  ONLINE       rac1                                         
    ora.cube.db
          1        ONLINE  ONLINE       rac1                     Open                
          2        ONLINE  ONLINE       rac2                     Open                
    ora.cvu
          1        ONLINE  ONLINE       rac1                                         
    ora.oc4j
          1        ONLINE  ONLINE       rac1                                         
    ora.rac1.vip
          1        ONLINE  ONLINE       rac1                                         
    ora.rac2.vip
          1        ONLINE  ONLINE       rac2                                         
    ora.scan1.vip
          1        ONLINE  ONLINE       rac1    

     

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/oifcfg getif
    eth1  100.100.100.0  global  cluster_interconnect
    bond0  192.168.100.0  global  public


    [root@rac1 ~]# ifconfig eth1
    eth1      Link encap:Ethernet  HWaddr 08:00:27:F7:67:C6  
              inet addr:100.100.100.100  Bcast:100.100.100.255  Mask:255.255.255.0
              inet6 addr: fe80::a00:27ff:fef7:67c6/64 Scope:Link
              UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
              RX packets:15346 errors:0 dropped:0 overruns:0 frame:0
              TX packets:39482 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000 
              RX bytes:7218263 (6.8 MiB)  TX bytes:40006495 (38.1 MiB)

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/oifcfg setif -global eth1/100.100.200.0:cluster_interconnect
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/oifcfg getif
    eth1  100.100.100.0  global  cluster_interconnect
    bond0  192.168.100.0  global  public
    eth1  100.100.200.0  global  cluster_interconnect
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/oifcfg delif -global eth1/100.100.100.0:cluster_interconnect
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/oifcfg getif
    bond0  192.168.100.0  global  public
    eth1  100.100.200.0  global  cluster_interconnect


    重新启动群集

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl stop has
    CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'rac1'
    CRS-2673: Attempting to stop 'ora.crsd' on 'rac1'
    CRS-2790: Starting shutdown of Cluster Ready Services-managed resources on 'rac1'
    CRS-2673: Attempting to stop 'ora.LISTENER_SCAN1.lsnr' on 'rac1'
    CRS-2673: Attempting to stop 'ora.LISTENER.lsnr' on 'rac1'
    CRS-2673: Attempting to stop 'ora.oc4j' on 'rac1'
    CRS-2673: Attempting to stop 'ora.OCR.dg' on 'rac1'
    CRS-2673: Attempting to stop 'ora.registry.acfs' on 'rac1'
    CRS-2673: Attempting to stop 'ora.cube.db' on 'rac1'
    CRS-2673: Attempting to stop 'ora.cvu' on 'rac1'
    CRS-2677: Stop of 'ora.cvu' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.cvu' on 'rac2'
    CRS-2677: Stop of 'ora.LISTENER_SCAN1.lsnr' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.scan1.vip' on 'rac1'
    CRS-2677: Stop of 'ora.LISTENER.lsnr' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.rac1.vip' on 'rac1'
    CRS-2677: Stop of 'ora.scan1.vip' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.scan1.vip' on 'rac2'
    CRS-2674: Start of 'ora.cvu' on 'rac2' failed
    CRS-2674: Start of 'ora.scan1.vip' on 'rac2' failed
    CRS-2677: Stop of 'ora.cube.db' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.DATA.dg' on 'rac1'
    CRS-2677: Stop of 'ora.rac1.vip' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.DATA.dg' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.registry.acfs' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.OCR.dg' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.asm' on 'rac1'
    CRS-2677: Stop of 'ora.asm' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.oc4j' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.ons' on 'rac1'
    CRS-2677: Stop of 'ora.ons' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.net1.network' on 'rac1'
    CRS-2677: Stop of 'ora.net1.network' on 'rac1' succeeded
    CRS-2792: Shutdown of Cluster Ready Services-managed resources on 'rac1' has completed
    CRS-2677: Stop of 'ora.crsd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.mdnsd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'rac1'
    CRS-2673: Attempting to stop 'ora.ctssd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.evmd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.asm' on 'rac1'
    CRS-2677: Stop of 'ora.mdnsd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.evmd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.ctssd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.asm' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.cluster_interconnect.haip' on 'rac1'
    CRS-2677: Stop of 'ora.cluster_interconnect.haip' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.cssd' on 'rac1'
    CRS-2677: Stop of 'ora.cssd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gipcd' on 'rac1'
    CRS-2677: Stop of 'ora.drivers.acfs' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.gipcd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gpnpd' on 'rac1'
    CRS-2677: Stop of 'ora.gpnpd' on 'rac1' succeeded
    CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'rac1' has completed
    CRS-4133: Oracle High Availability Services has been stopped.
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl start has
    CRS-4123: Oracle High Availability Services has been started.


    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl stat res -t 
    CRS-4535: Cannot communicate with Cluster Ready Services
    CRS-4000: Command Status failed, or completed with errors.

    查看集群启动日志:

    [/u01/app/11.2.0/grid/bin/orarootagent.bin(6592)]CRS-5818:Aborted command 'start' for resource 'ora.cluster_interconnect.haip'. Details at (:CRSAGF00113:) {0:0:2} in /u01/app/11.2.0/grid/log/rac1/agent/ohasd/orarootagent_root/orarootagent_root.log.
    2018-01-26 09:16:47.206: 
    [ohasd(6215)]CRS-2757:Command 'Start' timed out waiting for response from the resource 'ora.cluster_interconnect.haip'. Details at (:CRSPE00111:) {0:0:2} in /u01/app/11.2.0/grid/log/rac1/ohasd/ohasd.log


    vi /u01/app/11.2.0/grid/log/rac1/ohasd/ohasd.log

    85ed0 [0000000000000010] { gipchaContext : host 'rac1', name 'CLSFRAME_cluster', luid '31303692-00000000', numNode 0, numInf 0, usrFlags 0x0, flags 0x63 } to gipcd
    2018-01-26 09:17:58.681: [GIPCHDEM][3556767488]gipchaDaemonInfRequest: sent local interfaceRequest,  hctx 0x1e85ed0 [0000000000000010] { gipchaContext : host 'rac1', name 'CLSFRAME_cluster', luid '31303692-00000000', numNode 0, numInf 0, usrFlags 0x0, flags 0x63 } to gipcd
    2018-01-26 09:18:04.689: [GIPCHDEM][3556767488]gipchaDaemonInfRequest: sent local interfaceRequest,  hctx 0x1e85ed0 [0000000000000010] { gipchaContext : host 'rac1', name 'CLSFRAME_cluster', luid '31303692-00000000', numNode 0, numInf 0, usrFlags 0x0, flags 0x63 } to gipcd
    2018-01-26 09:18:09.698: [GIPCHDEM][3556767488]gipchaDaemonInfRequest: sent local interfaceRequest,  hctx 0x1e85ed0 [0000000000000010] { gipchaContext : host 'rac1', name 'CLSFRAME_cluster', luid '31303692-00000000', numNode 0, numInf 0, usrFlags 0x0, flags 0x63 } to gipcd
    2018-01-26 09:18:14.714: [GIPCHDEM][3556767488]gipchaDaemonInfRequest: sent local interfaceRequest,  hctx 0x1e85ed0 [0000000000000010] { gipchaContext : host 'rac1', name 'CLSFRAME_cluster', luid '31303692-00000000', numNode 0, numInf 0, usrFlags 0x0, flags 0x63 } to gipcd

    种种日志表明,rac的心跳网络出现异常,此时我们可以借助gpnptool  工具进行修改心跳网络的配置:

    查看心跳网络配置信息:

    [root@rac1 ~]# ifconfig eth1
    eth1      Link encap:Ethernet  HWaddr 08:00:27:F7:67:C6  
              inet addr:100.100.100.100  Bcast:100.100.100.255  Mask:255.255.255.0
              inet6 addr: fe80::a00:27ff:fef7:67c6/64 Scope:Link
              UP BROADCAST RUNNING MULTICAST  MTU:1500  Metric:1
              RX packets:39324 errors:0 dropped:0 overruns:0 frame:0
              TX packets:63992 errors:0 dropped:0 overruns:0 carrier:0
              collisions:0 txqueuelen:1000 
              RX bytes:21550499 (20.5 MiB)  TX bytes:54030781 (51.5 MiB


    查看gpnp profile的配置信息:

    [grid@rac1 gpnp]$ gpnptool get
    Warning: some command line parameters were defaulted. Resulting command line: 
             /u01/app/11.2.0/grid/bin/gpnptool.bin get -o-


    <?xml version="1.0" encoding="UTF-8"?><gpnp:GPnP-Profile Version="1.0" xmlns="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:gpnp="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:orcl="http://www.oracle.com/gpnp/2005/11/gpnp-profile" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.grid-pnp.org/2005/11/gpnp-profile gpnp-profile.xsd" ProfileSequence="20" ClusterUId="afd4fb8a969e6ff0ff47999b3fa206d6" ClusterName="cluster" PALocation=""><gpnp:Network-Profile><gpnp:HostNetwork id="gen" HostName="*"><gpnp:Network id="net1" Adapter="bond0" IP="192.168.100.0" Use="public"/><gpnp:Network id="net2" Adapter="eth1" IP="100.100.200.0" Use="cluster_interconnect"/></gpnp:HostNetwork></gpnp:Network-Profile><orcl:CSS-Profile id="css" DiscoveryString="+asm" LeaseDuration="400"/><orcl:ASM-Profile id="asm" DiscoveryString="/dev/asm*" SPFile="+OCR/cluster/asmparameterfile/registry.253.963054397"/><ds:Signature xmlns:ds="http://www.w3.org/2000/09/xmldsig#"><ds:SignedInfo><ds:CanonicalizationMethod Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"/><ds:SignatureMethod Algorithm="http://www.w3.org/2000/09/xmldsig#rsa-sha1"/><ds:Reference URI=""><ds:Transforms><ds:Transform Algorithm="http://www.w3.org/2000/09/xmldsig#enveloped-signature"/><ds:Transform Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"> <InclusiveNamespaces xmlns="http://www.w3.org/2001/10/xml-exc-c14n#" PrefixList="gpnp orcl xsi"/></ds:Transform></ds:Transforms><ds:DigestMethod Algorithm="http://www.w3.org/2000/09/xmldsig#sha1"/><ds:DigestValue>/+xj6ziNHXD2LxYcgnH83yVYWns=</ds:DigestValue></ds:Reference></ds:SignedInfo><ds:SignatureValue>mh8+ulXRy6AgsgBB3AwJ6zdfmZzPTuvHbehpK97FMerHluIoQpmZmsKR0kwkrU03Bx8myEjwRfgz1XMJCZoNwAlvRfihxvQnV8kPAHRdrVOcz+HcYw/yvfkCS7WQJUTXpZwHzqM04xtmP5BgadE5AOxyDuI+hNfcgDeR24V0UhY=</ds:SignatureValue></ds:Signature></gpnp:GPnP-Profile>
    Success.

    对比发现实际网卡的心跳网络ip是100.100.100.X而profile 文件中的记录是100.100.200.X。


    以排他模式及不启动crsd进程启动crs

    [root@rac1 ~]# /u01/app/11.2.0/grid/crs/install/rootcrs.pl -unlock
    Using configuration parameter file: /u01/app/11.2.0/grid/crs/install/crsconfig_params
    CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'rac1'
    CRS-2673: Attempting to stop 'ora.ctssd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.evmd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'rac1'
    CRS-2673: Attempting to stop 'ora.mdnsd' on 'rac1'
    CRS-2677: Stop of 'ora.drivers.acfs' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.evmd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.mdnsd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.ctssd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.cssd' on 'rac1'
    CRS-2677: Stop of 'ora.cssd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gipcd' on 'rac1'
    CRS-2677: Stop of 'ora.gipcd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gpnpd' on 'rac1'
    CRS-2677: Stop of 'ora.gpnpd' on 'rac1' succeeded
    CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'rac1' has completed
    CRS-4133: Oracle High Availability Services has been stopped.
    Successfully unlock /u01/app/11.2.0/grid
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl start crs -excl -nocrs
    CRS-4123: Oracle High Availability Services has been started.
    CRS-2672: Attempting to start 'ora.mdnsd' on 'rac1'
    CRS-2676: Start of 'ora.mdnsd' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.gpnpd' on 'rac1'
    CRS-2676: Start of 'ora.gpnpd' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.cssdmonitor' on 'rac1'
    CRS-2672: Attempting to start 'ora.gipcd' on 'rac1'
    CRS-2676: Start of 'ora.cssdmonitor' on 'rac1' succeeded
    CRS-2676: Start of 'ora.gipcd' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.cssd' on 'rac1'
    CRS-2672: Attempting to start 'ora.diskmon' on 'rac1'
    CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded

    CRS-2676: Start of 'ora.diskmon' on 'rac1' succeeded
    CRS-2676: Start of 'ora.cssd' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.drivers.acfs' on 'rac1'
    CRS-2679: Attempting to clean 'ora.cluster_interconnect.haip' on 'rac1'
    CRS-2672: Attempting to start 'ora.ctssd' on 'rac1'
    CRS-2681: Clean of 'ora.cluster_interconnect.haip' on 'rac1' succeeded
    CRS-2672: Attempting to start 'ora.cluster_interconnect.haip' on 'rac1'
    CRS-2676: Start of 'ora.drivers.acfs' on 'rac1' succeeded
    CRS-2676: Start of 'ora.ctssd' on 'rac1' succeeded
    CRS-5017: The resource action "ora.cluster_interconnect.haip start" encountered the following error: 
    Start action for HAIP aborted. For details refer to "(:CLSN00107:)" in "/u01/app/11.2.0/grid/log/rac1/agent/ohasd/orarootagent_root/orarootagent_root.log".
    CRS-2674: Start of 'ora.cluster_interconnect.haip' on 'rac1' failed
    CRS-2679: Attempting to clean 'ora.cluster_interconnect.haip' on 'rac1'
    CRS-2681: Clean of 'ora.cluster_interconnect.haip' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.ctssd' on 'rac1'
    CRS-2677: Stop of 'ora.ctssd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.drivers.acfs' on 'rac1'
    CRS-2677: Stop of 'ora.drivers.acfs' on 'rac1' succeeded
    CRS-4000: Command Start failed, or completed with errors.


    [grid@rac1 ~]$ mkdir gpnp
    [grid@rac1 ~]$ gpnptool get -o=/home/grid/gpnp/p.xml
    Resulting profile written to "/home/grid/gpnp/p.xml".
    Success.
    [grid@rac1 ~]$ cd gpnp/

    [grid@rac1 gpnp]$ cp p.xml profile.xml

    [grid@rac1 gpnp]$ gpnptool getpval -p=/home/grid/gpnp/p.xml -prf_sq -o-
    20

    [grid@rac1 gpnp]$ gpnptool getpval -p=/home/grid/gpnp/p.xml -net -o-
    net1 net2

    [grid@rac1 gpnp]$ gpnptool edit -p=/home/grid/gpnp/p.xml -o=/home/grid/gpnp/p.xml -ovr -prf_sq=21 -net2:net_ip=100.100.100.0
    Resulting profile written to "/home/grid/gpnp/p.xml".
    Success.

    查看修改成功没:

    [grid@rac1 gpnp]$ cat p.xml 
    <?xml version="1.0" encoding="UTF-8"?><gpnp:GPnP-Profile Version="1.0" xmlns="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:gpnp="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:orcl="http://www.oracle.com/gpnp/2005/11/gpnp-profile" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.grid-pnp.org/2005/11/gpnp-profile gpnp-profile.xsd" ProfileSequence="21" ClusterUId="afd4fb8a969e6ff0ff47999b3fa206d6" ClusterName="cluster" PALocation=""><gpnp:Network-Profile><gpnp:HostNetwork id="gen" HostName="*"><gpnp:Network id="net1" Adapter="bond0" IP="192.168.100.0" Use="public"/><gpnp:Network id="net2" Adapter="eth1" IP="100.100.100.0" Use="cluster_interconnect"/></gpnp:HostNetwork></gpnp:Network-Profile><orcl:CSS-Profile id="css" DiscoveryString="+asm" LeaseDuration="400"/><orcl:ASM-Profile id="asm" DiscoveryString="/dev/asm*" SPFile="+OCR/cluster/asmparameterfile/registry.253.963054397"/><ds:Signature xmlns:ds="http://www.w3.org/2000/09/xmldsig#"><ds:SignedInfo><ds:CanonicalizationMethod Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"/><ds:SignatureMethod Algorithm="http://www.w3.org/2000/09/xmldsig#rsa-sha1"/><ds:Reference URI=""><ds:Transforms><ds:Transform Algorithm="http://www.w3.org/2000/09/xmldsig#enveloped-signature"/><ds:Transform Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"> <InclusiveNamespaces xmlns="http://www.w3.org/2001/10/xml-exc-c14n#" PrefixList="gpnp orcl xsi"/></ds:Transform></ds:Transforms><ds:DigestMethod Algorithm="http://www.w3.org/2000/09/xmldsig#sha1"/><ds:DigestValue>/+xj6ziNHXD2LxYcgnH83yVYWns=</ds:DigestValue></ds:Reference></ds:SignedInfo><ds:SignatureValue>mh8+ulXRy6AgsgBB3AwJ6zdfmZzPTuvHbehpK97FMerHluIoQpmZmsKR0kwkrU03Bx8myEjwRfgz1XMJCZoNwAlvRfihxvQnV8kPAHRdrVOcz+HcYw/yvfkCS7WQJUTXpZwHzqM04xtmP5BgadE5AOxyDuI+hNfcgDeR24V0UhY=</ds:SignatureValue></ds:Signature></gpnp:GPnP-Profile>


    [grid@rac1 gpnp]$ gpnptool getpval -p=/home/grid/gpnp/p.xml -prf_sq -o-
    21
    [grid@rac1 gpnp]$ gpnptool sign -p=/home/grid/gpnp/p.xml -o=/home/grid/gpnp/p.xml -ovr -w=cw-fs:peer
    Resulting profile written to "/home/grid/gpnp/p.xml".
    Success.

    [grid@rac1 gpnp]$ gpnptool put -p=/home/grid/gpnp/p.xml 

    Success.

    [grid@rac1 gpnp]$ gpnptool find -c=cluster


    Found 1 instances of service 'gpnp'.
            mdns:service:gpnp._tcp.local.://rac1:37760/agent=gpnpd,cname=cluster,host=rac1,pid=8419/gpnpd h:rac1 c:cluster
    [grid@rac1 gpnp]$ gpnptool rget -c=cluster
    Warning: some command line parameters were defaulted. Resulting command line: 
             /u01/app/11.2.0/grid/bin/gpnptool.bin rget -c=cluster -o-




    Found 1 gpnp service instance(s) to rget profile from.


    RGET from tcp://rac1:37760 (mdns:service:gpnp._tcp.local.://rac1:37760/agent=gpnpd,cname=cluster,host=rac1,pid=8419/gpnpd h:rac1 c:cluster):


    <?xml version="1.0" encoding="UTF-8"?><gpnp:GPnP-Profile Version="1.0" xmlns="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:gpnp="http://www.grid-pnp.org/2005/11/gpnp-profile" xmlns:orcl="http://www.oracle.com/gpnp/2005/11/gpnp-profile" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.grid-pnp.org/2005/11/gpnp-profile gpnp-profile.xsd" ProfileSequence="21" ClusterUId="afd4fb8a969e6ff0ff47999b3fa206d6" ClusterName="cluster" PALocation=""><gpnp:Network-Profile><gpnp:HostNetwork id="gen" HostName="*"><gpnp:Network id="net1" Adapter="bond0" IP="192.168.100.0" Use="public"/><gpnp:Network id="net2" Adapter="eth1" IP="100.100.100.0" Use="cluster_interconnect"/></gpnp:HostNetwork></gpnp:Network-Profile><orcl:CSS-Profile id="css" DiscoveryString="+asm" LeaseDuration="400"/><orcl:ASM-Profile id="asm" DiscoveryString="/dev/asm*" SPFile="+OCR/cluster/asmparameterfile/registry.253.963054397"/><ds:Signature xmlns:ds="http://www.w3.org/2000/09/xmldsig#"><ds:SignedInfo><ds:CanonicalizationMethod Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"/><ds:SignatureMethod Algorithm="http://www.w3.org/2000/09/xmldsig#rsa-sha1"/><ds:Reference URI=""><ds:Transforms><ds:Transform Algorithm="http://www.w3.org/2000/09/xmldsig#enveloped-signature"/><ds:Transform Algorithm="http://www.w3.org/2001/10/xml-exc-c14n#"> <InclusiveNamespaces xmlns="http://www.w3.org/2001/10/xml-exc-c14n#" PrefixList="gpnp orcl xsi"/></ds:Transform></ds:Transforms><ds:DigestMethod Algorithm="http://www.w3.org/2000/09/xmldsig#sha1"/><ds:DigestValue>fF43VW1hAMTBFOZ+tuw3qbQSQDo=</ds:DigestValue></ds:Reference></ds:SignedInfo><ds:SignatureValue>pYENVeL1XgZ2/fYmDY7xxMw+qY4AOYu+RApbJtVfIUA2muPuDmKVLYDddQOrX0XfwRdS3fFdO77cJuv1ApFUEQIDVjQdxVnzQWK+QhJUOvfsl1oE1g+rMNuJq3S6VWoRXLt4pr4wzY7CBkKdnoCdqsRu6u3yECWFiECUr6guk2Y=</ds:SignatureValue></ds:Signature></gpnp:GPnP-Profile>
    Success.

    重新启动群集

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl stop has
    CRS-2791: Starting shutdown of Oracle High Availability Services-managed resources on 'rac1'
    CRS-2673: Attempting to stop 'ora.mdnsd' on 'rac1'
    CRS-2673: Attempting to stop 'ora.cssd' on 'rac1'
    CRS-2677: Stop of 'ora.cssd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gipcd' on 'rac1'
    CRS-2677: Stop of 'ora.mdnsd' on 'rac1' succeeded
    CRS-2677: Stop of 'ora.gipcd' on 'rac1' succeeded
    CRS-2673: Attempting to stop 'ora.gpnpd' on 'rac1'
    CRS-2677: Stop of 'ora.gpnpd' on 'rac1' succeeded
    CRS-2793: Shutdown of Oracle High Availability Services-managed resources on 'rac1' has completed
    CRS-4133: Oracle High Availability Services has been stopped.
    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl start has
    CRS-4123: Oracle High Availability Services has been started.

    [root@rac1 ~]# /u01/app/11.2.0/grid/bin/crsctl stat res -t
    --------------------------------------------------------------------------------
    NAME           TARGET  STATE        SERVER                   STATE_DETAILS       
    --------------------------------------------------------------------------------
    Local Resources
    --------------------------------------------------------------------------------
    ora.DATA.dg
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.LISTENER.lsnr
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.OCR.dg
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.asm
                   ONLINE  ONLINE       rac1                     Started             
                   ONLINE  ONLINE       rac2                     Started             
    ora.gsd
                   OFFLINE OFFLINE      rac1                                         
                   OFFLINE OFFLINE      rac2                                         
    ora.net1.network
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.ons
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    ora.registry.acfs
                   ONLINE  ONLINE       rac1                                         
                   ONLINE  ONLINE       rac2                                         
    --------------------------------------------------------------------------------
    Cluster Resources
    --------------------------------------------------------------------------------
    ora.LISTENER_SCAN1.lsnr
          1        ONLINE  ONLINE       rac1                                         
    ora.cube.db
          1        ONLINE  ONLINE       rac1                     Open                
          2        ONLINE  ONLINE       rac2                     Open                
    ora.cvu
          1        ONLINE  ONLINE       rac1                                         
    ora.oc4j
          1        ONLINE  ONLINE       rac1                                         
    ora.rac1.vip
          1        ONLINE  ONLINE       rac1                                         
    ora.rac2.vip
          1        ONLINE  ONLINE       rac2                                         
    ora.scan1.vip
          1        ONLINE  ONLINE       rac1


    总结:这篇文章针对修改心跳ip修改错误后导致群集启动不了,进而通过gpnptool 工具来实现。如果是网卡修改的改进,套路一样自行测试吧。




    展开全文
  • 大连奥软科技有限公司内部工具,为了ping结果反馈统计使用,或者是网络心跳使用 需要这样的ping结果吗? 20200307144012 来自 192.168.1.1 的回复: 字节=1 时间=4 TTL=127 并且可以将其输入在一个文本文件里 ...
  • Oracle-RAC集群心跳

    2021-05-01 10:39:03
    心跳线物理布线注意事项不建议直连网线,建议采用交换机连接方式心跳线与业务网络分开单独接线若公用一个交换机时,使用VLAN隔离Oracle不支持使用交叉线(cross-cabling)作为Clusterware的内部连接导致集群不稳定限制...
  • java怎样去判断某个ip地址网络是否良好 可以通过InetAddress类和ping包方式 import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.InetAddress; import java.util.regex.Matcher; ...
  • 网络的“心跳

    2019-04-29 14:47:35
    其实,网络心跳机制非常的简单 所谓“心跳”就是定时发送一个自定义的结构体(心跳包或心跳帧),让对方知道自己“在线”。 以确保链接的有效性。换言之,就是你有心跳,就知道你小子还在活着。所谓的心跳包就是...
  • ORACLE RAC心跳&&网络

    千次阅读 2017-08-15 20:10:49
    1、 RAC默认心跳时间         版本 misscount disktimeout reboottime 10.2.0.1 60s \ \ 10.2.0.1+p4896338/10.2....
  • 目录心跳检测应用场景死连接情况保活传递有效业务数据心跳包机制设计通用心跳包设计有代理的心跳包设计 心跳检测应用场景 心跳检测一般有两个作用:保活和检测死连接。 死连接情况 服务器与客户端不在一个网络中,...
  • Oracle 网络&磁盘心跳机制

    千次阅读 2018-08-20 21:04:20
    网络心跳(Network Hearbeat)是RAC的内部通信机制,每隔一秒钟,CSSD的一个线程(sending进程)发送一个TCP网络心跳包给自己和集群中的其他节点,同时CSSD的另外一个进程(receiving进程)接收到心跳。如果网络传输...
  • 服务器心跳线设置

    2021-10-28 16:43:11
    心跳线连接2台机器。业务网卡和心跳网卡。2个网卡的ip不要再同一个网段。 业务网卡设置ip,netmask,gateway,心跳网卡只需设置ip,netmask即可。 如果心跳网卡也设置gateway,出现问题:2台机器之间可以ping通,但是...
  • oswatcher是oracle公司的一个收集unix、linux主机的操作系统和网络运行状况的工具,常用它来监控rac的心跳网络的稳定性。oswatcher的使用方法:1、首先从metalink上下载osw,document ...
  • 服务器心跳机制

    千次阅读 2021-02-27 17:58:57
    但是有些极端情况如客户端掉电、网络关闭、拔网线、路由故障等,这些极端情况客户端无法发送fin包给服务端,服务端便无法知道连接已经断开。如果客户端与服务端定时有心跳数据传输,则会比较及时的发现连接断开,...
  • 网络心跳机制

    千次阅读 2015-12-14 14:29:00
    心跳包的发送,通常有两种技术 方法1:应用层自己实现的心跳包  由应用程序自己发送心跳包来检测连接是否正常,大致的方法是:服务器在一个 Timer事件中定时 向客户端发送一个短小精悍的数据包,然后启动一个低...
  • QT 5 查看网络状态心跳

    热门讨论 2014-07-30 17:28:21
    QT5 实现的查看网络状态,利用ping, 实现类似心跳包的作用
  • 主要介绍了C#使用Socket实现心跳的方法示例,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • 实时检测网络的通断情况,以实现网络的无缝重连
  • 这是一种比较有竞争性的技术,递归神经网络有善于根据前后信息推测需要的数据,也可以因此判断心跳的异常与否
  • 网络心跳检测

    2012-10-20 06:16:04
    通过心跳检测网络健康安全性,相信介绍了心跳协议以及如何检测,对internet网络还有其他网络的健康监测有一定指导作用
  • TCP网络长连接 手机能够使用联网功能是因为手机底层实现了TCP/IP协议,可以使手机终端通过无线网络建立TCP连接。TCP协议可以对上层网络提供接口,使上层网络数据的传输建立在“无差别”的网络之上。 建立起一个TCP...
  • 主要介绍了JAVA实现长连接(含心跳检测Demo),文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需要的朋友们下面随着小编来一起学习学习吧
  • 网络 心跳

    千次阅读 2016-10-13 10:13:40
    网路断开掉线异常处理: HeartBeat 网络心跳包  一下是个人理解,网络心跳包的处理方式有两种“  方式一: 终端主动发起, 服务器记录各个终端最后一个包的时间点,然后定时扫描全部客户端,如果扫描时间点与上次收...
  • 大部分的Socket 框架/组件 不自带心跳包功能这个功能可以避免客户Duan意外情况的掉线导致服务端客户残留
  • keepalived实现心跳检测

    千次阅读 2020-06-28 15:00:42
    当主宕机了后,从会接过主的责任对外提供服务,当主复活后从又会将权限还给主,如图: keepalived主要功能 管理LVS负载均衡软件 实现LVS集群节点的健康检查 作为系统网络服务的高可用性(failover) 使用keepalived...
  • Oracle RAC集群三种心跳机制

    千次阅读 2020-09-18 15:52:04
    一:网络心跳       ocssd进程每秒钟通过集群的私网会向集群的其他节点发送网络心跳.       例如一个4节点的集群,集群的每一个节点每一秒钟都会向...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 92,542
精华内容 37,016
关键字:

心跳网络