精华内容
下载资源
问答
  • hmaster启动后自动关闭

    千次阅读 2019-05-14 21:01:07
    regionserver.HRegionServerCommandLine: Region server exiting java.lang.RuntimeException: HRegionServer Aborted    ...zookeeper.ClientCnxn: ...HMaster已存在 http://www.codeclip.com/3691.html

    regionserver.HRegionServerCommandLine: Region server exiting
    java.lang.RuntimeException: HRegionServer Aborted 

     

    zookeeper.ClientCnxn: Session 0x0 for server null, unexpected error, closing socket connection and attempting reconnect
    java.net.ConnectException: Connection refused

    HDFS节点时间不一样!!!!一个时24h一个时12h,改为一样。

     

     

    HMaster已存在

    http://www.codeclip.com/3691.html

    展开全文
  • HMaster启动后自动关闭

    千次阅读 2015-10-04 08:52:02
    好久没有来写博客了,总算是忙完了,今天回到阔别已久的CU。一早来到单位,就开始着手调试新测试镜像。但是一启动就出了问题,... 直观的感觉是HMaster的问题,果然,JPS查看发现没有了HMaster进程,进入到hbase-mast
     好久没有来写博客了,总算是忙完了,今天回到阔别已久的CU。一早来到单位,就开始着手调试新测试镜像。但是一启动就出了问题,原先调试好的分布式平台却提示了错误:
         Zookeeper available but no active master location found
         直观的感觉是HMaster的问题,果然,JPS查看发现没有了HMaster进程,进入到hbase-master日志中查看,发现了以下错误提示:
         Could not obtain block: blk_number... ...file=/hbase/hbase.version
         
    无法访问数据块的原因无非有两个:一是该数据块不存在;二是该数据块没有权限。自己去HDFS下查看发现了/hbase目录,也有hbase.version文件,虽然该文件大小为0kb。于是自己首先想到是权限问题,接下来开始为/hbase修改权限:
         %hadoop fs -chmod 777 /hbase
         %hadoop fs -chmod -R 777 /hbase     (修改目录权限)
         但是试过之后结果依旧。这时自己确定HMaster自动关闭的问题不是因为目录权限拒绝访问,那么是什么呢?之前也发生过HMaster启动后自动关闭的问题,自己当时的解决办法是格式化namenode即可:
         %hadoop namenode -format
         但是这次试过之后仍旧不成功,于是自己考虑会不会是由于分布式环境下不同节点的hdfs的重复工作导致的不一致使得HMaster无法正常启动呢?抱着这样的想法删掉了各个节点和master上的hdfs数据,在master上重新启动hbase结果成功,HMaster不再自动关闭。
        这时我们需要重新复制生成HDFS干净的HDFS:
         %rm -Rf reports/data 
        %hadoop fs -copyFromLocal reports /texaspete/templates/reports

        %hadoop fs -put match/src/main/resources/regexes /texaspete/regexes


    小结:
         HMaster启动后自动关闭可能有多种原因,按照自己的经验,可以试着尝试以下方法:
    1. 重新格式化namenode,重启HMaster看问题是否依旧存在;
    2. 检查/hbase目录的hdfs权限设置是否有问题;
    3. 清楚各个节点上的hbase数据,然后重新启动hbase,自己猜测是各节点状态不一致导致的HMaster无法启动问题。
         当然,应该还会有其他的情况,随着学习的深入慢慢来积累总结吧!
    展开全文
  • 好久没有来写博客了,总算是忙完了,今天回到阔别已久的CU。一早来到单位,就开始着手调试新测试镜像。...直观的感觉是HMaster的问题,果然,JPS查看发现没有了HMaster进程,进入到hbase-master日志中查看,发现了以...

    好久没有来写博客了,总算是忙完了,今天回到阔别已久的CU。一早来到单位,就开始着手调试新测试镜像。但是一启动就出了问题,原先调试好的分布式平台却提示了错误:
    Zookeeper available but no active master location found
    直观的感觉是HMaster的问题,果然,JPS查看发现没有了HMaster进程,进入到hbase-master日志中查看,发现了以下错误提示:
    Could not obtain block: blk_number… …file=/hbase/hbase.version
    无法访问数据块的原因无非有两个:一是该数据块不存在;二是该数据块没有权限。自己去HDFS下查看发现了/hbase目录,也有hbase.version文件,虽然该文件大小为0kb。于是自己首先想到是权限问题,接下来开始为/hbase修改权限:

       %hadoop fs -chmod 777 /hbase
         %hadoop fs -chmod -R 777 /hbase     (修改目录权限)
     但是试过之后结果依旧。这时自己确定HMaster自动关闭的问题不是因为目录权限拒绝访问,那么是什么呢?之前也发生过HMaster启动后自动关闭的问题,自己当时的解决办法是格式化namenode即可:
     %hadoop namenode -format
     但是这次试过之后仍旧不成功,于是自己考虑会不会是由于分布式环境下不同节点的hdfs的重复工作导致的不一致使得HMaster无法正常启动呢?抱着这样的想法删掉了各个节点和master上的hdfs数据,在master上重新启动hbase结果成功,HMaster不再自动关闭。
    这时我们需要重新复制生成HDFS干净的HDFS:
     %rm -Rf reports/data
    %hadoop fs -copyFromLocal reports /texaspete/templates/reports
    %hadoop fs -put match/src/main/resources/regexes /texaspete/regexes
    

    小结:
    HMaster启动后自动关闭可能有多种原因,按照自己的经验,可以试着尝试以下方法:

    1. 重新格式化namenode,重启HMaster看问题是否依旧存在;
    2. 检查/hbase目录的hdfs权限设置是否有问题;
    3. 清楚各个节点上的hbase数据,然后重新启动hbase,自己猜测是各节点状态不一致导致的HMaster无法启动问题。
      当然,应该还会有其他的情况,随着学习的深入慢慢来积累总结吧!
    展开全文
  • 最近在学习hbase,按照教程配置好后,发现使用hbase-daemon.sh start master 启动后HMaster进程一会自动退出,查看日志如下: 2015-10-25 04:38:32,322 WARN org.apache.hadoop.hbase.zookeeper....
  • 最近在搭建hbase分布式环境中遇到的问题,出现这个问题我也去网上参考别人是怎么解决的,...解决了我的问题,话不多说,先上日志:2018-03-26 21:32:36,148 FATAL [master:hadoop0:60000] master.HMaster: Unhandle...

    最近在搭建hbase分布式环境中遇到的问题,出现这个问题我也去网上参考别人是怎么解决的,但是没有解决我的问题,我不断的去看日志为什么会出现这个,后来我发现日志不断提示异常,我就想是不是和这个有关系,尝试了一下,解决了我的问题,话不多说,先上日志:

    2018-03-26 21:32:36,148 FATAL [master:hadoop0:60000] master.HMaster: Unhandled exception. Starting shutdown.

    java.net.ConnectException: Call From hadoop0.com/192.168.10.250 to hadoop0.com:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see:  http://wiki.apache.org/hadoop/ConnectionRefused
            at sun.reflect.NativeConstructorAccessorImpl.newInstance0(Native Method)
            at sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstructorAccessorImpl.java:62)
            at sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingConstructorAccessorImpl.java:45)
            at java.lang.reflect.Constructor.newInstance(Constructor.java:423)
            at org.apache.hadoop.net.NetUtils.wrapWithMessage(NetUtils.java:783)
            at org.apache.hadoop.net.NetUtils.wrapException(NetUtils.java:730)
            at org.apache.hadoop.ipc.Client.call(Client.java:1415)
            at org.apache.hadoop.ipc.Client.call(Client.java:1364)
            at org.apache.hadoop.ipc.ProtobufRpcEngine$Invoker.invoke(ProtobufRpcEngine.java:206)
            at com.sun.proxy.$Proxy14.setSafeMode(Unknown Source)
            at org.apache.hadoop.hdfs.protocolPB.ClientNamenodeProtocolTranslatorPB.setSafeMode(ClientNamenodeProtocolTranslatorPB.java:639)
            at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
            at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
            at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
            at java.lang.reflect.Method.invoke(Method.java:498)
            at org.apache.hadoop.io.retry.RetryInvocationHandler.invokeMethod(RetryInvocationHandler.java:187)
            at org.apache.hadoop.io.retry.RetryInvocationHandler.invoke(RetryInvocationHandler.java:102)
            at com.sun.proxy.$Proxy15.setSafeMode(Unknown Source)
            at org.apache.hadoop.hdfs.DFSClient.setSafeMode(DFSClient.java:2364)
            at org.apache.hadoop.hdfs.DistributedFileSystem.setSafeMode(DistributedFileSystem.java:1007)
            at org.apache.hadoop.hdfs.DistributedFileSystem.setSafeMode(DistributedFileSystem.java:991)
            at org.apache.hadoop.hbase.util.FSUtils.isInSafeMode(FSUtils.java:446)
            at org.apache.hadoop.hbase.util.FSUtils.waitOnSafeMode(FSUtils.java:894)

    以上就是我在配置过程中出现的问题,我配置的是Hadoop HA。前提:hbase里的lib包必须和自己的hadoop的版本保持一致

    尝试过的方案:

    1、不断重启hadoop集群、hbase集群;

    2、删除zk、hadoop、hbase里的日志零时文件等;

    3、复制hadoop里的core-site.xml和hdfs-site.xml到hbase里conf中;

    4、复制zk里的zoo.cfg到hbase里conf中;

    以上都要重新启动,尝试过无效,

    后来看日志报的异常联想到自己是ha的配置,故想到hbase-site.xml中的

    <property >
    <name>hbase.rootdir</name>
    <value>hdfs://hadoop0.com:8020/hbase</value>

    </property>

    要和core-site.xml中的

    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://ns1</value>

    </property>

    需要保持一致,故做了如下的修改

    <property >
    <name>hbase.rootdir</name>
    <value>hdfs://ns1:8020/hbase</value>

    </property>

    启动hbase之后,发现启动正常了。

    希望大家看了之后指出不足指出,或者有疑问的地方,大家可以一起讨论,不要喷就好了!

    展开全文
  • 修改hbase.site.xml 修改hbase.rootdir的hdfs端口号。例如9000 转载于:https://www.cnblogs.com/yaoyu19960106/p/11110075.html
  • 在使用start-hbase.sh启动hbase,使用jps命令检查,发现HMaster启动了,检查启动日志也正常,但是过一会儿发现HMaster又自动关闭了,检查日志发现如下异常信息。网上找到很多,有说格式化namenode,还有说是...
  • hbase启动后HMaster自动关闭

    千次阅读 2019-08-06 20:47:27
    hbase启动后HMaster自动关闭 搭建好hbase后发现,HMaster启动后几秒内自动关闭,HRegionServer运行正常。 可能是你在 之前关闭虚拟机前 ,没有将虚拟机的进程一个一个的关闭,导致配置文件出错 方法将 将 指定...
  • hbase启动后HMaster进程自动关闭 1、情况描述如题所示,hbase启动以后,HMaster进程启动了,几秒钟以后自动关闭,但是HRegionServer进程正常运行; 原因是,hdfs的默认端口号是8020,而我core-site...
  • 是否启动集群模式</description> <name>hbase.tmp.dir <value>/root/hbase-1.2.4/tmp <name>hbase.master</name> #指定hbase集群主控节点 <value>master:60000 <name>hbase.zookeeper....
  • HBase启动后HMaster自动关闭

    千次阅读 2018-08-09 20:36:41
    在开启HBase集群之后,就出现了HMaster启动后几秒内自动关闭,HRegionServer运行正常。查看log日志发现这样的错误提示: java.net.ConnectException: Call From hadoop102/192.168.1.102 to hadoop102:8020 ...
  • hbase按照如下配置,搭建完成后执行start-dfs.sh、start-yarn.sh启动HDFS成功,但是执行start-hbase.sh后,HMaster和HRegionServer启动十几秒后自动关闭,master.log出现如下错误: [b]logs/hbase-root-master-...
  • ===========================================================================...ERROR [Thread-14] master.HMaster: Failed to become active master 2.进入hbase shell中进行数据库操作提示: KeeperErrorCode =...
  • 1、情况描述如题所示,hbase启动以后,HMaster进程启动了,几秒钟以后自动关闭,但是HRegionServer进程正常运行; 原因是,hdfs的默认端口号是8020,而我core-site.xml中将hdfs的端口修改为了9000。 core-site.xml...

空空如也

空空如也

1 2 3
收藏数 53
精华内容 21
关键字:

hmaster启动后自动关闭