精华内容
下载资源
问答
  • jps没有namenode

    2019-07-23 20:53:21
    时隔两个多月,继续学习hive的时候,发现start-all.sh后namenode没有启起来,查了一通,原因是每次开机都得重新格式化一下namenode才可以。需要改配置文件(以前用的好好的为啥要改…目前以我的水平还不是很理解),...

    时隔两个多月,继续学习hive的时候,发现start-all.sh后namenode没有启起来,查了一通,原因是每次开机都得重新格式化一下namenode才可以。需要改配置文件(以前用的好好的为啥要改…目前以我的水平还不是很理解),然后重新格式化。试了一下确实好使了,解决方法如下:
    修改Hadoop/conf目录里面的core-site.xml文件:

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://这里换成了我的主机名(原来是实例ID)/内网ip:9000</value>
        </property>
    </configuration>
    

    保存后执行:

    hadoop namenode -format
    

    如果以后对这部分了解透彻了再补充吧。先记录下

    展开全文
  • hadoop启动后jps没有namenode

    千次阅读 2015-06-17 23:28:09
    hadoop启动后jps没有namenode 一般都是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决: 1.删除DataNode的所有资料 2.修改每个DataNode的namespaceID(位于/home/hdfs/data/current/VERSION...

    hadoop启动后jps没有namenode

    一般都是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决:

    1.删除DataNode的所有资料

    2.修改每个DataNode的namespaceID(位于/home/hdfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位于/home/hdfs/name/current/VERSION文件中),

    目的是两者一致。

    但是查看后,两者的ID是一样的,

    于是查看/usr/local/hadoop/logs下的namenode日志文件,发现错误是java.io.FileNotFoundException: /home/hadoop/hdfs/name/current/VERSION (Permission denied)

    在网上搜索后,发现是/home/hadoop/hdfs/name/current/VERSION的权限问题,于是

    hadoop@master:/usr/local/hadoop/bin$ sudo chmod -R 777 /home/hadoop/hdfs

    再进行格式化:hadoop@master:/usr/local/hadoop/bin$ hadoop namenode -format

    启动:hadoop@master:/usr/local/hadoop/bin$ start-all.sh

    jps:hadoop@master:/usr/local/hadoop/bin$ jps
    6692 JobTracker
    6259 NameNode
    6601 SecondaryNameNode
    6810 Jps

    由于看到datanode和tasktracker还没有启动,就用了以下命令进行启动,但是发现确实已经启动了。

    jobtracker running as process 6692. Stop it first.
    192.168.1.3: tasktracker running as process 4959. Stop it first.
    192.168.1.4: tasktracker running as process 5042. Stop it first.
    hadoop@master:/usr/local/hadoop/bin$ jps
    6692 JobTracker
    6259 NameNode
    6601 SecondaryNameNode
    7391 Jps
    hadoop@master:/usr/local/hadoop/bin$ start-dfs.sh
    Warning: $HADOOP_HOME is deprecated.

    namenode running as process 6259. Stop it first.
    192.168.1.3: datanode running as process 4757. Stop it first.
    192.168.1.4: datanode running as process 4828. Stop it first.
    192.168.1.2: secondarynamenode running as process 6601. Stop it first.

    http://www.cnblogs.com/linjiqin/archive/2013/03/07/2948078.html

    从百度知道里看到这么一句话,

    提示都说了,不建议使用这个脚本,使用start-dfs.sh和start-mapred.sh来替代它。这说明脚本的作者或者维护人也觉得这个脚本可能有问题……
    你要是有兴趣也可以自己改改……

    展开全文
  • hadoop启动后jps没有namenode 一般都是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决: 1.删除DataNode的所有资料 2.修改每个DataNode的namespaceID(位于/home/hdfs/data/current/VERSION文件中)...

    hadoop启动后jps没有namenode

    一般都是由于两次或两次以上格式化NameNode造成的,有两种方法可以解决:

    1.删除DataNode的所有资料

    2.修改每个DataNode的namespaceID(位于/home/hdfs/data/current/VERSION文件中)或修改NameNode的namespaceID(位于/home/hdfs/name/current/VERSION文件中),

    目的是两者一致。

    但是查看后,两者的ID是一样的,

    于是查看/usr/local/hadoop/logs下的namenode日志文件,发现错误是java.io.FileNotFoundException: /home/hadoop/hdfs/name/current/VERSION (Permission denied)

     

    在网上搜索后,发现是/home/hadoop/hdfs/name/current/VERSION的权限问题,于是

    hadoop@master:/usr/local/hadoop/bin$ sudo chmod -R 777 /home/hadoop/hdfs

    再进行格式化:hadoop@master:/usr/local/hadoop/bin$ hadoop namenode -format

    启动:hadoop@master:/usr/local/hadoop/bin$ start-all.sh

    jps:hadoop@master:/usr/local/hadoop/bin$ jps
    6692 JobTracker
    6259 NameNode
    6601 SecondaryNameNode
    6810 Jps

    由于看到datanode和tasktracker还没有启动,就用了以下命令进行启动,但是发现确实已经启动了。

    jobtracker running as process 6692. Stop it first.
    192.168.1.3: tasktracker running as process 4959. Stop it first.
    192.168.1.4: tasktracker running as process 5042. Stop it first.
    hadoop@master:/usr/local/hadoop/bin$ jps
    6692 JobTracker
    6259 NameNode
    6601 SecondaryNameNode
    7391 Jps
    hadoop@master:/usr/local/hadoop/bin$ start-dfs.sh
    Warning: $HADOOP_HOME is deprecated.

    namenode running as process 6259. Stop it first.
    192.168.1.3: datanode running as process 4757. Stop it first.
    192.168.1.4: datanode running as process 4828. Stop it first.
    192.168.1.2: secondarynamenode running as process 6601. Stop it first.

    http://www.cnblogs.com/linjiqin/archive/2013/03/07/2948078.html

    从百度知道里看到这么一句话,

    提示都说了,不建议使用这个脚本,使用start-dfs.sh和start-mapred.sh来替代它。这说明脚本的作者或者维护人也觉得这个脚本可能有问题……
    你要是有兴趣也可以自己改改……
    展开全文
  • 在主节点机器上执行命令/opt/modules/app/hadoop-2.7.4/sbin/start-all.sh(相当于执行/opt/modules/app/hadoop-2.5.0/sbin/start-dfs.sh和/opt/modules/app/hadoop-2.5.0/sbin/...查看logs日志发现namenode没有格...

    在主节点机器上执行命令/opt/modules/app/hadoop-2.7.4/sbin/start-all.sh(相当于执行/opt/modules/app/hadoop-2.5.0/sbin/start-dfs.sh和/opt/modules/app/hadoop-2.5.0/sbin/start-yarn.sh)
    然后jps发现没有namenode,查看logs日志
    master jps 没有namenode问题
    发现namenode没有格式化
    master jps 没有namenode问题
    于是执行格式化namenode节点命令,注意每次格式化时一定要把原来NameNode和DataNode下的文件全部删除,不然会报错,NameNode和DataNode所在目录是在core-site.xml中hadoop.tmp.dir、dfs.namenode.name.dir、dfs.datanode.data.dir属性配置的。
    master jps 没有namenode问题
    master jps 没有namenode问题
    master jps 没有namenode问题
    /opt/modules/app/hadoop-2.7.4/sbin/start-all.sh
    master jps 没有namenode问题
    然后查看tmp目录下有没有新建文件(我的namenode重新格式化了好几次才出现新文件),如图
    master jps 没有namenode问题
    master jps 没有namenode问题
    。。。从前车马很慢,书信很远,一生只够爱一个人!

    转载于:https://blog.51cto.com/13670314/2160425

    展开全文
  • jps没有namenode和SecondaryNameNode

    千次阅读 2020-05-07 14:34:19
    重新配置core-site.xml [hadoop@hadoop102 ~]$ cd /opt/module/hadoop-2.7.2/etc/hadoop/ [hadoop@hadoop102 hadoop]$ vi core-site.xml ...-- 指定HDFS中NameNode的地址 --> <property> <na...
  • 关于Hadoop启动之后jps没有namenode节点的解决方法

    万次阅读 多人点赞 2019-11-01 09:52:16
    发现ip地址对应上了,那我们运行一下jps,发现没有192.168.100.201这个节点下并没有namenode 这时候我运行停止所有命令,发现Hadoop01节点没有namenode可以停止 我怀疑问题出在了我多次格式化导致namenode启动不了...
  • hadoop伪分布式,在配置好环境后,jps启动只有五个进程,少了namenode节点,并且没有tmp文件夹。查了一圈原因可能是多次格式化hadoop namenode -format,所以参照了一些教程,修改了sudo nano core-site.xml为 <...
  • hadoop集群启动后,jps 发现没有namenode。 网上查了下,这问题可能是由于两次或两次以上格式化NameNode造成的。 因为我的是刚刚新搭建的集群,里面没什么资料,所以我直接删除各个节点上的目录,然后重新格式化...
  • https://blog.csdn.net/qq_32641659/article/details/87894610
  • 这是因为多次格式化namenode节点出现的问题 1、先运行stop-all.sh 2、删除原目录,即core-site.xml下配置的<name>hadoop.tmp.dir</name>所指向的目录,重新建立配置的空目录格式化namdenode,hadoop ...
  • 我发现没有9000端口被占用,也不知道9000到哪去了,但是也没有NameNode,于是,直接把NameNode格式化了,再重启HDFS即可。 格式化命令: 转载于:https://www.cnblogs.com/mm20/p/10375700.html...
  • 配置HADOOP的时候,输入jps没有namenode出现,其他的都有 我在输入start-dfs.sh之后,出现下图 ![图片说明](https://img-ask.csdn.net/upload/201708/22/1503409611_645641.jpg) 然后我在输入hadoop namnode -format...
  • 重新格式化Namenode:hadoop namenode -format 然后启动hadoop:start-all.sh 执行下JPS命令就可以看到NameNode了 转载于:https://www.cnblogs.com/datascientist/p/3436650.html...
  • 如果是少namenode则是因为没有对HDFS格式化。执行命令:hadoop namenode -format 并按照相关提示进行格式化。 如果是少datanode则可能是因为对HDFS进行了多次格式化,造成clusterID不一致。因为每次格式化,...
  • 我是因为虚拟机宕机后自动重启导致二号虚拟机jps失去secondary namenode和datenode进程,我首先调整所有虚拟机时间保持一致,暂停stop-dfs.sh,根据hadoop的配置文件coresite.xml删除此目录 需要在namenode和...
  • 格式化NameNode 注意:格式化NameNode,会产生新的集群id,导致NameNode和DataNode的集群id不一致,集群找不到以往的数据。如果集群在运行的过程中报错,需要重新格式化NameNode的话,一定要先停止namenode和...
  • jps的时候没有发现namenode 在stop-all.sh 的时候 ,出现 No namenode to stop 二:寻找解决方法 1.博客的寻找 2.在脚本中发现了一个关键的地方 [hadoop@hadoop001 sbin]$ cat hadoop-daemon.sh ,,,, ...
  • 在部署单节点分布式的时候,访问9000端口成功出现页面,可是当我再学习hdfs的时候,需要对core-site.xml在的配置进行修改,但是修改后出现了一些问题,如运行jps出现的节点中namenode就不见了,网页也自然访问不了。...
  • jps命令没有namenode或datanode, 怎么解决?

    千次阅读 多人点赞 2019-11-26 11:22:35
    (3)格式化namenode之前,没有删除data里的数据和logs日志,造成导致NameNode和DataNode的集群id不一致的情况。 2、解决方法(一定要按顺序操作) (1)停止hadoop集群 stop-all.sh (2) 删除data数据和logs日志...
  • hadoop jps namenode进程没有启动

    千次阅读 2019-04-02 22:37:11
    2019-04-02 22:07:27,024 WARN org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Encountered exception loading fsimage java.io.IOException: There appears to be a gap in the edit log...
  • Hadoop 执行jps没有namenode和datanode

    千次阅读 2013-03-13 14:30:55
    问题出在哪里不是很清楚,不过貌似是由于每次start后,关机之前没有运行stop的缘故造成的。下面的方法应该有用:   1、先运行stop-all.sh 2、格式化namdenode, 不过在这之前要先删除原目录 ,即core-site...
  • jps后发现namenode 没有启动

    千次阅读 2017-09-29 17:45:43
    2017-09-29 12:44:51,880 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed. java.lang.NumberFormatException: For input string: "7*24*60" at java.l
  • 输入jps显示不出namenode和datanode,只要jps 你要做的就是: 1.打开节点的日志文件查看 打开logs 然后日志末尾显示如下: 2018-08-05 13:24:26,408 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 25,892
精华内容 10,356
关键字:

jps没有namenode