精华内容
下载资源
问答
  • 启动Hadoop时出现如下信息,Hadoop无法正常启动。 原因分析 说明在启动Hadoop的时候已有Hadoop节点在运行,所以在启动之前你需要在重新启动hadoop之前要先stop掉所有的hadoop服务。 然后恢复正常启动。 ...

    问题描述

    在启动Hadoop时,出现如下信息,Hadoop无法正常启动。

    原因分析

    说明在启动Hadoop的时候已有Hadoop节点在运行,所以在启动之前你需要 在重新启动hadoop之前要先stop掉所有的hadoop服务。 然后恢复正常启动。

    解决

    执行stop-all.sh关掉Hadoop所有服务。然后重启Hadoop就OK了。

    展开全文
  • 刚刚接触hadoop,namenode格式化后,启动hadoop sudo sbin/start-dfs.sh 出现错误: hadoop@qiaoyu-Lenovo-G460:/usr/local/hadoop-2.4.1$ sudo sbin/start-dfs.sh [sudo] password for hadoop: Starting namenodes...
  • 问题描述在Ubuntu下启动hadoop的hdfs时出现:hadoop@ubuntu:~/hadoop-2.8.1$ sbin/start-dfs.sh Starting namenodes on [localhost] localhost: ssh: connect to host localhost port 22: Connection refused ...

    问题描述

    在Ubuntu下启动hadoop的hdfs时出现:

    hadoop@ubuntu:~/hadoop-2.8.1$ sbin/start-dfs.sh 
    Starting namenodes on [localhost]
    localhost: ssh: connect to host localhost port 22: Connection refused
    localhost: ssh: connect to host localhost port 22: Connection refused
    ...


    检查是否安装 openssh-server

    $ ps -e | grep ssh
    $

    没有出现任何进程,则用apt-get安装 openssh-server,出现以下提示:

    hadoop@ubuntu:~/hadoop-2.8.1$ sudo apt-get install openssh-server
    Reading package lists... Done
    Building dependency tree       
    Reading state information... Done
    Some packages could not be installed. This may mean that you have
    requested an impossible situation or if you are using the unstable
    distribution that some required packages have not yet been created
    or been moved out of Incoming.
    The following information may help to resolve the situation:
    
    The following packages have unmet dependencies:
     openssh-server : Depends: openssh-client (= 1:7.2p2-4)
                      Depends: openssh-sftp-server but it is not going to be installed
                      Recommends: ssh-import-id but it is not going to be installed
    E: Unable to correct problems, you have held broken packages.

    这里写图片描述

    手动安装 openssh-client

    根据提示,到 launchpad 下载:
    https://launchpad.net/ubuntu/+source/openssh/1:7.2p2-4/+build/9584683

    # 手动安装下载好的deb
    $ sudo dpkg -i openssh-client_7.2p2-4_amd64.deb

    这里写图片描述

    安装openssh-server

    # 安装openssh-server
    $ sudo apt-get install openssh-server

    这里写图片描述

    测试是否安装成功

    $ ssh localhost

    这里写图片描述

    展开全文
  • 背景:在装完hadoop及jdk之后,在执行start-all.sh的时候出现  root@localhost's password:localhost:permission denied,please try again  可是,我记得当时设置的密码是对的,无论怎么输都不对,并且url中...


    背景:在装完hadoop及jdk之后,在执行start-all.sh的时候出现

              root@localhost's password:localhost:permission denied,please try again
            可是,我记得当时设置的密码是对的,无论怎么输都不对,并且url中localhost:50030和localhost:50090是可以打开的,但是各种数据都为0。
    解决方法:在出现上述问题后,输入
               sudo passwd
           然后,会输入新的密码,设置之后,再重新格式化一下namenode,最后执行start-all.sh,OK。
           web上也有数据出现了。  


    转载自:http://blog.chinaunix.net/uid-28814766-id-3986780.html
    展开全文
  • Hadoop的时候,根据官方文档配置单节点的时候,在运行sh start-all.sh遇到出现问题: localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-root-datanode-fedora.out ...

    学Hadoop的时候,根据官方文档配置单节点的时候,在运行sh start-all.sh时遇到出现问题:


    localhost: starting datanode, logging to /usr/local/hadoop/bin/../logs/hadoop-root-datanode-fedora.out
    localhost: Unrecognized option: -jvm
    localhost: Could not create the Java virtual machine.

    在网上搜到很多 Could not create the Java virtual machine.都是说内存分配不够或者其他的问题,跟Hadoop相关的不多。搜了很多最后找到了这个问题的原因,首先说一下我安装过程。

    因为是本机,所以为了方便加上习惯性su开启root运行,故同样也用root来运行start-all.sh,于是上面问题出现了,到网上搜了,有人说改/hadoop/conf/hadoop-env.sh中的


    # The maximum amount of heap to use, in MB. Default is 1000.
    # export HADOOP_HEAPSIZE=2000

    把 HADOOP_HEAPSIZE的值设为一个更小的,当然这样说的人肯定是以为jvm不能启动是因为内存大小没满足1000的要求,内存不足使得 Could not create the Java virtual machine,看起来貌似有道理,但是怎么解释-jvm的问题呢?动手改改看,改过以后,无果,至少说明我遇到的不是这问题。继续搜,最后发现是在hadoop/bin/hadoop中有如下一段shell:

    1. CLASS='org.apache.hadoop.hdfs.server.datanode.DataNode'
    2. if [[ $EUID -eq 0 ]];
    3. then
    4. HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"
    5. else
    6. HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
    7. fi
    其中的
    1. if [[ $EUID -eq 0 ]]; then
    2. HADOOP_OPTS="$HADOOP_OPTS -jvm server $HADOOP_DATANODE_OPTS"


    如果 $EUID 为 0,什么意思呢?
    有效用户标识号(EUID):该标识号负责标识以什么用户身份来给新创建的进程赋所有权、检查文件的存取权限和检查通过系统调用kill向进程发送软 中断信号的许可权限。
    在root用户下echo $EUID,echo结果为 0
    ok,在root下会有-jvm选项添加上去,上面说的Unrecognized option: -jvm难道就是这里产生的。

    两个想法。一个想法是自己改了这shell代码,去掉里面的-jvm。另外一个想法是 既然这里要求 $EUID -eq 0,那别用$EUID不为0的(root用户)用户运行即可。果断试试,换上普通用户根据文档提示做。ok,成功。好奇的再试试第一个想法,其实暂时还是不太想动源码。但是这shell动动也没妨,果断去掉上面的-jvm,直接把上面的if else 结构直接去掉改为

    1. HADOOP_OPTS="$HADOOP_OPTS -server $HADOOP_DATANODE_OPTS"
    展开全文
  •   根据官方文档配置单节点的时候,在运行sh start-all.sh遇到出现问题: localhost: starting datanode, logging to /usr/local/h...
  • Windows下Hadoop启动出错

    千次阅读 2013-07-05 11:36:13
    好久接触Hadoop了,以前大都是虚拟机linux里面弄的,但最近电脑太卡了,所以只好在windows下用cygwin模拟linux环境来学hadoop。...今天在启动hadoop时出现了如下错误: localhost:/usr/bin/ssh.exe: error while loadi
  • hadoop datanode启动失败

    2015-12-16 21:16:00
    问题导读:1、Hadoop出现问题,该如何入手查看问题?2、datanode无法启动,我们该怎么解决?3、如何动态加入DataNode或TaskTracker? 一、问题描述当我多次格式化文件系统,如 root@localhost:/usr/...
  • localhost: Error: JAVA_HOME is not set. ...启动start-all.sh时出现如下错误: root@ubuntu:/home/chenwq/hadoop/hadoop-0.21.0/bin# start-all.sh This script is Deprecated. Instead use start-dfs.sh and sta
  • 启动Hadoop分布式环境时出现主节点的namenode、secondarynamenode启动成功,但是Worker节点datenode启动不成功。  hadoop@master$ ${HADOOP_HOME}/sbin/start.dfs.sh 查看Worker的输出日志,显示如下: [root@...
  • 摘要:该文档解决了多次格式化文件系统后,datanode无法启动的问题 ... root@localhost:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format  会出现datanode无法启动,查看日志,发现错误为:  2012-0
  • 摘要:该文档解决了多次格式化文件系统后,datanode无法启动的问题 ... root@localhost:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format  会出现datanode无法启动,查看日志,发现错误为:  201...
  • hadoop 2.6遇到的DataNode无法启动问题

    千次阅读 2018-07-28 21:51:27
    当我们多次格式化文件系统(hadoop namenode -format),会出现DataNode无法启动。 多次启动中发现有NameNode节点,并没有DataNode节点  如图所示:  二、查看问题 回头看启动过程    注意如下:  ...
  • 参考博客: 【问题一:主机名和域名配置文件问题及hadoop的配置文件etc/hadoop/core-site.xml导致hadoop彻底不能启动】 ...博客:在对HDFS格式化,执行hadoop namenode -format命令时出现未知的主
  • hadoop的安装

    2017-03-20 18:15:02
    Hadoop的安装根据之前 的BLOG介绍,在CYGWIN下安装Hadoop时出现了几个问题。 1)安装完格式化时提示找不...2)格式化完后启动Hadoop时,报错:tarting namenodes on [localhost : Name or service not knownstname loc
  • 摘要:该文档解决了多次格式化文件系统后,datanode无法启动的问题 ... root@localhost:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format  会出现datanode无法启动,查看日志,发现错误为:
  • Ubuntu下测试ssh使用ssh localhost 命令,出现错误提示connect to host localhost port 22:Connection refused   造成这个错误的原因可能是ssh-server未安装或者未启动。ubuntu 11.10 默认安装openssh-client,...
  • HADOOP之 Zookeeper客户端登录异常问题的处理 一 遇到的问题 1 建立好zookeeper 集群,分别为server1,server2,server3 ,在启动zookeeper 集群中一个节点的服务端后 ,直接启动当前节点 zkCli.sh (zookeeper客户端)的...
  • ubuntu ssh localhost 原因失败之一

    千次阅读 2018-07-02 20:36:09
    问题描述在Ubuntu下启动hadoop的hdfs时出现:hadoop@ubuntu:~/hadoop-2.8.1$ sbin/start-dfs.sh Starting namenodes on [localhost] localhost: ssh: connect to host localhost port 22: Connection refused lo...
  • root@localhost:/usr/local/hadoop-1.0.2# bin/hadoop namenode -format会出现datanode无法启动,查看日志,发现错误为: 2016-12-20 20:39:46,501 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: j
  • 3.4启动hadoop 先启动HDFS sbin/start-dfs.sh 再启动YARN sbin/start-yarn.sh 3.5验证是否启动成功 使用jps命令验证 27408 NameNode 28218 Jps 27643 SecondaryNameNode 28066 NodeManager 27803 ...
  • 安装hadoop和hbase之后不能启动datanode,同时浏览器也不能访问hbase,在浏览器中输入localhost:16010显示web页面无效,在hbase shell 下不能正常的使用hbase下面的shell命令,导致不能建表等问题。 2.分析原因 ...
  • Call to localhost/127.0.0.1:9000 failed on connection exception:java.net.ConnectException的解决方案 作者:凯鲁嘎吉 - 博客园... 在启动hadoop时出现了如下错误: Call From java.net.UnknownH...
  • localhost: Error: JAVA_HOME...启动start-all.sh时出现如下错误:root@ubuntu:/home/chenwq/hadoop/hadoop-0.21.0/bin# start-all.shThis script is Deprecated. Instead use start-dfs.sh and start-mapred.shstart...
  • User root is not allowed to ...使用HiveServer2 and Beeline模式运行启动好HiveServer后运行 beeline -u jdbc:hive2://localhost:10000 -n root 连接server 出现 java.lang.RuntimeException: o
  • localhost: Error: JAVA_HOME ...启动start-all.sh时出现如下错误:   root@ubuntu:/home/chenwq/hadoop/hadoop-0.21.0/bin# start-all.shThis script is Deprecated. Instead use start-dfs.sh and start-mapred...

空空如也

空空如也

1 2 3
收藏数 44
精华内容 17
热门标签
关键字:

启动hadoop时出现localhost