精华内容
下载资源
问答
  • Hadoop单机模式配置

    2017-12-05 14:14:31
    1.在ubuntu下创建hadoop用户,并添加到系统用户: (命令如下) sudo addgroup hadoop sudo adduser --ingroup hadoop hadoop 2.给新添加的账户hadoop添加权限:打开/etc/sudoers文件,在root ALL=(ALL:ALL) ...
    1.在ubuntu下创建hadoop用户,并添加到系统用户:
    
    (命令如下) sudo addgroup hadoop
    sudo adduser --ingroup hadoop hadoop


    2.给新添加的账户hadoop添加权限:打开/etc/sudoers文件,在root ALL=(ALL:ALL)  ALL下添加hadoop  ALL=(ALL:ALL)  ALL


    3.配置java环境以及环境变量的配置。这里就不多说了。


    4.SSH安装
    :安装ssh时先切换到hadoop用户。
    (命令如下) su - hadoop
    sudo apt-get install openssh-server


    5.安装完毕后启动ssh服务(在hadoop用户下)
    (命令如下) sudo /etc/init.d/ssh start
    查看是否正确启动:ps -e |grep ssh


    6.生成私钥和公钥:(命令) ssh-keygen -t rsa


    注:回车后会在~/.ssh/下生成两个文件:id_rsa和id_rsa.pub这两个文件是成对出现的前者为私钥,后者为公钥)
    进入~/.ssh/目录下,将公钥id_rsa.pub追加到authorized_keys授权文件中,开始是没有authorized_keys文件的(authorized_keys 用于保存所有允许以当前用户身份登录到ssh客户端用户的公钥内容
    ):
    hadoop@ubuntu:~$ cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys


    7.使用命令exit可以进行退出


    8.编辑系统目录下/etc/hosts文件,将127.0.0.1 改为自己的ip


    9.安装hadoop-2.7.3

       将压缩文件解压到/usr/local下面  (命令):sudo tar -xzf hadoop…….gz
       重命名文件名为hadoop   (命令):sudo mv hadoop-2.7.3 hadoop  
       要确保所有的操作都是在用户hadoop下完成的,所以将该hadoop文件夹的属主用户设为hadoop。(命令):hadoop@ruizg:/usr/local$sudo chown –R hadoop:hadoop hadoop 
       配置hadoop-env.sh文件(hadoop-env.sh文件在hadoop/etc/hadoop路径下面)(命令):hadoop@ruizg:/usr/local$ sudo vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh 
       在hadoop-env.sh中export JAVA_HOME后面添加以下信息(JAVA_HOME路径改为实际路径):
    export JAVA_HOME=/home/ruizg/software/java/jdk1.7.0_80  
    export HADOOP_INSTALL=/usr/local/hadoop  
    export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin  
    export HADOOP_MAPRED_HOME=$HADOOP_INSTALL  
    export HADOOP_COMMON_HOME=$HADOOP_INSTALL  
    export YARN_HOME=$HADOOP_INSTALL  
    hadoop@ruizg:/usr/local/hadoop/etc/hadoop$source hadoop-env.sh  (保存生效)


     
       再到/etc/profile中添加HADOOP_INSTALL并修改PATH,结果为
    export JAVA_HOME=/home/ruizg/software/java/jdk1.7.0_80  
    export JRE_HOME=/home/ruizg/software/java/jdk1.7.0_80/jre  
    export HADOOP_INSTALL=/usr/local/hadoop  
    export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib  
    exportPATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_INSTALL/bin:$HADOOP_INSTALL/sbin 






    10.保存后重启机器。
    切换到hadoop用户,
    运行命令  hadoop@ruizg:/usr/local/hadoop$ hadoop version  


    如果看到如下hadoop版本信息则表示hadoop单机模式安装成功
    [plain] view plain copy  在CODE上查看代码片派生到我的代码片
    hadoop@ruizg:/usr/local/hadoop$ hadoop version  
    Hadoop 2.7.3  
    Subversion https://git-wip-us.apache.org/repos/asf/hadoop.git -r15ecc87ccf4a0228f35af08fc56de536e6ce657a  
    Compiled by jenkins on 2015-06-29T06:04Z  
    Compiled with protoc 2.5.0  
    From source with checksum fc0a1a23fc1868e4d5ee7fa2b28a58a  
    This command was run using/usr/local/hadoop/share/hadoop/common/hadoop-common-2.7.3.jar  


    ------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------


    11.安装成功后我们来运行一下Hadoop自带的例子wordcount。一个MapReduce框架用来统计文章单词出现次数的功能。首先在hadoop下新建input目录。命令如下:hadoop@ruizg:/usr/local/hadoop$ sudo mkdir input


    12.将etc中的所有文件拷贝到input目录中。

    命令如下: hadoop@ruizg:/usr/local/hadoop$ cp -r etc/* input


    13.运行wordcount程序,并将结果保存到output注意:这边不同版本的hadoop有所区别(有的mapreduce下没有bin目录,此时就要如下命令操作,反正就是随机应变,主要看那个例子的jar在那个目录下);还有注意取数据的路径为/usr/local/hadoop/input/hadoop
    命令如下:hadoop@ruizg:/usr/local/hadoop/share/hadoop/mapreduce$ hadoop jar hadoop-mapreduce-examples-2.7.3.jar wordcount /usr/local/hadoop/input/hadoop output
    这是,命令行会冒出一大堆乱七八糟的东西


    14.运行如下命令可以查看上面运行例子的结果(文件中所有的单词和频数都被统计出来了)
    hadoop@ruizg:/usr/local/hadoop$cat output/*






    这边单机配置的hadoop就已经完成!!!!!!!!!!!

























    展开全文
  • 一、配置java环境 1、 在这里插入代码片

    一、前言

    配置环境:阿里云服务器Centos

    hadoop版本:2.6.5

    博客亲测有效,配置过程中借鉴了一些文章,文后会给出链接,侵删,希望能帮到大家,谢谢~

    二、配置java环境

    1、查看是否安装JDK:

    java -version
    

    出现下图提示则未安装JDK
    在这里插入图片描述
    2、在root用户下,查看可安装的JDK版本:

    yum search java-1.7
    

    在这里插入图片描述
    3、安装JDK,我选择下面这个:

    yum -y install java-1.7.0-openjdk-devel.x86_64 
    

    出现Complete!如下图,则安装成功
    在这里插入图片描述
    要记住红框框起来的文件夹名称,后面需要用该文件夹所在的路径作为JAVA_HOME

    4、找到JDK的目录,确认是否正确安装:

    cd /usr/lib/jvm/
    

    在这里插入图片描述
    通过 ls 指令查看文件夹内容,可以看到在JVM文件夹下面有多个JDK版本,通过已安装成功的提示信息里面的JDK版本,找到我们刚安装的版本文件夹。
    在这里插入图片描述
    cd进入版本文件夹,cd进入文件夹下的lib目录,ls查看文件夹的内容

    在这里插入图片描述
    如上图所示,lib目录下存在上图红框文件则表示安装无误

    5、配置环境变量:

    返回上层JDK文件夹,通过pwd指令获取JDK的安装路径

    在这里插入图片描述
    红框路径即为JAVA_HOME路径

    JAVA_HOME路径:  /usr/lib/jvm/java-1.7.0-openjdk-1.7.0.141-2.6.10.1.el7_3.x86_64
    

    编辑环境变量文件

    vim /etc/profile
    

    在这里插入图片描述
    修改环境变量文件,将环境变量中的JAVA_HOME路径修改为刚获取的JAVA_HOME路径后保存退出
    在这里插入图片描述
    红框为替换后的JAVA_HOME路径,注意!是第一个JAVA_HOME,请不要弄错

    6、让环境变量立即生效:

    输入命令让环境变量立即生效

    source /etc/profile
    

    7、检查环境变量是否配置成功:

    输入命令

    javac
    

    如下图所示则配置成功
    在这里插入图片描述

    若提示,“bash: javac: 未找到命令…”,则说明配置失败,检查环境变量的路径是否正确,之前的步骤是否正确,反复尝试下

    成功配置及重启后,可通过

    java -version
    

    查看版本
    在这里插入图片描述

    三、创建hadoop账号

    1、使用root账号登录,通过useradd增加用户:

    useradd -m hadoop -s /bin/bash # 创建新用户Hadoop
    

    在这里插入图片描述
    2、给hadoop新用户设置密码:

    passwd hadoop
    

    在这里插入图片描述
    3、给hadoop用户增加管理员权限:

    输入指令

    visudo
    

    在这里插入图片描述
    找到root ALL=(ALL)ALL这一行,一般在98行附近,然后在这一行下面增加指令:

    hadoop ALL=(ALL) ALL #当中的间隔为tab
    

    保存退出
    在这里插入图片描述
    4、切换hadoop用户:

    su hadoop
    

    四、配置SSH无密码登录

    1、检查自己服务器上是否已经安装好SSH client、SSH serve:

    执行以下指令进行检查:

    rpm -qa | grep ssh
    

    如下图所示则不需要安装
    在这里插入图片描述
    如果需要安装,则可以通过yum进行安装

    sudo yum –y install openssh-clients
    sudo yum –y install openssh-server
    

    2、测试SSH是否可用:

    ssh localhost
    

    此时会有如下提示(SSH首次登陆提示),输入 yes 。然后按提示输入hadoop用户的登录密码,这样就实现登录到hadoop用户了
    在这里插入图片描述
    上述的登陆是需要每次输入密码的,但我们的需求是配置成SSH无密码登陆后会比较方便

    3、配置SSH无密码登录:

    输入exit 回到原先的终端命令窗口,然后先后执行以下指令:

    1、cd ~/.ssh/ 							#若没有该目录,请先执行一次ssh localhost
    2、ssh-keygen -t rsa 					#会有提示,都按回车就可以
    3、cat id_rsa.pub >> authorized_keys 	#加入授权
    4、chmod 600 ./authorized_keys 			#修改文件权限
    

    五、安装配置hadoop单机版

    1、下载hadoop2:

    也可以下载hadoop3,但是我为了稳定,所以下载hadoop2

    通过该网址下载:http://mirror.bit.edu.cn/apache/hadoop/common/在这里插入图片描述
    点击红框的那个,进入下图
    在这里插入图片描述
    点击红框标记的下载

    下载完成后,上传至hadoop用户上(你也可以通过命令在hadoop用户直接下载hadoop2,而无需我这么复杂,下载再上传,具体命令另行百度)
    在这里插入图片描述
    2、安装hadoop2:

    通过pwd查看hadoop的路径
    在这里插入图片描述
    我选择将hadoop安装至/usr/local/中:

    sudo tar -zxf /下载目录/hadoop-2.6.5.tar.gz -C /usr/local # 解压
    
    

    在这里插入图片描述
    解压成功后,进入/usr/local/查看

    cd /usr/local/
    

    在这里插入图片描述
    可以看到,出现了hadoop-2.6.5目录,为了方便,将其修改为hadoop

    sudo mv ./hadoop-2.6.5/ ./hadoop  
    

    在这里插入图片描述
    修改文件权限

    sudo chown -R hadoop:hadoop ./hadoop 
    

    在这里插入图片描述
    Hadoop 解压后即可使用。依次输入如下命令来检查 hadoop 是否可用,成功则会显示 Hadoop 版本信息:

    cd /usr/local/hadoop #去到hadoop目录
    
    ./bin/hadoop version #检查hadoop是否可以
    

    在这里插入图片描述
    3、进行单机版配置及测试:

    Hadoop 默认模式为非分布式模式,不需要进行其他任何配置即可运行。非分布式即单 Java 进程,方便进行调试。

    运行以下指令:

    ./bin/hadoop jar ./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar
    

    可以看到所有例子,包括wordcount、terasort、join、grep等
    在这里插入图片描述
    为了测试,我们选择运行一个 grep 例子(查找),将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。

    cd到hadoop目录下

    cd /usr/local/hadoop
    

    新建一个input文件夹

    mkdir ./input/
    

    在这里插入图片描述
    将配置文件作为输入文件

    cp ./etc/hadoop/*.xml ./input 
    

    筛选当中符合正则表达式 dfs[a-z.]+ 的单词并统计出现的次数,并输出到output文件夹

    ./bin/hadoop jar ./share/hadoop/mapreduce/hadoopmapreduce-examples-*.jar grep ./input ./output 'dfs[a-z.]+'
    

    在这里插入图片描述
    查看output中的运行结果

    cat ./output/*
    

    在这里插入图片描述
    出现结果则hadoop单机版就配置成功了!祝贺你!

    若出现提示 “INFO metrics.MetricsUtil: Unable to obtain hostName java.net.UnknowHostException”,这需要执行如下命令修改 hosts文件,为你的主机名增加IP映射:

    sudo vim /etc/hosts
    

    在这里插入图片描述
    保存文件后,重新运行 hadoop 实例

    注意! Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将./output删除:

    rm -r ./output
    

    总结:hadoop单机版配置不是特别困难,只要按照步骤一步步来就可以搭建成功了,即使不成功也不要气馁,慢慢来,加油!

    参考文章:
    1、https://blog.csdn.net/x541211190/article/details/74786393

    展开全文
  • 目录配置环境1.安装ssh2.安装jdk3.安装Hadoop4.使用MapReduce 配置环境 CentOS7 Hadoop-3.2.2 1.安装ssh yum -y install openssh-server 验证ssh是否是免密登录 需要输入密码,所以我们要配置ssh免密登录,...

    配置环境

    CentOS7

    Hadoop-3.2.2


    1.安装ssh

    yum -y install openssh-server
    

    验证ssh是否是免密登录
    在这里插入图片描述

    需要输入密码,所以我们要配置ssh免密登录,输入命令:

    ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
    
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
    chmod 0600 ~/.ssh/authorized_keys
    

    验证ssh是否是免密登录
    在这里插入图片描述
    不输入密码成功登录

    别忘了退出
    在这里插入图片描述

    2.安装jdk

    # 解压
    tar -zxvf jdk-8u281-linux-x64.tar.gz -C /usr/local/
    # 重命名
    mv /usr/local/jdk1.8.0_281/ /usr/local/jdk
    # 配置环境变量
    vim /etc/profile
    

    添加如下内容

    export JAVA_HOME=/usr/local/jdk
    export CLASSPATH=$:CLASSPATH:$JAVA_HOME/lib/
    export PATH=$PATH:$JAVA_HOME/bin
    

    在这里插入图片描述

    # 使配置文件生效
    source /etc/profile
    # 验证
    java -version
    

    在这里插入图片描述


    3.安装Hadoop

    wget https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz
    

    解压

    tar -zxvf hadoop-3.2.2.tar.gz -C /usr/local/
    

    重命名

    mv /usr/local/hadoop-3.2.2/ /usr/local/hadoop
    

    配置Hadoop环境变量

    vim /etc/profile
    

    添加如下配置:

    export HADOOP_HOME=/usr/local/hadoop
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    使配置文件生效

    source /etc/profile
    

    验证

    hadoop version
    

    在这里插入图片描述


    4.使用MapReduce

    Hadoop安装成功之后,我们可以运行一个mapreduce案例来统计一个文件中每个单词出现的数量

    cd /usr/local/hadoop/share/hadoop/mapreduce/
    # 创建要统计的文件
    vim data.txt
    

    文件内容
    在这里插入图片描述

    执行命令,统计每个单词出现的次数

    hadoop jar hadoop-mapreduce-examples-3.2.2.jar wordcount data.txt output
    

    在这里插入图片描述
    在这里插入图片描述

    进入输出文件夹

    cd output/
    

    在这里插入图片描述


    查看统计结果

    vim part-r-00000 
    

    在这里插入图片描述

    展开全文
  • Hadoop单机模式

    千次阅读 2019-05-20 20:40:33
    Hadoop单机模式的部署与搭建 准备 Centos 7 64位操作系统(运行于VM虚拟机上) Hadoop开源文件 JDK(java的核心JDK) 开始部署与搭建Hadoop 1.VM虚拟机上打开centos 7(64位) 2.将下载好的hadoop压缩文件从...

    Hadoop单机模式的部署与搭建

    准备

    Centos 7 64位操作系统(运行于VM虚拟机上)https://mp.csdn.net/mdeditor/88190423#
    Hadoop-2.5.1开源文件 http://hadoop.apache.org/
    JDK(java的核心JDK,jdk-8u201-windows-x64) https://www.oracle.com/technetwork/java/javase/downloads/index.html

    开始部署与搭建Hadoop

    1.VM虚拟机上打开centos 7(64位)
    在这里插入图片描述

    2.将下载好的hadoop压缩文件从windows移动到centos的桌面,并解压

    在这里插入图片描述
    3.将Hadoop解压后的文件移动到用户目录HOME下。
    在这里插入图片描述
    4.配置hadoop的环境变量,打开命令行界面,vim打开/etc/profile文件,写入如下配置变量,wq退出保存!
    在这里插入图片描述
    5.可以选择重启虚拟机永久生效坏境变量,也可以命令行输入 source /etc/profile在当前命令行窗口暂时生效
    在这里插入图片描述
    6.下一步,命令行输入hadoop,回车,检查是否出现java_home错误提示,若出现,环境变量配置成功,若出现command not found,就重新再来一遍
    在这里插入图片描述
    7.配置java JDK环境,查看linux是否安装了jdk,输入java -version,可以看到linux已经默认安装了jdk(若无jdk,第八步可跳过)
    在这里插入图片描述
    8.输入命令 rpm -e --nodeps rpm -qa | grep java 删除linux默认安装的jdk,并再次查看,jdk已全部删除
    在这里插入图片描述
    9.创建文件夹目录
    在这里插入图片描述
    10.移动jdk压缩包 jdk-8u201-linux-x64.tar.gz到centos的桌面
    在这里插入图片描述
    11.通过命令行来到桌面,解压 jdk-8u201-linux-x64.tar.gz到桌面
    在这里插入图片描述
    12.将桌面jdk jdk-8u201-linux-x64.tar.gz解压文件jdk1.8.0_201移动到/usr/java/jdk下
    在这里插入图片描述
    13.vim打开/etc/profile文件,配置jdk环境变量
    在这里插入图片描述
    14.配置完成后,wq保存退出,可以选择重启虚拟机永久生效坏境变量,也可以命令行输入 source /etc/profile在当前命令行窗口暂时生效

    在这里插入图片描述
    15.输入java -version查看jdk安装情况,如图所示,jdk安装完成
    在这里插入图片描述
    16.再次输入hadoop,看到如下结果,表示hadoop安装配置完成
    在这里插入图片描述

    展开全文
  • hadoop单机模式配置

    2014-07-17 10:56:57
    Hadoop单机模式调试很方便,现将配置过程作一描述: 环境准备: JAVA环境要调试安装正常,可以在命令行执行java -version 查看结果,能正常显示版本即可。 java环境变量配置示例如下:   export JAVA_HOME=/...
  • 对于hadoop0.20.2的单机模式安装就需要在一个节点(一台主机)上运行5个节点。 分别是: JobTracker:负责Hadoop的Job任务分发和管理。 TaskTracker:负责在单个节点上执行MapReduce任务。 对于Hadoop里面的HDFS的...
  • centos7 hadoop 单机模式安装配置

    万次阅读 2018-05-07 22:31:48
    由于现在要用spark,而学习spark会和hdfs和hive打交道,之前在公司服务器配的分布式集群,离开公司之后,自己就不能用了,后来用ambari搭的三台虚拟机的集群太卡了,所以就上网查了一下hadoop+hive的单机部署,以便...
  • hadoop安装启动配置单机模式

    万次阅读 2018-07-06 17:51:38
    前面这些准备好了过后,就开始配置hadoophadoop目录我就取个名字方便写HADOOP_PATH(这个就是你自己的hadoop目录)1、先按照这个命令执行下: $ mkdir input $ cp etc/hadoop/*.xml input $ bin/hadoop...
  • Hadoop模式分为以下四类,本文介绍单机部署的方式 1、本地模式: 本地模式就是解压源码包,不需要做任何的配置。通常用于开发调试,或者感受hadoop。 2、伪分布模式: 在学习当中一般都是使用这种模式,伪分布...
  • PS:全程以root的角色进行配置安装 本篇文章的前期准备工作可以看我之前的博客链接: 以root用户身份登录:http://blog.csdn.net/henni_719/article/details/77715021 关于文件夹共享:...
  • Hadoop单机模式 1.环境准备 0.安装jdk(自行安装) 1.配置hadoop环境变量 2.修改hadoop-env.sh 2.运行官方提供的简单案例 1.grep案例 2.wordcount案例 Hadoop单机模式 1.环境准备 0.安装jdk(自行...
  • hadoop单机配置

    2021-07-27 09:18:44
    单机模式:默认情况下运行为一个单独机器上的独立Java进程,主要用于调试环境 伪分布模式:在单个机器上模拟成分布式多节点环境,每一个Hadoop守护进程都作为一个独立的Java进程运行 完全分布式模式:真实的生产环境...
  • 一.Hadoop Hadoop是一个由Apache基金会所开发的分布式系统基础架构。 用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。 Hadoop实现了一个分布式文件系统(Hadoop ...
  • Linux配置Hadoop单机模式 一、准备工作 一台装有CentOS 7 的虚拟机并且要能远程连接 JDK和Hadoop的安装包 两个软件 Xshell 和Xftp(或filezilla) 1.首先,将JDK和Hadoop的安装包通过Xftp传入虚拟机 当然也...
  • hadoop单机与伪分布配置。 Python跑wordcount程序的问题记录。 详情: https://saruagithub.github.io/2020/04/06/20200406hadoop%E9%85%8D%E7%BD%AE/
  • Hadoop单机模式的搭建 JunLeon——go big or go home 前言:Hadoop集群有三种运行模式,即单机模式,伪分布模式、分布式模式。 单机模式:只有一个JVM进程数,只运行在一台机器上(作测试用); 伪分布模式:...
  • 6 ,单机hadoop配置 : vim core-site.xml : <!-- 主节点 NameNode 的 url --> <name>fs.defaultFS <value>hdfs://node01:8020 <!-- 临时数据保存路径 --> <name>hadoop.tmp.dir ...
  • 安装Java环境和搭建Hadoop单机模式环境 实验环境 VMware® Workstation 15 Pro、Ubuntu 16.04系统 实验步骤 启动Linux系统 打开VMware,启动虚拟机,输入系统密码。修改主机名。 (1)在桌面右键,打开终端。 (2)...
  • Mac下Hadoop单机模式安装

    千次阅读 2019-01-28 11:49:06
    一、安装Hadoop 1、配置ssh 配置ssh就是为了能够实现免密登录,这样方便远程管理Hadoop并无需登录密码在Hadoop集群上共享文件资源。 如果机子没有配置ssh的话,在命令终端输入ssh localhost是需要输入你的电脑登录...
  • Centos7下Hadoop2.7.7单机模式安装配置

    千次阅读 2019-09-07 15:04:20
    Centos7下安装配置JDK 创建一个用户hadoop,当然也可以使用root用户操作。(我的是使用root操作) 可以创建一个linux用户叫hadoop作为Hadoop的工作者,因为root下是很危险的。 sudo useradd -m hadoop -s /bin/bash #...
  • 单机模式Hadoop的默认模式。这种模式在一台单机上运行,没有分布式文件系统,而是直接读写本地操作系统的文件系统。当首次解压Hadoop的源码包时,Hadoop无法了解硬件安装环境,便保守地选择了最小配置。在这种默认...
  • hadoop单机模式部署

    2019-05-01 23:33:53
    hadoop单机模式部署 1、下载hadoop安装包 wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.2.0/hadoop-3.2.0.tar.gz 2、解压安装包 tar zxvf hadoop-3.2.0.tar.gz 3、配置hadoop的环境变量 用vi /etc/...
  • SecureCRT里面的操作 一、基本操作 1.关闭防火墙 firewall-cmd --state 显示防火墙状态running/not running systemctl stop firewalld 临时关闭防火墙...2.把下载在Windows里的JDK和HADOOP压缩包传输到虚拟机中 Secu...
  • 在SecureCRT里面完成 一、基本操作 1.关闭防火墙 firewall-cmd --state 显示防火墙状态running/not running systemctl stop firewalld 临时关闭防火墙,...把下载在Windows里的JDK和HADOOP压缩包传输到虚拟机中 Se...
  • Hadoop单机模式中Hive安装配置

    千次阅读 2016-09-29 17:49:59
    本文主要是演示在Hadoop单机模式中Hive默认(嵌入式derby 模式)安装配置过程,目录结构如下: 基础环境Hive安装配置启动及演示 [一]、基础环境 Mac OSX 10.9.1Java 1.6+ Hadoop 2.2.0 (安装配置详见: ...
  • hadoop单机模式安装流程 这里的安装是在Linux系统上安装的 参考博客 : https://blog.csdn.net/cafebar123/article/details/73500014 https://blog.csdn.net/bingduanl...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 18,614
精华内容 7,445
关键字:

hadoop单机模式配置