精华内容
下载资源
问答
  • Hadoop伪分布式部署文档(包括服务器伪分布式部署,本地hadoop开发环境部署,eclipse远程连接Hadoop服务器,实测无数遍,综合网上无数文档)
  • eclipce(mar) 连接 HDFS 1.配置Windows环境API 1.1windows上部署hadoop包 部署包 Hadoop-2.6.5 源码包 hadoop-2.6.5-src lib整合包 hadoop-lib(前两个的jar包整合) 1.2 windows配置环境变量 配置 HADOOP_HOME ...

    1.配置Windows环境API

    1.1Windows上部署Hadoop包

    部署包 Hadoop-2.6.5

    源码包 hadoop-2.6.5-src

    lib整合包 hadoop-lib(前两个的jar包整合)

    1.2 windows配置环境变量

    配置 HADOOP_HOME 路径 指定到API包 D:\hadoop\usr\hadoop-2.6.5

    把%HADOOP_HOME%\bin追加到PATH,分号隔开(LINUX 是冒号隔开)

    配置HADOOP_USER_NAME 值为 root (执行Hadoop集群的用户就是root,所以必须配,或者在Windows本地用户和组里添加root用户)

    1.3 eclipse插件

    安装插件 把hadoop 插件jar包扔到eclipse的plugins里

    覆盖bin目录(之前的目录只适用于linux)

    配置 吧hadoop.dll 文件扔到 Windows/System32

    2.启动集群

    2.1 启动zookeeper

    # zkServer.sh start
    

    2.2 主节点启动hadoop集群

    已经配好Hadoop的sbin环境变量

    # start-dfs.sh
    

    启动完成后查看一下active的主节点是哪个
    在这里插入图片描述

    3.操作eclipse

    3.1创建新项目

    3.1.1 创建hdfs location

    (1) Window -> show view ->other -> map reduce -> map/reduce location(黄色的大象)

    (2)创建蓝色大象标志的Location (New Hadoop location)
    修改 host 和 port (host是Active port是网页界面显示的端口号(就是hadoop配置文件自己修改的),对应的HDFS Location会出现蓝色大象标志)
    参考上图 host 是active的主节点 port 是相应的端口号(节点之间访问的端口)

    3.1.2 导入hadoop包

    ​ 导入apache的hadoop包(环境共享的方式)

    ​ window ->preferences->Java->build path->User Libraries

    ​ 点击new … hadoop01_jars(不要打勾)

    ​ 点击add external jars lib里的jar包全选中

    ​ 右键项目 build path (build path意思就是把文件扔到项目部署的可执行目录之下 相应的目录会出现)

    ​ 点击add library… 选中 user library 选中 hadoop01_jars

    ​ 点击add library 选中 junit4
    成功后的图片如下
    在这里插入图片描述

    3.2 上传hadoop配置文件

    3.2.1 打开xftp

    ​ 把 /opt/sxt/hadoop-2.6.5/etc/hadoop里的 core-site.xml 和hdfs-site.xml 拖拽到src目录下

    4. junit测试

    3.1 hdfs中创建文件夹

    1 @Before用于初始化

    创建配置文件对象

    创建客户端操作hdfs文件系统对象 传入配置文件对象

    2 @Test测试单元中

    创建Path 对象 (hdfs中创建文件夹的路径)

    文件系统对象调用mkdirs()方法 (fs.mkdirs(path) (传入路径))

    3 @After

    关闭文件系统流

    package com.shsxt.hdfs.test01;
    
    import java.io.IOException;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.junit.After;
    import org.junit.Before;
    import org.junit.Test;
    
    public class TestHDFS {
    		//配置文件对象
    		Configuration conf =null;
    		//来完成客户端的操作集群的对象
    		FileSystem fs = null;
    		
    		//Before 相当于静态块 用来初始化
    		@Before
    		//集群的连接步骤
    		public void conn() throws IOException{
    			conf = new Configuration();
    			fs = FileSystem.get(conf);
    		}
    		
    		//只需要执行Test测试单元,before自动执行
    		@Test
    		public void mkdir() throws IOException{
    			Path path = new Path("/mytemp11");
    			if(fs.exists(path)){
    				fs.delete(path, true);
    			}
    			fs.mkdirs(path);
    		}
    		
    		@After
    		public void close() throws IOException{
    			fs.close();
    		}
    }
    

    3.2 客户端文件写入到hdfs中

    在上面代码的基础上加入一个@Test测试单元 导入相应的IO流包

    1 创建path对象 指定写入到hdfs中的文件路径

    2 通过fs执行create方法 获取输出流对象(hadoop)

    3 new 缓冲输入流对象,指定读取文件的目录

    4 hadoop包 里面的工具类 执行静态方法 (输入流,输出流,配置文件,关闭流)

    		@Test
    		public void upLoadFile() throws IOException{
                //创建path对象 指定写入到hafs中的文件路径
    			Path path = new Path("/mytemp11/haha.txt");
                //通过fs执行create方法 获取输出流对象(hadoop)
    			FSDataOutputStream fsdos = fs.create(path);
                //new 缓冲输入流对象,指定读取文件的目录
    			InputStream is = new BufferedInputStream(new FileInputStream("D:/hadoop/06text/text.txt"));
                //hadoop包 里面的工具类 执行静态方法 (输入流,输出流,配置文件,关闭流)
    			IOUtils.copyBytes(is, fsdos, conf, true)
    			}
    

    3.3 读取hdfs文件和对应块的信息

    新创建一个@Test测试单元,导入相应的hadoop包.

    有时我们不知道最初怎么创建对象,调用方法时,可以逆推来写。

    3.3.1 获取块的信息

    1 逆推,先通过FileSystem的fs对象调用getFileBlockLocation(FileStatus file , start , len);参数需要FileStatus file ,偏移量位置和长度file,getLen(). 需要一个FileStatus对象,就逆推创建一个FIleStatus类型的对象。

    2 还用fs调用获取有返回值是FileStatus的getFIleStatus(path)方法,从而用FileStatus file 接收,同时需要传入一个path对象。

    3 创建一个Path 对象,指定存储在hdfs中的文件路径。

    4 getFileBlockLocation方法返回的是一个BlockLocation类型的数组,里面存储的每一个元素对应每一个块的信息。分别是偏移量,块的大小,副本对应的节点位置。

    5 遍历数组 里面重写了toString方法,可以直接打印。

    浏览器查看块的信息
    在这里插入图片描述

    代码实现获取块的信息 代码附后
    在这里插入图片描述

    3.3.2 读取hdfs文件

    1 通过fs.open(path) 获取输入流对象fsdis,传入path,指定hdfs文件路径

    2 fsdis.read()读取文件,直接打印。

    @Test
    		public void readFile() throws IOException{
    			//存储在hdfs中的文件路径
    			Path path = new Path("/user/root/text1.txt");
    			//得到一个FileStatus对象
    			FileStatus file = fs.getFileStatus(path);
    			//获取 文件块信息的方法 返回一个数组,数组里面的每个元素是BlockLocation类型,对应每一个快里面存储了块的偏移量,块的大小,副本的位置节点。 
    			BlockLocation[] bls = fs.getFileBlockLocations(file, 0, file.getLen());
    			//遍历数组(里面重写了toString方法)
    			for (BlockLocation bl : bls) {
    				System.out.println(bl);
    			}
    			//获取输入流
    			FSDataInputStream fsdis = fs.open(path);
    			for (int i = 0; i <1000; i++) {
    				System.out.print((char)fsdis.read());				
    			}
    		}
    		
    
    展开全文
  • 1、下载hadoop,配置到本地环境变量中,路径中最好不要有空格或下划线 环境变量: 2、修改项目的pom.xml &amp;lt;dependency&amp;gt; &amp;lt;groupId&amp;gt;org.apache....

    自己研究大数据一年多了,虽然技术上有很多提高,但是有个问题就是一直没法使用本地联调集群,每次都是写完打包放到集群执行。最近发现可以本地直接连接远程联调,大大提高了开发效率,分享一下。

    1、下载hadoop,配置到本地环境变量中,路径中最好不要有空格或下划线
    环境变量:
    Snipaste_2018-11-07_09-59-20.png-26.4kB

    2、修改项目的pom.xml

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-core</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    <dependency>
        <groupId>commons-cli</groupId>
        <artifactId>commons-cli</artifactId>
        <version>1.3.1</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>${hadoop.version}</version>
    </dependency>
    

    3、把集群中core-site.xml和hdfs-site.xml两个文件拿下来,放到项目中resources目录下

    4、设置Intellij idea中运行变量:
    Snipaste_2018-11-07_10-01-54.png-71.2kB
    这里的working directory设置为hadoop的安装地址。至于上面的Program arguments,这是设置运行时传递的参数,可以传值,直接编写到程序中也可以。
    这个地方遇到了坑,网上都是设置的单机IP地址加端口,比如hdfs://192.168.xx.xx:9000/...这种样式的,我也一直测试但都是报不能连接9000端口。还一直以为自己哪里配错了。但是后来想明白了,既然是连接操作hdfs,那应该是8020端口,换了之后果然连通了。**如果这里用的是IP地址加端口,那resources中core-site.xml中也要使用同样的。**我这里使用的是集群名称的方式,resources中core-site.xml中也要使用同样的方式。如果两个不一样,会报错误。不建议使用IP的方式,假如配置使用的IP在启动的时候是standby角色的namenode,执行的时候会报不能写的错误,所以最好是使用hdfs://集群服务名这种方式。

    5、这个时候执行会报错:Unable to load native-hadoop library for your platform… using builtin-Java classes where applicable,需要下载hadoop.dll,然后替换掉本地hadoop中bin目录下的文件。至于winutils.exe,我是没有替换也能正常执行,可换可不换。
    下载地址:

    https://download.csdn.net/download/a_bang/10769552

    6、执行继续报错
    org.apache.hadoop.security.AccessControlException: Permission denied: user=ZhOu, access=WRITE, inode="/app":root:supergroup:drwxr-xr-x,很明显是用户权限问题,网上找了一下,有很多解决方案,有兴趣的可以研究研究。这里提供一个简单的方案,就是不校验权限:修改hdfs-site.xml,本地和集群都要修改,然后集群还要重启namenode。

    <property>
        <name>dfs.permissions.enabled</name>
        <value>false</value>
    </property>
    

    7、做到这里,就可以正常执行了。不需要每次打包放到线上执行了。Spark项目也是一样的做法,只是把working directory设置为spark的安装路径即可。

    展开全文
  • IDEA远程连接Hadoop

    2019-04-11 15:20:00
    IDEA远程连接Hadoop Win 1.Hadoop配置 下载并配置到本地环境 HADOOP_HOME D:\Tools\hadoop-2.7.7\hadoop-2.7.7 HADOOP_PREFIX D:\Tools\hadoop-2.7.7\hadoop-2.7.7 PATH += %HADOOP_HOME%\bin 2.Maven pom.xml <...

    IDEA远程连接Hadoop

    Win

    1.Hadoop配置

    下载并配置到本地环境

    HADOOP_HOME D:\Tools\hadoop-2.7.7\hadoop-2.7.7
    HADOOP_PREFIX   D:\Tools\hadoop-2.7.7\hadoop-2.7.7
    PATH += %HADOOP_HOME%\bin

    2.Maven pom.xml

    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common</artifactId>
        <version>2.7.7</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-hdfs</artifactId>
        <version>2.7.7</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-core</artifactId>
        <version>2.7.7</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-jobclient</artifactId>
        <version>2.7.7</version>
    </dependency>
    <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-mapreduce-client-common</artifactId>
        <version>2.7.7</version>
    </dependency>

    3.core-site.xml

    hadoop集群里的core-site.xml文件拿下来,放到resource目录下(记在etc/hosts里的名字记得换成ip地址)

    4.替换

    windows下开发的可执行文件肥肠重要,就是\(HADOOP_HOME\)/bin下的windows可执行文件或者dll,下载下来的覆盖掉bin下的目录下即可

    (hadoop.dll winutils.exe winutils.pdb......balabala)(版本版本!!!)

    5.码代码

    String filePath = "hdfs://172.18.145.167//user//zwj//wordCountTest.txt";
    Configuration conf = new Configuration();
    FileSystem fs = FileSystem.get(URI.create(filePath),conf);
    InputStream in = null;
    try
    {
        in = fs.open(new Path(filePath));
        IOUtils.copyBytes(in,System.out,4096,false);
    }finally {
        IOUtils.closeStream(in);
    }

    完全ojbk

    问题

    1.org.apache.hadoop.hdfs.BlckMissingException

    子节点datanode崩了,去log里找问题

    2.Exception in thread "main" java.lang.UnsatisfiedLinkError:...nativeIO$Wi.....

    win下可执行文件版本不对

    3.hadoop Permission denied : USER=ZWJ,access=WRITE......

    windows系统的用户名和ubuntu上的用户名不一致,炸

    hadoop fs -chmod 777 filePath(filePath下文件所有者、群组用户、其他用户均可读可写可执行OTZ)

    转载于:https://www.cnblogs.com/tillnight1996/p/10689922.html

    展开全文
  • 1 拷贝集群hosts主机目录及ip至window系统hosts文件中;2 创建maven工程,pom文件添加:&...org.apache.hadoop&lt;/groupId&gt;  &lt;artifactId&gt;hadoop-client&lt;/artifact...

    1 拷贝集群hosts主机目录及ip至window系统hosts文件中;

    2 创建maven工程,pom文件添加:

    <dependencies>

        <dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-client</artifactId>
        <version>2.7.1</version>

    </dependency>

    </dependencies>

    3 下载远程集群core-site.xml,mapred-site.xml客户端配置文件,配置文件放到工程资源目录下;


    3 修改core-site.xml文件中fs.defaultFS属性的值namenode地址,例如hdfs://host213.ehl.com;注释掉io.compression.codec.lzo.class及io.compression.codecs这两个属性;

    4 创建hadoop-remote.xml文件并放到资源目录,文件内容如下:

    <?xml version="1.0" encoding="UTF-8"?>
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>host211.ehl.com</value><!--修改RM节点名称-->
        </property>
        <property>
            <name>mapreduce.app-submission.cross-platform</name>
            <value>true</value>
        </property>
        <property>
            <name>mapreduce.jobhistory.address</name>
            <value>host212.ehl.com:10020</value><!--修改jobhistory服务地址-->
        </property>

    </configuration>

    5 编写map及reduce类,main方法示例代码如下:

    public static void main(String[] args) throws Exception {
    //连接hdfs集群,url为namenode地址

    FileSystem fileSystem = FileSystem.get(new URI("hdfs://host213.ehl.com"), new Configuration(), "hdfs");

    Path out = new Path("/sort/output");

                    //删除输出目录

    fileSystem.deleteOnExit(out);

                    Path localJarPath = new Path("file:///D:/sort.jar");

    Path jarPath = new Path("/sort/sort.jar");

                    //将本工程打的jar包上传至hdfs集群

    fileSystem.copyFromLocalFile(false, true, new Path[]{localJarPath}, jarPath);
    fileSystem.close();

    Configuration configuration = new Configuration();

                    //添加相关配置文件

    configuration.addResource("core-site.xml");
    configuration.addResource("mapred-site.xml");

    configuration.addResource("hadoop-remote.xml");

                    //因本hadoop集群通过hdp平台搭建,所以配置文件中含有hdp.version属性

    configuration.set("hdp.version", "2.3.4.0-3485");


    Job job = Job.getInstance(configuration,"remoteSub");

                    //将上传至集群的jar包添加至job的classpath

    job.addFileToClassPath(jarPath);

    FileInputFormat.addInputPath(job, new Path("/sort/input"));
    FileOutputFormat.setOutputPath(job, out);

    job.setJarByClass(SortMain.class);
    job.setMapperClass(SortMapper.class);
    job.setReducerClass(SortReducer.class);

    job.setMapOutputKeyClass(Text.class);
    job.setMapOutputValueClass(NullWritable.class);
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(NullWritable.class);


    job.setNumReduceTasks(4);
    job.setPartitionerClass(SortPartition.class);

    System.exit(job.waitForCompletion(true) ? 0 : 1);

    }

    6 将本工程通过eclipse打成jar包,放到main方法中localJarPath指定的地址上;

    7 main方法中右击选择Run As -> Run Configurations...


    切换至Environment标签,添加环境变量HADOOP_USER_NAME,值为hadoop集群用户名,本例为hdfs;

    8 点击Run,通过RM的web地址查看任务是否提交,如下为本例eclipse控制台部分相关输出:

    运行成功了!!!!!!

    展开全文
  • eclipse 连接hadoop

    2019-02-28 09:55:30
    window上做客户端应用开发,需要设置以下环境: A、在windows的某个目录下解压一个hadoop的安装包 B、将安装包下的lib和bin目录用对应windows版本平台编译的本地库替换 C、在window系统中配置HADOOP_HOME指向你解压...
  • 在window本地使用java远程连接hadoop,执行hdfs写入命令 曝出以下错误 这需要为windows下安装hadoop,并且为hadoop配置环境变量 为HADOOP_HOME指定你的hadoop目录所在位置,为你的path添加hadoop的bin目录就行了 ...
  • Eclipse远程连接Hadoop

    千次阅读 2017-03-12 16:00:14
    先说下我自己laptop没有hadoop环境(虚拟机中有伪分布式,不过是为了熟悉hadoop啦),也没有像网上那样用cygwin,主要得益于实验室服务器上师兄之前...所以这里是记录:本机eclipse远程连接hadoop集群,使用hadoop2x-
  • 本地操作系统:windows 8.1MyEclipse 10远程的服务器上已经配好hadoop2.6(详见我的上一篇博客hadoop的配置点击打开链接)插件:hadoop-eclipse-plugin-2.6.0.jar(下载地址点击打开链接) 二、配置 1、把下载好的...
  • 使用eclipse配置windows本地hadoop环境,使用的是hadoop-2.8.5第1步:解压hadoo压缩在windows下解压缩hadoop压缩包(和Linux下的hadoop版本相同)第2步:配置eclipse将hadoop-eclipse-plugin-2.8.5.jar放入eclipse...
  • 原以为搭建一个本地编程测试hadoop程序的环境很简单,没想到还是做得焦头烂额,在此分享步骤和遇到的问题,希望大家顺利. ...本地myeclipse及myeclipse连接hadoop的插件  3.本地hadoop(我用的是hadoo...
  • eclipse远程连接hadoop进行开发测试 马克飞象 由于搭建hadoop环境在仿真系统,在本地远程连接hdfs和提交mapreduce的job任务精力了曲折,现整理如下: hadoop环境 :hadoop2.5.2 jdk1.7 eclipse_luno hadoop_...
  • 远程连接hadoop 开发

    2018-12-01 18:10:44
    转发:...   一 开发环境 本地win10系统 Intellij idea14工具 虚拟机中hadoop2.6.0伪分布模式 二配置步骤(这里笨小葱参考的这篇文章:http://www.cnblogs.com/yjmyzz/p/how-to-remote-debug...
  • 本例环境: 操作系统:CentOS-7-x86_64-DVD-1908 JDK版本:jdk-8u251-linux-x64 Hadoop版本:hadoop-2.9.2 远程连接工具:SecureCRT 8.0 官网地址:https://hadoop.apache.org/ 官网文档地址:...
  • 我使用XShell的主要目的是在Windows环境下登录Linux终端进行编码,非常方便。本文简单介绍下它的使用方法。 1.下载后在安装时选择个人/学校免费版即可。 2.安装完毕后先在要连接的Ubuntu主机下开启SSH服务,如果...
  • 本地Hadoop安装部署 将winutils.exe拷贝到windows下hadoop的bin目录 将hadoop.dll与winutils.exe拷贝到目录C:\Windows\System32 下 设置环境变量HADOOP_HOME为.../hadoop2.XXX/ 打开eclipse/idea导入jar包...
  • 整理一下以前的思路,自用 将Hadoop包解压到本地硬盘中 添加环境变量HADOOP_HOME 追加path变量 ...Windows下缺少winutils.exe和hadoop.dll文件前往GitHub下载对应Hadoop版本的...至此可以连接Hadoop下面是配置mapre
  • 在此处指的Hadoop开发主要是指MapReduce方面,通过Hadoop的Eclipse插件及在Eclipse中配置,就可以达到在本地连接远程服务器进行MapReduce的开发、运行。 2. 准备 Ø Hadoop下载 在搭建之前,必须先下载一个...
  • win7下idea远程连接hadoop,运行wordCount

    千次阅读 2017-08-22 17:17:40
    1.将hadoop-2.6.1.tar.gz解压到本地 配置环境变量 HADOOP_HOME  E:\kaifa\hadoop-2.6.1\hadoop-2.6.1 HADOOP_BIN_PATH %HADOOP_HOME%\bin HADOOP_PREFIX %HADOOP_HOME% 配置path E:\kaifa\jdk...
  • 如果你安装的hadoop版本是:3.1.2或者3.2.0 就用winutils-master里面的hadoop-3.0.0配置环境变量吧! 第二步:配置环境变量1,新建系统变量2,编辑path变量 第三步:重启idea或者eclipse,如果还是报错,请重启电脑...
  • 纠结了一会才弄出来这个问题,最开始是编写了mapreduce,想测试呢,就打包成jar 扔到虚拟机上,又不能断点来搞,所以在本地搞了一下远程执行mr。 环境: windows7 Hadoop2.6 idea 在idea中创建maven项目,然后...
  • 首先我先说一下我搭建环境的最终目的, 我是想本地运行MR, 本地调试, 不提交给yarn, 直接本地跑MR, 连接的是远程的Hbase集群, 结果也会保存到远程Hbase 注: 我说的是在我的电脑调试成功的方法, 每个人的问题原因都...
  • 本地环境:win7 32位,嗯,机子够烂,eclipse4.4.1  Hadoop服务器:centos 64位,hadoop-2.3.0-cdh5.1.3  现在很多人依然是在windows上开发的,毕竟生活离不开很多有趣的软件,人性化
  • 已搭建好完全分布式集群,并已经成功启动Hadoop,...1.把服务器端的Hadoop安装文件下载到本地 下载位置都可以,本人的路径是:/Users/qixing/fsdownload/hadoop-2.7.7 2.配置Hadoop环境变量 因为本人之前是用W
  • 准备工作 已在虚拟机上配置了hadoop hadoop2.6.0软件包 hadoopbin工具 ...HADOOP_HOME=你windows本地hadoop文件夹路径 找到Path,点击编辑 添加: %HADOOP_HOME%\bin %HADOOP_HOME%\sbin 导入hadoopbin
  • Intellij连接远程hadoop

    千次阅读 2016-08-04 15:36:55
    环境:服务器:CentOS6.6  ...前期准备:需要在windows平台下载hadoop-2.7.2的bin包,并且解压到本地目录,我的是在E:\hadoop-2.7.2\hadoop-2.7.2,具体如下: 1、在intellij中创建一个maven project flie-
  • pc机连接hadoop集群必须的文件,把它放到本地,然后配置到环境变量中,才能在本地操作集群。

空空如也

空空如也

1 2 3 4 5 ... 11
收藏数 201
精华内容 80
关键字:

本地环境连接hadoop