精华内容
下载资源
问答
  • Hive安装

    千次阅读 2020-08-19 01:53:48
    1、 Hive安装地址 2、 MySql安装 2.1 安装包准备 2.2 安装MySql 2.3 配置MySql 3、Hive安装部署 4 、Hive元数据配置到MySql 4.1 拷贝驱动 4.2 配置Metastore到MySql 5、 启动Hive 5.1 初始化元数据库 5.2...

    目录

     

    1、 Hive安装地址

    2、 MySql安装

    2.1 安装包准备

    2.2 安装MySql

    2.3 配置MySql

    3、Hive安装部署

    4 、Hive元数据配置到MySql

    4.1 拷贝驱动

    4.2 配置Metastore到MySql

    5、 启动Hive

    5.1 初始化元数据库

    5.2 启动metastore和hiveserver2

    5.3 HiveJDBC访问

    6、 Hive常用交互命令

    7、 Hive其他命令操作

    8、 Hive常见属性配置

    8.1 Hive运行日志信息配置

    8.2 参数配置方式


    1、 Hive安装地址

    1Hive官网地址

    http://hive.apache.org/

    2文档查看地址

    https://cwiki.apache.org/confluence/display/Hive/GettingStarted

    3下载地址

    http://archive.apache.org/dist/hive/

    4github地址

    https://github.com/apache/hive

    2、 MySql安装

    2.1 安装包准备

    1)卸载自带的Mysql-libs(如果之前安装过mysql,要全都卸载掉)

    [Mark@hadoop102 software]$ rpm -qa | grep -i -E mysql\|mariadb | xargs -n1 sudo rpm -e --nodeps

    2)将安装包和JDBC驱动上传到/opt/software,共计6

    01_mysql-community-common-5.7.29-1.el7.x86_64.rpm
    02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm
    03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm
    04_mysql-community-client-5.7.29-1.el7.x86_64.rpm
    05_mysql-community-server-5.7.29-1.el7.x86_64.rpm
    mysql-connector-java-5.1.48.jar

    2.2 安装MySql

    1安装mysql依赖

    [Mark@hadoop102 software]$ sudo rpm -ivh 01_mysql-community-common-5.7.29-1.el7.x86_64.rpm
    [Mark@hadoop102 software]$ sudo rpm -ivh 02_mysql-community-libs-5.7.29-1.el7.x86_64.rpm
    [Mark@hadoop102 software]$ sudo rpm -ivh 03_mysql-community-libs-compat-5.7.29-1.el7.x86_64.rpm

    2安装mysql-client

    [Mark@hadoop102 software]$ sudo rpm -ivh 04_mysql-community-client-5.7.29-1.el7.x86_64.rpm

    3安装mysql-server

    [Mark@hadoop102 software]$ sudo rpm -ivh 05_mysql-community-server-5.7.29-1.el7.x86_64.rpm

    4启动mysql

    [Mark@hadoop102 software]$ sudo systemctl start mysqld

    5查看mysql密码

    [Mark@hadoop102 software]$ sudo cat /var/log/mysqld.log | grep password

    2.3 配置MySql

    配置只要是root用户+密码,在任何主机上都能登录MySQL数据库。

    1)用刚刚查到的密码进入mysql(如果报错,给密码加单引号)

    [Mark@hadoop102 software]$ mysql -uroot -p’password’

    2)设置复杂密码(由于mysql密码策略,此密码必须足够复杂)

    mysql> set password=password("Qs23=zs32");

    3)更改mysql密码策略

    mysql> set global validate_password_length=4;
    mysql> set global validate_password_policy=0;

    4设置简单好记的密码

    mysql> set password=password("000000");

    5进入msyql

    mysql> use mysql

    6查询user

    mysql> select user, host from user;

    7修改userHost表内容修改为%

    mysql> update user set host="%" where user="root";

    8刷新

    mysql> flush privileges;

    9退出

    mysql> quit;

    3、Hive安装部署

    1)把apache-hive-3.1.2-bin.tar.gz上传到linux的/opt/software目录下

    2)解压apache-hive-3.1.2-bin.tar.gz到/opt/module/目录下面

    [Mark@hadoop102 software]$ tar -zxvf /opt/software/apache-hive-3.1.2-bin.tar.gz -C /opt/module/

    3修改apache-hive-3.1.2-bin.tar.gz的名称为hive

    [Mark@hadoop102 software]$ mv /opt/module/apache-hive-3.1.2-bin/ /opt/module/hive

    4修改/etc/profile.d/my_env.sh添加环境变量

    [Mark@hadoop102 software]$ sudo vim /etc/profile.d/my_env.sh

    5添加内容

    #HIVE_HOME
    export HIVE_HOME=/opt/module/hive
    export PATH=$PATH:$HIVE_HOME/bin

    重启Xshell对话框使环境变量生效

    6)解决日志Jar包冲突

    [Mark@hadoop102 software]$ mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.bak

    4 、Hive元数据配置到MySql

    4.1 拷贝驱动

    将MySQL的JDBC驱动拷贝到Hive的lib目录下

    [Mark@hadoop102 software]$ cp /opt/software/mysql-connector-java-5.1.48.jar $HIVE_HOME/lib

    4.2 配置Metastore到MySql

    在$HIVE_HOME/conf目录下新建hive-site.xml文件

    [Mark@hadoop102 software]$ vim $HIVE_HOME/conf/hive-site.xml

    添加如下内容

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
    
        <property>
            <name>javax.jdo.option.ConnectionURL</name>
            <value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
        </property>
    
        <property>
            <name>javax.jdo.option.ConnectionDriverName</name>
            <value>com.mysql.jdbc.Driver</value>
        </property>
    
        <property>
            <name>javax.jdo.option.ConnectionUserName</name>
            <value>root</value>
        </property>
    
        <property>
            <name>javax.jdo.option.ConnectionPassword</name>
            <value>000000</value>
    
        </property>
    
        <property>
            <name>hive.metastore.warehouse.dir</name>
            <value>/user/hive/warehouse</value>
        </property>
    
        <property>
            <name>hive.metastore.schema.verification</name>
            <value>false</value>
        </property>
    
        <property>
            <name>hive.metastore.uris</name>
            <value>thrift://hadoop102:9083</value>
        </property>
    
        <property>
            <name>hive.server2.thrift.port</name>
            <value>10000</value>
        </property>
    
        <property>
            <name>hive.server2.thrift.bind.host</name>
            <value>hadoop102</value>
        </property>
    
        <property>
            <name>hive.metastore.event.db.notification.api.auth</name>
            <value>false</value>
        </property>
    
        <property>
            <name>hive.server2.active.passive.ha.enable</name>
            <value>true</value>
        </property>
    
        <property>
            <name>hive.cli.print.header</name>
            <value>true</value>
        </property>
    
        <property>
           <name>hive.cli.print.current.db</name>
            <value>true</value>
        </property>
    
    </configuration>

    5、 启动Hive

    5.1 初始化元数据库

    1)登陆MySQL

    [Mark@hadoop102 software]$ mysql -uroot -p000000

    2)新建Hive元数据库

    mysql> create database metastore;
    mysql> quit;

    3)初始化Hive元数据库

    [Mark@hadoop102 software]$ schematool -initSchema -dbType mysql -verbose

    5.2 启动metastore和hiveserver2

    1Hive 2.x以上版本要先启动这两个服务否则会报错

    FAILED: HiveException java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

    2)编写hive服务启动脚本

    [Mark@hadoop102 software]$ vim $HIVE_HOME/bin/hiveservices.sh

    内容如下:

    #!/bin/bash
    HIVE_LOG_DIR=$HIVE_HOME/logs
    mkdir -p $HIVE_LOG_DIR
    #检查进程是否运行正常,参数1为进程名,参数2为进程端口
    function check_process()
    {
        pid=$(ps -ef 2>/dev/null | grep -v grep | grep -i $1 | awk '{print $2}')
        ppid=$(netstat -nltp 2>/dev/null | grep $2 | awk '{print $7}' | cut -d '/' -f 1)
        echo $pid
        [[ "$pid" =~ "$ppid" ]] && [ "$ppid" ] && return 0 || return 1
    }
    
    function hive_start()
    {
        metapid=$(check_process HiveMetastore 9083)
        cmd="nohup hive --service metastore >$HIVE_LOG_DIR/metastore.log 2>&1 &"
        cmd=$cmd" sleep 4; hdfs dfsadmin -safemode wait >/dev/null 2>&1"
        [ -z "$metapid" ] && eval $cmd || echo "Metastroe服务已启动"
        server2pid=$(check_process HiveServer2 10000)
        cmd="nohup hive --service hiveserver2 >$HIVE_LOG_DIR/hiveServer2.log 2>&1 &"
        [ -z "$server2pid" ] && eval $cmd || echo "HiveServer2服务已启动"
    }
    
    function hive_stop()
    {
        metapid=$(check_process HiveMetastore 9083)
        [ "$metapid" ] && kill $metapid || echo "Metastore服务未启动"
        server2pid=$(check_process HiveServer2 10000)
        [ "$server2pid" ] && kill $server2pid || echo "HiveServer2服务未启动"
    }
    
    case $1 in
    "start")
        hive_start
        ;;
    "stop")
        hive_stop
        ;;
    "restart")
        hive_stop
        sleep 2
        hive_start
        ;;
    "status")
        check_process HiveMetastore 9083 >/dev/null && echo "Metastore服务运行正常" || echo "Metastore服务运行异常"
       check_process HiveServer2 10000 >/dev/null && echo "HiveServer2服务运行正常" || echo "HiveServer2服务运行异常"
       ;;
    
    *)
        echo Invalid Args!
        echo 'Usage: '$(basename $0)' start|stop|restart|status'
        ;;
    esac

    3)添加执行权限

    [Mark@hadoop102 software]$ chmod +x $HIVE_HOME/bin/hiveservices.sh

    4)启动Hive后台服务

    [Mark@hadoop102 software]$ hiveservices.sh start

    5.3 HiveJDBC访问

    1)启动beeline客户端

    [Mark@hadoop102 software]$ beeline -u jdbc:hive2://hadoop102:10000 -n atguigu

    2)看到如下界面

    Connecting to jdbc:hive2://hadoop102:10000
    Connected to: Apache Hive (version 3.1.2)
    Driver: Hive JDBC (version 3.1.2)
    Transaction isolation: TRANSACTION_REPEATABLE_READ
    Beeline version 3.1.2 by Apache Hive
    0: jdbc:hive2://hadoop102:10000>

    6、 Hive常用交互命令

    [Mark@hadoop102 hive]$ bin/hive -help
    
    usage: hive
    -d,--define <key=value>          Variable subsitution to apply to hive
                                      commands. e.g. -d A=B or --define A=B
        --database <databasename>     Specify the database to use
     -e <quoted-query-string>         SQL from command line
     -f <filename>                    SQL from files
     -H,--help                        Print help information
        --hiveconf <property=value>   Use value for given property
        --hivevar <key=value>         Variable subsitution to apply to hive
                                      commands. e.g. --hivevar A=B
     -i <filename>                    Initialization SQL file
     -S,--silent                      Silent mode in interactive shell
     -v,--verbose                     Verbose mode (echo executed SQL to the console)

    1)“-e”不进入hive的交互窗口执行sql语句

    [Mark@hadoop102 hive]$ bin/hive -e "select id from student;"

    2)“-f”执行脚本中sql语句

    (1)在/opt/module/datas目录下创建hivef.sql文件

    [Mark@hadoop102 datas]$ touch hivef.sql

    (2)文件中写入正确的sql语句

    select *from student;

    (3)执行文件中的sql语句

    [Mark@hadoop102 hive]$ bin/hive -f /opt/module/datas/hivef.sql

    (4)执行文件中的sql语句并将结果写入文件中

    [Mark@hadoop102 hive]$ bin/hive -f /opt/module/datas/hivef.sql  > /opt/module/datas/hive_result.txt

    7、 Hive其他命令操作

    1)退出hive窗口:

    hive(default)>exit;
    hive(default)>quit;

    在新版的hive中没区别了,在以前的版本是有的:

    exit:先隐性提交数据,再退出;

    quit:不提交数据,退出;

    2)在hive cli命令窗口中如何查看hdfs文件系统

    hive(default)>dfs -ls /;

    3)查看在hive中输入的所有历史命令

    (1)进入到当前用户的根目录/root或/home/atguigu

    (2)查看. hivehistory文件

    [Mark@hadoop102 ~]$ cat .hivehistory

    8、 Hive常见属性配置

    8.1 Hive运行日志信息配置

    1Hivelog默认存放在/tmp/atguigu/hive.log目录下(当前用户名下)

    2)修改hivelog存放日志到/opt/module/hive/logs

    (1)修改/opt/module/hive/conf/hive-log4j.properties.template文件名称为

    hive-log4j.properties
    
    [Mark@hadoop102 conf]$ pwd
    /opt/module/hive/conf
    [Mark@hadoop102 conf]$ mv hive-log4j.properties.template hive-log4j.properties

    (2)在hive-log4j.properties文件中修改log存放位置

    hive.log.dir=/opt/module/hive/logs

    8.2 参数配置方式

    1)查看当前所有的配置信息

    hive>set;

    2)参数的配置三种方式

    (1)配置文件方式

    默认配置文件:hive-default.xml

    用户自定义配置文件:hive-site.xml

    注意:用户自定义配置会覆盖默认配置。另外,Hive也会读入Hadoop的配置,因为Hive是作为Hadoop的客户端启动的,Hive的配置会覆盖Hadoop的配置。配置文件的设定对本机启动的所有Hive进程都有效。

    (2)命令行参数方式

    启动Hive时,可以在命令行添加-hiveconf param=value来设定参数。

    例如:

    [Mark@hadoop103 hive]$ bin/hive -hiveconf mapred.reduce.tasks=10;

    注意:仅对本次hive启动有效

    查看参数设置:

    hive (default)> set mapred.reduce.tasks;

    (3)参数声明方式

    可以在HQL中使用SET关键字设定参数

    例如:

    hive (default)> set mapred.reduce.tasks=100;

    注意:仅对本次hive启动有效。

    查看参数设置

    hive (default)> set mapred.reduce.tasks;

    上述三种设定方式的优先级依次递增。即配置文件<命令行参数<参数声明。注意某些系统级的参数,例如log4j相关的设定,必须用前两种方式设定,因为那些参数的读取在会话建立以前已经完成了。

    展开全文
  • Hive 安装

    千次阅读 2020-07-03 22:05:41
    文章目录下载 hive:解压环境变量查看版本配置 hivehadoop 下载 hive: wget http://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz 解压 tar -xzvf apache-hive-2.1.1-bin.tar.gz mv ...

    下载 hive:

    wget http://archive.apache.org/dist/hive/hive-2.1.1/apache-hive-2.1.1-bin.tar.gz
    

    解压

    tar -xzvf apache-hive-2.1.1-bin.tar.gz
    mv apache-hive-2.1.1-bin  hive
    mv hive /usr/local/
    

    环境变量

    vi /etc/profile
    
    export HIVE_HOME=/usr/local/hive
    export PATH=$PATH:$HIVE_HOME/bin
    
    source /etc/profile
    

    查看版本

    hive --version
    

    在这里插入图片描述

    配置 hive

    hive-env.sh

    cd $HIVE_HOME/conf
    cp hive-env.sh.template hive-env.sh
    vi hive-env.sh
    

    添加:

    HADOOP_HOME=/usr/local/hadoop
    

    拷贝创建hive-site.xml、hive-log4j2.properties、hive-exec-log4j2.properties,执行

    cp hive-default.xml.template hive-site.xml
    cp hive-log4j2.properties.template hive-log4j2.properties
    cp hive-exec-log4j2.properties.template hive-exec-log4j2.properties
    

    创建临时文件夹

    mkdir -p /data/hive/tmp
    

    修改 hive-site.xml

    :%s/${system:java.io.tmpdir}/\/data\/hive\/tmp/g
    :%s/${system:user.name}/root/g
    

    初始化 schema

    $HIVE_HOME/bin/schematool -initSchema -dbType derby
    

    遭遇大坑

    SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
    Exception in thread "main" java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
            at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
            at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
            at org.apache.hadoop.mapred.JobConf.setJar(JobConf.java:536)
            at org.apache.hadoop.mapred.JobConf.setJarByClass(JobConf.java:554)
            at org.apache.hadoop.mapred.JobConf.<init>(JobConf.java:448)
            at org.apache.hadoop.hive.conf.HiveConf.initialize(HiveConf.java:5141)
            at org.apache.hadoop.hive.conf.HiveConf.<init>(HiveConf.java:5099)
            at org.apache.hadoop.hive.common.LogUtils.initHiveLog4jCommon(LogUtils.java:97)
            at org.apache.hadoop.hive.common.LogUtils.initHiveLog4j(LogUtils.java:81)
            at org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:699)
            at org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:683)
            at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
            at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
            at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
            at java.lang.reflect.Method.invoke(Method.java:498)
            at org.apache.hadoop.util.RunJar.run(RunJar.java:323)
            at org.apache.hadoop.util.RunJar.main(RunJar.java:236)
    

    找到原因: com.google.common.base.Preconditions.checkArgument 这是因为hive内依赖的guava.jar和hadoop内的版本不一致造成的。

    检验方法:

    • 查看hadoop安装目录下share/hadoop/common/lib内guava.jar版本
    • 查看hive安装目录下lib内guava.jar的版本
    • 如果两者不一致,删除版本低的,并拷贝高版本的

    问题解决!

    运行 hive

    在这里插入图片描述

    展开全文
  • hive安装

    2020-05-01 16:23:09
    hive只需要在hadoop的namenode节点中安装即可,hive运行JRE,Hadoop,默认将元数据存储在derby中,但是常见是将数据存储在mysql中的,因此也需要安装mysql数据库 安装步骤 1.上传安装文件并解压 2.配置环境变量 ...

    安装时注意:

          hive只需要在hadoop的namenode节点中安装即可,hive运行需要依赖于JRE、Hadoop,默认将元数据存储在derby中,但是常见是将数据存储在mysql中的,因此也需要安装mysql数据库。

         derby缺点:只能单用户操作,一个时间只能一个用户连接

    安装步骤

    1.上传安装文件并解压

    2.配置环境变量

    vim /etc/profile
        export HIVE_HOME=/usr/local/hive-2.3.7
        export PATH=$PATH:$HIVE_HOME/bin

    3.添加mysql 连接驱动包到将拷贝mysql jdbc 包到hive/lib

    cp mysql-connector-java-5.1.40-bin.jar

    4.配置 hive-env.sh

    拷贝hive-env.sh.template到hive-env.sh,添加如下内容:

    cp hive-env.sh.template hive-env.sh
        export HADOOP_HOME=/usr/local/hadoop-2.9.2
        export HIVE_CONF_DIR=/usr/local/hive-2.3.7/conf

    5.配置hive-site.xml

    拷贝hive-default.xml.template到hive-site.xml 并修改内容

    <?xml version="1.0" encoding="UTF-8" standalone="no"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    <configuration>
     <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://127.0.0.1:3306/hive?createDatabaseIfNotExist=true</value>
        <description>JDBC connect string for a JDBC metastore.</description>
      </property>
    
      <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>JDBC Driver</description>
      </property>
     
      <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <description>Username to use against metastore database</description>
      </property>
      
      <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>java</value>
        <description>password to use against metastore database</description>
      </property>
      
      <property>
        <name>datanucleus.schema.autoCreateAll</name>
        <value>true</value>
      </property>
     
      <property>
        <name>hive.metastore.schema.verification</name>
        <value>false</value>
      </property>
    </configuration>

    6.启动hive的matestore

    #启动
        hive --service metastore &
    #停止
        ps -ef|grep hive|grep -v grep|awk '{print "kill -9", $2}'|sh

    7.进入hive交互CLI

    #进入hive命令
        hive 
    //创建表
        hive> create table testhive(id int, name string); 
    #查看所有的表
        hive> show tables; 
    #查看表结构 
        hive> desc testhive; 
    #插入数据
        hive> insert into t2 values(1,'hk'); 

    8.查看结果

    1.安装成功后mysql会创建hive库

    2.创建表后hadoop 可以看到文件及目录

    9.启动 hiveserver2 支持jdbc远程连接

    hive --service hiveserver2 &

     

     

     

    展开全文
  • HIVE安装

    2016-11-24 14:59:45
    1 、下载Hive-0.11.0 ... Hive原则上可以安装在集群上的任何一台机器上面,但是考虑到 master节点的负荷比较大,我们选择一台机器性能较好的datanode来安装hive。在我们的集群中选择cloud003来安装hive。另外,在我

    1 、下载Hive-0.11.0

    http://apache.cs.utah.edu/hive/hive-0.11.0/


    2、解压安装

            Hive原则上可以安装在集群上的任何一台机器上面,但是考虑到 master节点的负荷比较大,我们选择一台机器性能较好的datanode来安装hive。在我们的集群中选择cloud003来安装hive。另外,在我们的安装中采用MySQL来存放hive的meta数据。

    2.1 解压

            将hive-0.11.0.tar.gz解压到/home/hduser路径下

            tar –zxvf hive-0.11.0.tar.gz

            产生hive 的安装目录:/home/hduser/hive-0.11.0

            如果所有配置都采用默认情况,此时hive已经可用。这里有一个问题需要注意的是,Hadoop的安装路径要添加到/etc/profile,否则 hive运行时将找不到hadoop。(此时可跳过第2.2步骤,测试hive是否正常运行)

    2.2配置 mySQL存放metadata (可选)

    1) 这里默认mySQL已经安装(root/mysql)。由于 mysql的默认安装只允许本地登录,所以需要修改配置文件将地址绑定注释掉:


    2)重启mysql:  sudoservice mysql restart

    3)登录msql,创建database: hive

    4)修改hive配置文件hive-site.xml

            默认这个文件是不存在的,进入hive安装路径(/home/hduser/hive-0.11.0/)在conf目录下,拷贝hive-default.xml.template得到hive-site.xml文件

    修改以下属性:

    <configuration>

        <property>

            <name>javax.jdo.option.ConnectionURL</name>

            <value>jdbc:mysql://16.187.94.183:3306/hive?characterEncoding=UTF-8</value>

        </property>

        <property>

            <name>javax.jdo.option.ConnectionDriverName</name>

            <value>com.mysql.jdbc.Driver</value>

        </property>

        <property>

            <name>javax.jdo.option.ConnectionUserName</name>

            <value>root</value>

        </property>

        <property>

            <name>javax.jdo.option.ConnectionPassword</name>

            <value>mysql</value>

        </property>

    </configuration>

     

    5)把mySQL的JDBC驱动包复制到Hive的lib目录下

    这里下载的版本是:mysql-connector-Java-5.0.8-bin.jar

    3、启动运行

    3.1 配置环境变量

            vim /etc/profile

     添加hive环境变量:

    export HIVE_HOME=/home/hduser/hive-0.11.0

    export PATH=$HIVE_HOME/bin:$PATH

    source /etc/profile

    3.2 启动hive

    在终端直接输入:hive即可,如下图:


    3.3 验证hive

    1)在hive上建立数据表

    Hive>create table test(id int,name string) row formatdelimited fields terminated by ’\t’;

    2)登录mySQL查看meta信息

    use hive;

    show tables;(如下图)


    select* from TBLS;

    至此hive配置安装成功!

    展开全文

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 19,379
精华内容 7,751
关键字:

hive安装