精华内容
下载资源
问答
  • CentOS7搭建Hive服务器

    2021-05-29 19:44:45
    Hive服务器需要Hadoop,我使用的是Hadoop3.3.0,这个提前已经搭建好了。MySql5.7.34也已经准备好。 一、下载软件

    Hive服务器需要Hadoop,我使用的是Hadoop3.3.0,这个提前已经搭建好了。MySql5.7.34也已经准备好。

    一、下载软件

    下载软件的地址是:https://mirrors.tuna.tsinghua.edu.cn/apache/hive/

    我选择的是Hive3.1.2.

    cd /var/app
    wget https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-3.1.2/apache-hive-3.1.2-bin.tar.gz

    二、解压

    tar -zxvf apache-hive-3.1.2-bin.tar.gz

    三、创建配置文件

    1. hive-log4j2.properties

    cd apache-hive-3.1.2-bin/conf
    cp hive-log4j2.properties.template hive-log4j2.properties
    vi hive-log4j2.properties

    2. hive-env.sh

    cp hive-env.sh.template hive-env.sh
    vi hive-env.sh

    在最后添加

    export HADOOP_HOME=/var/app/hadoop-3.3.0
    export HIVE_CONF_DIR=/var/app/apache-hive-3.1.2-bin/conf

    3. hive-site.xml

    vi hive-site.xml

    添加内容

    <?xml version="1.0" encoding="UTF-8" standalone="no"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
    
    <configuration>
        <!-- 记录HIve中的元数据信息  记录在mysql中 -->
        <property>
            <name>javax.jdo.option.ConnectionURL</name>
            <value>jdbc:mysql://192.168.0.50:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
        </property>
    
        <!-- jdbc mysql驱动 -->
        <property>
            <name>javax.jdo.option.ConnectionDriverName</name>
            <value>com.mysql.jdbc.Driver</value>
        </property>
    
        <!-- mysql的用户名和密码 -->
        <property>
            <name>javax.jdo.option.ConnectionUserName</name>
            <value>root</value>
        </property>
        <property>
            <name>javax.jdo.option.ConnectionPassword</name>
            <value>root</value>
        </property>
    
        <property>
            <name>hive.metastore.warehouse.dir</name>
            <value>/user/hive/warehouse</value>
        </property>
    
        <property>
            <name>hive.exec.scratchdir</name>
            <value>/user/hive/tmp</value>
        </property>
    
        <!-- 日志目录 -->
        <property>
            <name>hive.querylog.location</name>
            <value>/user/hive/log</value>
        </property>
    
        <!-- 客户端远程连接的端口 -->
        <property>
            <name>hive.server2.thrift.port</name>
            <value>10000</value>
        </property>
        <property>
            <name>hive.server2.thrift.bind.host</name>
            <value>0.0.0.0</value>
        </property>
        <property>
            <name>hive.server2.webui.host</name>
            <value>0.0.0.0</value>
        </property>
    
        <!-- hive服务的页面的端口 -->
        <property>
            <name>hive.server2.webui.port</name>
            <value>10002</value>
        </property>
    
        <property>
            <name>hive.server2.long.polling.timeout</name>
            <value>5000</value>
        </property>
    
        <property>
            <name>hive.server2.enable.doAs</name>
            <value>true</value>
        </property>
    
        <property>
            <name>datanucleus.autoCreateSchema</name>
            <value>false</value>
        </property>
    
        <property>
            <name>datanucleus.fixedDatastore</name>
            <value>true</value>
        </property>
    
        <property>
            <name>hive.execution.engine</name>
            <value>mr</value>
        </property>
    
    </configuration>

    主要修改前四项有关MySql数据库的配置,其他部分没有会有什么影响还不知道。补充一下,MySql中需要先创建一个数据库hive,如果重换版本,建议删掉这个数据库再重新创建一下。

    create database if not exists hive default character set utf8mb4 collate utf8mb4_general_ci;

    四、准备MySql连接的驱动

    cd /var/softwares 
    wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.47/mysql-connector-java-5.1.47.jar

    把这个驱动复制到hive的lib目录下面。

    cp /var/softwares/mysql-connector-java-5.1.47.jar /var/app/apache-hive-3.1.2-bin/lib

    五、guava版本一致性处理

    Hadoop和Hive都要使用guava,要求版本一致。建议查看两个包的版本,保留最大的。

    ll /var/app/hadoop-3.3.0/share/hadoop/common/lib/gua*
    ll /var/app/apache-hive-3.1.2-bin/lib/gua*
    
    mv /var/app/apache-hive-3.1.2-bin/lib/guava-19.0.jar /var/share
    cp /var/app/hadoop-3.3.0/share/hadoop/common/lib/guava-27.0-jre.jar /var/app/apache-hive-3.1.2-bin/lib/

    六、初始化

    /var/app/apache-hive-3.1.2-bin/bin/schematool -dbType mysql -initSchema

    实际上就是在MySql创建各种管理需要的表。

    看到

    Initialization script completed
    schemaTool completed

    这就是初始化成功了。

    七、启动Hive

    /var/app/apache-hive-3.1.2-bin/bin/hive

    看到输入提示have>就是启动成功了。

    八、测试

    在MySql是可以看到hive中创建了很多表。hdfs下面也有hive专用的路径。

    1. 输入命令创建一张表。

    create table student(id int, name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';

    hdfs有了这张表。

    2. 尝试插入数据

    insert into table student(id,name) values(1,'chris');

    看看发生了什么?

    没错,是执行了MapReduce运算。这就是Hive存在的意义,用类似sql的语法来代替MR计算。不过,这速度,真是惊天地泣鬼神。

    3. 直接从数据文件导入。

    我们创建数据表的方法就是利于用tab分割数据进行导入的。

    创建一个文本文件stu_01.txt,输入多行数据,用tab分割。

    2	zhangsanfeng
    3	liergou
    4	murongfu

    在hdfs上传至student下。

    查询数据,查看结果。

    select * from student;

     

    展开全文
  • 启动hive错误

    2020-05-01 16:08:55
    安装hive后打开DLI输入show databases;查看数据库,却发现出现了 Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient 从网上找到的解决方法是: 输入 hive --service metastore...

    安装hive后打开DLI输入show databases;查看数据库,却发现出现了

    Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient
    

    从网上找到的解决方法是:
    输入

    hive --service metastore
    

    输入命令后出现了超长的错误
    hadoop,hbase之类的在Ubuntu上都装好了,但是hive安装之后进入DLI界面操作时一直出现错误,周末弄了两天,差点把hadoop弄坏了,隔了一个星期再看,还是不行,真的好烦

    后来将jdbc驱动包换为8.0以上的版本,
    却出现:

    Caused by: java.lang.UnsupportedClassVersionError: com/mysql/jdbc/Driver : Unsupported major.minor version 52.0
    

    原来是jdk和mysql驱动包版本发生冲突
    将jdk1.7换成jdk1.8
    见教程:
    https://blog.csdn.net/weixin_45468845/article/details/105875665

    换了之后还是不行。
    出现了:

    MetaException(message:Error creating transactional connection factory)
    
    Caused by: javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
    
    Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "HikariCP" plugin to create a ConnectionPool gave an error : Failed to initialize pool: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Caused by: com.zaxxer.hikari.pool.HikariPool$PoolInitializationException: Failed to initialize pool: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Caused by: java.sql.SQLNonTransientConnectionException: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Caused by: com.mysql.cj.exceptions.UnableToConnectException: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Caused by: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Exception in thread "main" MetaException(message:Error creating transactional connection factory)
    
    Caused by: javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
    
    Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "HikariCP" plugin to create a ConnectionPool gave an error : Failed to initialize pool: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false'.
    
    Caused by: com.mysql.cj.exceptions.UnableToConnectException: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'.
    
    Caused by: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'.
    
    Caused by: javax.jdo.JDOFatalInternalException: Error creating transactional connection factory
    
    Caused by: org.datanucleus.exceptions.NucleusException: Attempt to invoke the "HikariCP" plugin to create a ConnectionPool gave an error : Failed to initialize pool: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'
    
    Caused by: java.sql.SQLNonTransientConnectionException: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'.
    
    Caused by: com.mysql.cj.exceptions.UnableToConnectException: Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'.
    
    Caused by: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near '=false;serverTimezone=GMT'.
    

    元数据初始化,输入:

    schematool -dbType mysql -initSchema
    

    这时会有提示

    *Metastore connection URL: jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true;useSSL=false;serverTimezone=GMT
    Metastore Connection Driver : com.mysql.cj.jdbc.Driver
    Metastore connection User: root
    org.apache.hadoop.hive.metastore.HiveMetaException: Failed to get schema version.
    Underlying cause: java.sql.SQLNonTransientConnectionException : Cannot load connection class because of underlying exception: com.mysql.cj.exceptions.WrongArgumentException: Malformed database URL, failed to parse the connection string near ‘=false;serverTimezone=GMT’.
    SQL Error code: 0
    Use --verbose for detailed stacktrace.
    *** schemaTool failed ****

    注意加粗的地方,就是出现问题的地方。
    我的是hite.site.xml出错,我把出错的地方删了,再重新运行
    还是出现了错误,现在找不到错误提示代码了,大概意思就是需要创建的表已经存在,
    我把mysql里面hive数据库删除重新创建
    退出mysql
    再次执行:

    schematool -dbType mysql -initSchema
    

    此时运行成功

    mysql -uoot -p
    use hive
    show tables;
    

    出现
    ±------------------------------+
    | Tables_in_hive |
    ±------------------------------+
    | AUX_TABLE |
    | BUCKETING_COLS |
    | CDS |
    | COLUMNS_V2 |
    | COMPACTION_QUEUE |
    | COMPLETED_COMPACTIONS |
    | COMPLETED_TXN_COMPONENTS |
    | CTLGS |
    | DATABASE_PARAMS |
    | DBS |
    | DB_PRIVS |
    | DELEGATION_TOKENS |
    | FUNCS |
    | FUNC_RU |
    | GLOBAL_PRIVS |
    | HIVE_LOCKS |
    | IDXS |
    | INDEX_PARAMS |
    | I_SCHEMA |
    | KEY_CONSTRAINTS |
    | MASTER_KEYS |
    | MATERIALIZATION_REBUILD_LOCKS |
    | METASTORE_DB_PROPERTIES |
    | MIN_HISTORY_LEVEL |
    | MV_CREATION_METADATA |
    | MV_TABLES_USED |
    | NEXT_COMPACTION_QUEUE_ID |
    | NEXT_LOCK_ID |
    | NEXT_TXN_ID |
    | NEXT_WRITE_ID |
    | NOTIFICATION_LOG |
    | NOTIFICATION_SEQUENCE |
    | NUCLEUS_TABLES |
    | PARTITIONS |
    | PARTITION_EVENTS |
    | PARTITION_KEYS |
    | PARTITION_KEY_VALS |
    | PARTITION_PARAMS |
    | PART_COL_PRIVS |
    | PART_COL_STATS |
    | PART_PRIVS |
    | REPL_TXN_MAP |
    | ROLES |
    | ROLE_MAP |
    | RUNTIME_STATS |
    | SCHEMA_VERSION |
    | SDS |
    | SD_PARAMS |
    | SEQUENCE_TABLE |
    | SERDES |
    | SERDE_PARAMS |
    | SKEWED_COL_NAMES |
    | SKEWED_COL_VALUE_LOC_MAP |
    | SKEWED_STRING_LIST |
    | SKEWED_STRING_LIST_VALUES |
    | SKEWED_VALUES |
    | SORT_COLS |
    | TABLE_PARAMS |
    | TAB_COL_STATS |
    | TBLS |
    | TBL_COL_PRIVS |
    | TBL_PRIVS |
    | TXNS |
    | TXN_COMPONENTS |
    | TXN_TO_WRITE_ID |
    | TYPES |
    | TYPE_FIELDS |
    | VERSION |
    | WM_MAPPING |
    | WM_POOL |
    | WM_POOL_TO_TRIGGER |
    | WM_RESOURCEPLAN |
    | WM_TRIGGER |
    | WRITE_SET |
    ±------------------------------+
    74 rows in set (0.00 sec)

    退出mysql
    进入hive

    hive
    show databases;
    

    出现:
    hive> show databases;
    OK
    default
    Time taken: 0.746 seconds, Fetched: 1 row(s)

    成功!
    需要注意的是
    我再将jdk1.7换成jdk1.8后,进入hive出现了:

    Fri May 01 15:33:38 CST 2020 WARN: Establishing SSL connection without server's identity verification is not recommended. 
    According to MySQL 5.5.45+, 5.6.26+ and 5.7.6+ requirements SSL connection must be established by default if explicit option isn't set. 
    For compliance with existing applications not using SSL the verifyServerCertificate property is set to 'false'. 
    You need either to explicitly disable SSL by setting useSSL=false, or set useSSL=true and provide truststore for server certificate verification.
    Fri May 01 15:28:30 CST 2020警告:不建议在未经服务器身份验证的情况下建立SSL连接。
    根据MySQL 5.5.45+、5.6.26+和5.7.6+的要求,如果未设置显式选项,则默认情况下必须建立SSL连接。
    为了符合不使用SSL的现有应用程序,verifyServerCertificate属性设置为“false”。
    您需要通过设置useSSL=false显式禁用SSL,或者设置useSSL=true并为服务器证书验证提供信任存储。
    

    这个不影响,但是我也不知道怎么消除

    展开全文
  • 启动hive服务配置

    2020-05-07 18:25:43
    1.服务器端配置 1.cd /usr/local/hive #进入hive...3.hive --service hiveserver2 #启动hiveserver2 2.客户端配置 1.cd /usr/local/hive #进入hive安装目录 2.cd /bin #进入bin目录 3.beeline #启动beeline程序 3...

    1.服务器端配置

    1.cd /usr/local/hive  #进入hive安装目录
    2.cd /bin   #进入bin目录
    3.hive --service  hiveserver2  #启动hiveserver2
    

    2.客户端配置

    1.cd /usr/local/hive  #进入hive安装目录
    2.cd /bin   #进入bin目录
    3.beeline  #启动beeline程序
    

    3.客户端连接服务器

    1.beeline> !connect jdbc:hive2://localhost:10000 ---进行连接
    2.Connecting to jdbc:hive2://localhost:10000
    3.Enter username for jdbc:hive2://localhost:10000: hadoop ---用户名
    4.Enter password for jdbc:hive2://localhost:10000: ****** ---密码
    5.Connected to: Apache Hive (version 1.2.1)
    6.Driver: Hive JDBC (version 1.2.1)
    7.Transaction isolation: TRANSACTION_REPEATABLE_READ  
    8.0: jdbc:hive2://localhost:10000>  --已连接成功
    
    展开全文
  • 环境要求:三台centos7主机:master 192.168.200.128(hive客户端)slave1 192.168.200.129 (hive服务端)slave2 192.168.200.130 (MySQL数据库存储metastore元数据)都要求已经安装 jdk,hadoop参考连接部署mysql服务...

    环境要求:

    三台centos7主机:

    master 192.168.200.128(hive客户端)

    slave1 192.168.200.129 (hive服务端)

    slave2 192.168.200.130 (MySQL数据库存储metastore元数据)

    都要求已经安装 jdk,hadoop参考连接

    部署mysql服务(slave2)

    部署hive服务端(slave1)

    解压hive文件

    # tar -zxvf apache-hive-2.3.7-bin

    配置 hive-site.xml 文件(在hive的安装目录的conf目录下)

    如果没有请新建文件,并添加内容:

    hive.metastore.warehouse.dir

    /user/hive/warehouse

    javax.jdo.option.ConnectionURL

    jdbc:mysql://192.168.200.130:3306/hive?createDatabaseIfNotExist=true

    javax.jdo.option.ConnectionDriverName

    com.mysql.jdbc.Driver

    javax.jdo.option.ConnectionUserName

    root

    javax.jdo.option.ConnectionPassword

    123456

    配置 hive-env.sh 文件(在hive的安装目录的conf目录下)

    cp hive-env.sh.template hive-env.sh

    vi hive-env.sh

    b1211a8916343175920b04e3e33e4fd3.png

    将mysql-connector-java-5.1.31-bin.jar上传到$HIVE_HOME/lib目录下

    驱动包下载地址

    替换 jline.jar 包

    cp /home/hive-1.2.1/lib/jline-2.12.jar /home/hadoop-2.5.2/share/hadoop/yarn/lib/(参考路径)

    初始化元数据库

    # schematool -dbType mysql -initSchema

    配置环境变量

    # vi /etc/profile

    61659465c2ab630c6dfb2599a031724e.png

    source /etc/profile #使环境变量生效

    部署hive客户端(master)

    解压hive文件(参考上文)

    配置 hive-site.xml 文件(在hive的安装目录的conf目录下)

    如果没有请新建文件,并添加内容:

    hive.metastore.warehouse.dir

    /user/hive/warehouse

    hive.metastore.local

    false

    hive.metastore.uris

    thrift://slave1:9083

    配置 hive-env.sh 文件(参考上文)

    替换 jline.jar 包(参考上文)

    配置环境变量(参考上文)

    测试

    启动hadoop集群

    # start-all.sh

    启动slave2的mysql服务

    # systemctl start mysqld

    启动slave1的hive服务

    # hive --service metastore &

    启动master客户端hive

    # hive

    fb12d898936af10b6bd224bddc69f1c0.png

    标签:metastore,hive,目录,sh,env,mysql,远程,搭建

    来源: https://blog.csdn.net/weixin_46376562/article/details/106971385

    展开全文
  • hive 服务器客户端 理解

    千次阅读 2018-12-13 13:48:56
    hive的分布式安装中,网上对于客户端和服务器的理解感觉并没有很清晰。接下来将简单说一下个人理解,如果有错,请各位大佬尽管指出,只是一种学习讨论罢了。 第一,在安装hive的各个节点(包括master和slave)上...
  • 1.在hive的官网上下载源码,上传至服务器2.进入目录进行解压tar -zxvf apache-hive-0.14.0-src.tar.gz3.进入web目录cd apache-hive-0.14.0-srccd hwi/web4.将web源码打成zip包zip hive-hwi-0.14.0.zip ./* //打包成....
  • linux 启动hive时报错

    2017-07-11 08:38:14
    $beeline -u jdbc:hive2://192.168.141.142:10000 Connecting to jdbc:hive2://192.168.141.142:10000 17/07/11 23:37:38 INFO jdbc.Utils: Supplied authorities: 192.168.141.142:10000 17/07/11 23:37:38 INFO ...
  • 启动hive服务(beeline) [root@hadoop bin]# hive --service metastore & [1] 3638 [root@hadoop bin]# hive --service hiveserver2 & [2] 3718 [root@hadoop bin]# beeline Beeline version 1.2.1 by ...
  • 启动hive时:Hive Failed to connect to the MetaStore Server标签(空格分隔): 大数据问题问题描述Exception in thread "main" java.lang.RuntimeException: java.lang.RuntimeException: Unable to instantiate ...
  • #source /etc/profile 的目的是将profile中的JAVA_HOME路径提升为全局变量才能到相应的服务器启动具体操作: #赋予权限 chmod +x my-zkServer.sh #一键启动zookeeper集群:./my-zkServer.sh start #一键停止...
  • 参考文档:...执行hive,报错 which: no hbase in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/usr/local/java/jdk1.8/bin:/usr/local/java/jdk1.8/jre/bin:/usr/local/...
  • 1,通过Cloudera Manager添加Hive服务,在启动Hive的时候遇到错误: .org.apache.hadoop.hive.metastore.HiveMetaException: Failed to load driver 这种情况,猜测是缺少jdbc驱动,于是添加jdbc驱动到相应的包...
  • 原来在hive-site.xml文件中javax.jdo.option.ConnectionURL该属性配置时,value为localhost,我以为就是mysql的服务器IP,所以就把localhost改了成了主机名master,导致启动hive时无法访问mysql,此处的localhost...
  • 第一个错误,终端输入hive报以下错误解决方法:将/usr/local/hive/conf/hive-site.xml配置文件第一行<?xmlversion="1.0"encoding="UTF-8"standalone="no"?>中的encoding="UTF-8"standalone="no"删除,不再报错...
  • hive部署启动

    2020-01-11 15:12:02
    1.部署MySQL及创建hive用户(服务器已经装好mysql) mysql> grant all privileges on *.* to hive@'%' identified by 'hadoop'; Query OK, 0 rows affected, 1 warning (0.00 sec) mysql> flush privileges; ...
  • 博主在服务器端启动hive服务器时,发下报错如下: Exception in thread "main" org.apache.thrift.transport.TTransportException: Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083. at org....
  • 服务器安装与配置Hive

    2019-11-30 23:01:33
    记录服务器上部署Hive组件 文章目录机器环境准备Hive 安装及配置Hive 基本操作 机器环境 Centos7 HDFS(启动好) mysql(保证服务可用–可选) jdk 准备 1.Hive 官网地址 ...
  • hive服务端启动

    2013-05-08 15:17:49
    hive 远程服务 (端口号10000) 启动方式, hive –service hiveserver & (后台启动) 指定端口 :$HIVE_HOME/bin/hive --service hiveserver 10001 >/dev/null 2>/dev/null &
  • 大数据笔记-Hive

    2018-10-05 23:31:25
    操作Hive需要启动的应用:  前提:启动zookeeper集群 ... iii)启动Hive服务器 下面介绍Hive的安装  ~~>Hive的安装:  1°、解压Hive文件:  重命名,配置环境变量/etc/profile.d/bigdata.sh...
  • hive启动命令以及hive介绍(个人总结)

    千次阅读 2019-04-13 10:22:38
    hive启动命令 首先启动 zookeeper : bin/zkServer.sh restart 启动zookeeper以后查看是否启动成功 : bin/zkServer.sh status 在启 NameNode 和 DataNode 守护进程。sbin/start-all.sh ...
  • hive的元数据存放数据库由derby改为Mysql后启动时,报错信息如下Caused by: java.sql.SQLException: Access denied for user 'root'@'hadoop01' (using password: YES)该错误信息为权限问题或者密码问题首先查看...
  • Hive的几种启动方式

    千次阅读 2019-09-17 08:50:14
    Hive的几种启动方式 A. shell客户端启动 使用命令:/export/server/hive/bin/hive 直接启动。...1. 在Hive的bin目录下可以启动一个服务器来接受远程服务。 进入Hive的安装目录,使用命令:bin/hi...
  • 作为传统的服务器端程序,hive具备多种启动方式 java api(jdbc)、shell客户端、web页面 jdbc https://mvnrepository.com/search?q=hive-jdbc shell 客户端 就是本身做讲解的连接方式 web页面 ...
  • docker 使用 centos 安装cdh 的hive ,最优雅的方式安装。 重点在于学习 hive 的语法,sql 。真正的弄起来,有运维大哥帮忙。 开发还是做业务分析的好。折腾起来就可以学习hive了。 主要还是aliyun 删除掉内网的地址...
  • hive服务的启动和关闭

    千次阅读 2019-11-19 14:07:04
    可以通过ps -ef|grep hive 来看hive 的端口号,然后kill 掉相关的进程。 启动 java代码访问hive: 启动metastore nohup hive --service metastore 2>&1 & 启动hiveserver2 nohup hive --service ...
  • Hive1.2.1开启Jmx

    2019-05-10 15:24:39
    目录 一、hadoop-env.sh添加hive的JVM参数变量HADOOP_CLIENT_OPTS和 HIVE_OPTS ...当通过Hive -service hiveserver启动Hive服务器时,它实际上执行“hadoop jar……”,因此为了能够将选项从...
  • 我已经找到了这个属性,并在hive下找到了这个文件,应该是存在的,重启整个集群还是没用,求解 ![就是卡在这里,报hdfs上不存在这个设置](https://img-ask.csdn.net/upload/201711/02/1509587755_807893.png) ![图片说明]...
  • Hive

    2021-03-21 16:03:46
    Hive是一个数据仓库工具,可以将结构化的...(1) 用户接口:CLI、Client 和 WUI.CLI为shell命令行,Cli启动的时候,会同时启动一个Hive副本.Client是Hive的客户端,用户连接至Hive Server.WUI是通过浏览器访问Hive. (2) 元
  • hive

    2019-10-17 19:49:19
    1、安装好mysql,用mysql命令行客户端登录mysql服务器看是否成功 mysql -uroot -p1234 出现此页面说明MySQL运行成功。 2、安装hive ... 解压,配置文件的修改。...4、找到hive下的bin路径,启动hive ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 21,584
精华内容 8,633
关键字:

启动hive服务器