精华内容
下载资源
问答
  •  Agilent 扩展的 HDMI 测试平台包括E4887A HDMI TMDS 信号发生器平台, 它能针对组合的或分离的抖动容限一致测试或特性测试提供灵活配置。  Agilent 副总裁兼“网络数字测试解决方案事业部”总经理 David ...
  • 随着现代工业生产科学研究对数据采集系统的要求日益提高传输速度纠错能力操作安装的简易是人们进行采集数据时一直关注的问题这使得数据通讯技术不可避免地成为了其中的关键技术而数据采集系统采用何种接口进行...
  • 注解配置和XML配置的优缺点比较 一、简单总结下两者优缺点比较 注解简单概括:写起来比较简单、方便,看起来也简洁,但是修改麻烦。 Xml配置概括:写起来比较灵活、修改方便,但是写和维护麻烦。 二、XML 1、XML的...

    注解配置和XML配置的优缺点比较

    一、简单总结下两者优缺点比较
    注解简单概括:写起来比较简单、方便,看起来也简洁,但是修改麻烦。
    Xml配置概括:写起来比较灵活、修改方便,但是写和维护麻烦。
    二、XML
    1、XML的优点
    (1)xml是集中式的元数据,不需要和代码绑定的;在我们开发中,xml配置文件和代码类是区分开的。不需要绑定到代码中。
    (2)使用xml配置可以让软件更具有扩展性;比如,我们在spring中,我们不想使用接口而是想用接口的实现类,这个时候只需要修改xml配置中bean的class值就可以了。
    (3)对象之间的关系一目了然。
    (4)xml定义:可扩展标记语言,标准通用标记语言的子集,简称XML。从这个定义中我们可以发现,xml最大的优势就在于,开发者(程序员)能够为软件量身定做使用的标记,使得xml更通俗易懂。
    (5)成熟的校验机制,来保证正确。可以使用Schema或者是DTD来对xml的正确性进行校验。
    (6)基于xml配置的时候,只需要修改xml即可,不需要对现有的程序进行修改。
    (7)容易与其他系统进行数据交互。数据共享方便。
    2、XML的缺点
    (1)应用程序中如果使用了xml配置,需要解析xml的工具或者是是第三方类库的支持。
    (2)解析xml的时候必然会占用资源,势必会影响到应用程序的性能;以java为例,无论是将xml一次性装置到内存中,还是一行一行读取解析的,都会占用资源的。
    (3)xml配置文件过多,会导致维护变得困难。
    (4)在程序编译期间无法对其配置项的正确性进行验证,只能在运行期发现。
    (5)出错后,排错变得困难。往往在配置的时候,一个手误就会出现莫名其妙的错误(虽然事出必有妖,但是排查真难)。
    比如,xml配置bean信息的时候,如果class的值带有空格,这种不好检查的,是比较麻烦的。排查起来很费事。
    (6)开发的时候,既要维护代码又要维护配置文件,使得开发的效率降低。
    (7)代码与配置项之间有时候会存在很多“潜规则”.改变了任意一方,都有可能影响到另一方的使用。这是个大坑。比如:自定义的标记,如果其他开发不清楚这些的话,修改了无论是代码还是xml的配置,都会导致程序不能正常运行。
    (8)开发工具对xml的验证支持的不是很好。比如idea,对xml正确性,如果是自定义的,验证就不是很好。
    三、注解
    1、注解的优点
    (1)注解的解析可以不依赖于第三方库,可以之间使用Java自带的反射。
    (2)注解和代码在一起的,之间在类上,降低了维护两个地方的成本。
    (3)注解如果有问题,在编译期间,就可以验证正确性,如果出错更容易找。
    (4)使用注解开发能够提高开发效率。不用多个地方维护,不用考虑是否存在“潜规则”。
    2、注解的缺点
    (1)修改的话比较麻烦。如果需要对注解进行修改的话,就需要对整个项目重新编译。
    (2)处理业务类之间的复杂关系,不然xml那样容易修改,也不及xml那样明了。
    (3)在程序中注解太多的话,会影响代码质量,代码简洁会有影响。
    (4)如果后来的人对注解不了解,会给维护带来成本。
    (5)注解功能没有xml配置齐全。

    展开全文
  • 1 Hive 介绍 Facebook 开源用于解决海量结构化日志的...灵活和扩展性好:支持 UDF,自定义存储格式 适合离线数据处理 1.1 构建在 Hadoop 上的数据仓库 使用 HQL 作为查询接口 使用 HDFS 存储 使用 MapReduce ...

    1 Hive 介绍

    • Facebook 开源用于解决海量结构化日志的数据统计
    • 是基于 Hadoop 的一个数据仓库工具,可以将结构化的数据文件映射为一张表
    • 本质: 将 HQL 转化成 MapReduce 程序
    • 灵活性和扩展性好:支持 UDF,自定义存储格式
    • 适合离线数据处理

    1.1 构建在 Hadoop 上的数据仓库

    • 使用 HQL 作为查询接口
    • 使用 HDFS 存储
    • 使用 MapReduce 计算

    2 Hive 架构

    • 用户接口:Client
    CLI(hive shell), JDBC/ODBC(java 访问 hive), WEBUI
    
    • 元数据: Metastore
    表名,表所属的数据库,表的拥有者、列/分区字段,表的类型(是否是外部表),
    表的数据所在的目录
    
    默认存储在自带的 derby数据库,推荐采用 MySQL 存储Metastore
    
    • 驱动器 : Driver,包含解析器,编译器,优化器,执行器
    - 解析器:将 SQL 字符串转换成抽象语法树 AST,这一步一般都用第三方工具库,比如 antlr;对
    AST 进行语法分析,比如表是否存在,字段是否存在,SQL 语义是否有误
    
    - 编译器: 将 AST 编译生成逻辑执行计划
    - 优化器: 对逻辑执行计划优化
    - 执行器: 把逻辑执行计划转换成可以运行的物理计划。如 MR , TEZ, Spark
    

    3 Hive 安装

    所用版本: hive-1.1.0-cdh5.7.0

    3.1 Hadoop 的相关配置

    • core-site.xml
    <configuration>
     <property>
            <name>fs.defaultFS</name>
            <value>hdfs://node1:8020</value>
     </property>
     
     <property>
    	<name>hadoop.tmp.dir</name>
    	<value>/home/hadoop/appsData/hdpData/tmp</value>
    </property>
        
    </configuration>
    
    • hdfs-site.xml
    <configuration>
    	<property>
            <name>dfs.replication</name>
            <value>2</value>
        </property>
        
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/home/hadoop/appsData/hdpData/namenode</value>
        </property>
        
         <property>
            <name>dfs.datanode.data.dir</name>
            <value>/home/hadoop/appsData/hdpData/datanode</value>
        </property>
        
        
    </configuration>
    
    • mapred-site.xml
    <configuration>
    	<property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        
        <property>
            <name>mapreduce.jobhistory.address</name>
            <value>node1:10020</value>
        </property>
        
        <property>
            <name>mapreduce.jobhistory.webapp.address</name>
            <value>node1:19888</value>
        </property>
         
    </configuration>
    
    
    • yarn-site.xml
    <configuration>
    
    <!-- Site specific YARN configuration properties -->
    	<property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>node1</value>
        </property>
        
        <property>
            <name>yarn.log-aggregation-enable</name>
            <value>true</value>
        </property>
    
        <property>
            <name>yarn.log-aggregation.retain-seconds</name>
            <value>640800</value>
        </property> 
        
        <property>
            <name>yarn.nodemanager.resource.memory-mb</name>
            <value>4096</value>
        </property>
        
        <property>
            <name>yarn.nodemanager.resource.cpu-vcores</name>
            <value>4</value>
        </property>
        
        
    </configuration>
    
    • slaves
    node1
    node2
    node3
    
    

    3.1.1 启动 hadoop 相关的组件

    • start-dfs.sh
    • mr-jobhistory-daemon.sh start historyserver
    [hadoop@node1 ~]$ mr-jobhistory-daemon.sh start historyserver
    starting historyserver, logging to /home/hadoop/apps/hadoop-2.6.0-cdh5.7.0/logs/mapred-hadoop-historyserver-node1.out
    
    • start-yarn.sh

    3.2 Hive 配置

    /home/hadoop/apps/hive-1.1.0-cdh5.7.0/conf

    • hive-env,sh
    HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.0-cdh5.7.0
    export HIVE_CONF_DIR=/home/hadoop/apps/hive-1.1.0-cdh5.7.0/conf
    
    • 在 HDFS 上创建 hive 目录并且修改权限
    hadoop fs -mkdir /tmp
    hadoop fs -mkdir -p /user/hive/warehouse
    hadoop fs -chmod g+x /tmp
    hadoop fs -chmod g+x /user/hive/warehouse
    
    
    [hadoop@node1 ~]$ hdfs dfs -ls -R /
    19/01/16 12:45:58 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
    drwxrwx---   - hadoop supergroup          0 2019-01-16 12:28 /tmp
    drwxrwx---   - hadoop supergroup          0 2019-01-16 12:28 /tmp/hadoop-yarn
    drwxrwx---   - hadoop supergroup          0 2019-01-16 12:28 /tmp/hadoop-yarn/staging
    drwxrwx---   - hadoop supergroup          0 2019-01-16 12:28 /tmp/hadoop-yarn/staging/history
    drwxrwx---   - hadoop supergroup          0 2019-01-16 12:28 /tmp/hadoop-yarn/staging/history/done
    drwxrwxrwt   - hadoop supergroup          0 2019-01-16 12:28 /tmp/hadoop-yarn/staging/history/done_intermediate
    drwxr-xr-x   - hadoop supergroup          0 2019-01-16 12:40 /user
    drwxr-xr-x   - hadoop supergroup          0 2019-01-16 12:40 /user/hive
    drwxrwxr-x   - hadoop supergroup          0 2019-01-16 12:40 /user/hive/warehouse
    [hadoop@node1 ~]$ 
    

    3.3 启动 hive

    [hadoop@node1 bin]$ ./hive
    ls: cannot access /home/hadoop/apps/spark-2.2.2-bin-2.6.0-cdh5.7.0/lib/spark-assembly-*.jar: No such file or directory
    2019-01-16 12:47:35,758 WARN  [main] mapreduce.TableMapReduceUtil: The hbase-prefix-tree module jar containing PrefixTreeCodec is not present.  Continuing without it.
    SLF4J: Class path contains multiple SLF4J bindings.
    SLF4J: Found binding in [jar:file:/home/hadoop/apps/hbase-1.2.0-cdh5.7.0/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
    SLF4J: Found binding in [jar:file:/home/hadoop/apps/hadoop-2.6.0-cdh5.7.0/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
    SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
    SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
    2019-01-16 12:47:35,857 WARN  [main] util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
    
    Logging initialized using configuration in jar:file:/home/hadoop/apps/hive-1.1.0-cdh5.7.0/lib/hive-common-1.1.0-cdh5.7.0.jar!/hive-log4j.properties
    WARNING: Hive CLI is deprecated and migration to Beeline is recommended.
    hive> 
    
    

    3.3.1 测试 1

    hive> show databases;
    OK
    default
    Time taken: 0.204 seconds, Fetched: 1 row(s)
    hive> use default;
    OK
    Time taken: 0.017 seconds
    hive> create table bf_log(ip string,user string,requesturl string);
    OK
    Time taken: 0.287 seconds
    hive> show tables;
    OK
    bf_log
    hive_wordcount
    Time taken: 0.038 seconds, Fetched: 2 row(s)
    hive> desc bf_log;
    OK
    ip                  	string              	                    
    user                	string              	                    
    requesturl          	string              	                    
    Time taken: 0.103 seconds, Fetched: 3 row(s)
    hive> select count(*) from bf_log;
    Query ID = hadoop_20190116143333_437d8f9f-c49a-4617-a610-4d79e14fb6c2
    Total jobs = 1
    Launching Job 1 out of 1
    Number of reduce tasks determined at compile time: 1
    In order to change the average load for a reducer (in bytes):
      set hive.exec.reducers.bytes.per.reducer=<number>
    In order to limit the maximum number of reducers:
      set hive.exec.reducers.max=<number>
    In order to set a constant number of reducers:
      set mapreduce.job.reduces=<number>
    Starting Job = job_1547613046309_0001, Tracking URL = http://node1:8088/proxy/application_1547613046309_0001/
    Kill Command = /home/hadoop/apps/hadoop-2.6.0-cdh5.7.0/bin/hadoop job  -kill job_1547613046309_0001
    Hadoop job information for Stage-1: number of mappers: 1; number of reducers: 1
    2019-01-16 14:37:36,087 Stage-1 map = 0%,  reduce = 0%
    2019-01-16 14:37:41,289 Stage-1 map = 100%,  reduce = 0%, Cumulative CPU 1.34 sec
    2019-01-16 14:37:46,503 Stage-1 map = 100%,  reduce = 100%, Cumulative CPU 2.87 sec
    MapReduce Total cumulative CPU time: 2 seconds 870 msec
    Ended Job = job_1547613046309_0001
    MapReduce Jobs Launched: 
    Stage-Stage-1: Map: 1  Reduce: 1   Cumulative CPU: 2.87 sec   HDFS Read: 6461 HDFS Write: 2 SUCCESS
    Total MapReduce CPU Time Spent: 2 seconds 870 msec
    OK
    0
    Time taken: 23.504 seconds, Fetched: 1 row(s)
    hive> 
    
    

    3.3.2 测试2

    • 创建表 create table student(id int,name string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t';
    hive> create table student(id int,name string) ROW FORMAT DELIMITED FIELDS 
        > TERMINATED BY '\t';
    OK
    Time taken: 0.06 seconds
    hive> show tables;
    OK
    bf_log
    hive_wordcount
    student
    Time taken: 0.017 seconds, Fetched: 3 row(s)
    
    

    测试数据
    在这里插入图片描述

    • 导入数据 load data local inpath '/home/hadoop/student.txt' into table student;
    hive> select * from student;
    OK
    1001	MIke
    1002	John
    1003	Mary
    Time taken: 0.099 seconds, Fetched: 3 row(s)
    hive> select id from student;
    OK
    1001
    1002
    1003
    Time taken: 0.075 seconds, Fetched: 3 row(s)
    hive> 
    

    4 使用 MySQL

    • 将 mysql 驱动放到 lib 目录
      在这里插入图片描述
    • 查看安装的mysql
    [hadoop@node1 ~]$ rpm -qa | grep mysql
    mysql-community-server-5.7.10-1.el7.x86_64
    mysql-community-common-5.7.10-1.el7.x86_64
    mysql-community-libs-5.7.10-1.el7.x86_64
    mysql-community-client-5.7.10-1.el7.x86_64
    
    
    • hive-site.xml
    <configuration>
    <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://node1:3306/hivemetastore?createDatabaseIfNotExist=true&amp;useSSL=false</value>
    <description>JDBC connect string for a JDBC metastore</description>
    </property>
    
    <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
    <description>Driver class name for a JDBC metastore</description>
    </property>
    
    <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>root</value>
    <description>username to use against metastore database</description>
    </property>
    
    <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>root</value>
    <description>password to use against metastore database</description>
    </property>
    
    <property>
    	<name>hive.cli.print.header</name>
    	<value>true</value>
    </property>
    
    <property>
    	<name>hive.cli.print.current.db</name>
    	<value>true</value>
    </property>
    
    </configuration>
    
    • 查看 mysql 数据
      在这里插入图片描述
    展开全文
  • 8-1-1 配置灵活性 8-2 配置状态请求 8-3 配置状态响应 8-4 配置更新请求 8-5 配置更新响应 8-6 改变状态事件请求 8-7 改变状态事件响应 8-8 清除配置请求 8-9 清除配置响应 第9章 设备管理操作 9-1 固件...
  • 客运 是的核心。 Motr是一个针对配置的分布式对象存储系统。 为了确保最有效的存储利用率,Motr... 垂直可扩展性:节点上具有更多的内存CPU。 容错:灵活的擦除编码,考虑了硬件网络拓扑。 快速的网络突击修复。
  • Hive是什么? 由Facebook开源用于解决海量 结构化日志的数据统计; Hive是基于Hadoop的一个 数据仓库工具,可以将结构化的数据文件映射 成一张表,...本质是:将HQL转化成MapReduce 程序 灵活和扩展性比较好:支...

    Hive是什么?

    由Facebook开源用于解决海量 结构化日志的数据统计; Hive是基于Hadoop的一个 数据仓库工具,可以将结构化的数据文件映射 成一张表,并提供类SQL查询功能;

    构建在Hadoop 之上的数据仓库; 1. 使用HQL作为查询接口; 2. 使用HDFS存储; 3. 使用MapReduce计算;

    本质是:将HQL转化成MapReduce 程序 灵活性和扩展性比较好:支持UDF,自定义存储格式等; 适合离线数据处理;

    Hive架构

    用户接口: Client

    CLI(hive shell)、JDBC/ODBC(java访问hive),WEBUI(浏览器访问hive)

    元数据: Metastore

    元数据包括:表名、表所属的数据库(默认是default)、表的拥有者、列/ 分区字段、表的类型(是否是外部表)、表的数据所在目录等; 默认存储在自带的derby数据库中,推荐使用采用MySQL存储Metastore;

    Hadoop

    使用HDFS进行存储,使用MapReduce进行计算;

    驱动器: Driver

    包含:解析器、编译器、优化器、执行器;

    1. 解析器:将SQL字符串转换成抽象语法树AST,这一步一般都用第三方工 具库完成,比如antlr;对AST进行语法分析,比如表是否存在、字段是否 存在、SQL语义是否有误(比如select中被判定为聚合的字段在group by中是否有出现);
    2. 编译器:将AST编译生成逻辑执行计划;
    3. 优化器:对逻辑执行计划进行优化;
    4. 执行器:把逻辑执行计划转换成可以运行的物理计划。对于Hive来说,就是MR/TEZ/Spark;

    Hive的有点及使用场景

    1. 操作接口采用类SQL语法,提供快速开发的能力(简单、容易上手);
    2. 避免了去写MapReduce,减少开发人员的学习成本;
    3. 统一的元数据管理,可与impala/spark等共享元数据;
    4. 易扩展(HDFS+MapReduce:可以扩展集群规模;支持自定义函数);
    5. 数据的离线处理;比如:日志分析,海量结构化数据离线分析…
    6. Hive的执行延迟比较高,因此hive常用于数据分析的,对实时性要求 不高的场合;
    7. Hive优势在于处理大数据,对于处理小数据没有优势,因为Hive的执 行延迟比较高。

     

    下载

    • wget http://mirrors.hust.edu.cn/apache/hive/hive-2.3.2/apache-hive-2.3.2-bin.tar.gz

    • 解压到指定目录 tar -zxvf ..

    配置环境变量

    如果是对所有的用户都生效就修改vi /etc/profile 文件, 如果只针对当前用户生效就修改 vi ~/.bahsrc 文件。

    vim /etc/profile
    
    export HIVE_HOME=/home/hadoop/hive-2.3.0/
    
    export PATH=$PATH:$HIVE_HOME/bin
    

    使环境变量生效,运行 source /etc/profile使/etc/profile文件生效

    Hive 配置 Hadoop HDFS

    复制 hive-site.xml

    cd /home/hadoop/hive-2.3.0/conf
    cp hive-default.xml.template hive-site.xml
    

    新建 hdfs 目录

    使用 hadoop 新建 hdfs 目录,因为在 hive-site.xml 中有默认如下配置:

    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
        <description>location of default database for the warehouse</description>
    </property>
    

    进入 hadoop 安装目录 执行hadoop命令新建/user/hive/warehouse目录,并授权,用于存储文件

    cd /home/hadoop/hadoop-2.7.4
    
    bin/hadoop fs -mkdir -p /user/hive/warehouse  
    bin/hadoop fs -mkdir -p /user/hive/tmp  
    bin/hadoop fs -mkdir -p /user/hive/log  
    bin/hadoop fs -chmod -R 777 /user/hive/warehouse  
    bin/hadoop fs -chmod -R 777 /user/hive/tmp  
    bin/hadoop fs -chmod -R 777 /user/hive/log  
    

    用以下命令检查目录是否创建成功

    bin/hadoop fs -ls /user/hive
    

    修改 hive-site.xml

    搜索hive.exec.scratchdir,将该name对应的value修改为/user/hive/tmp

    <property>  
        <name>hive.exec.scratchdir</name>  
        <value>/user/hive/tmp</value>  
    </property>  
    

    搜索hive.querylog.location,将该name对应的value修改为/user/hive/log/hadoop

    <property>
        <name>hive.querylog.location</name>
        <value>/user/hive/log/hadoop</value>
        <description>Location of Hive run time structured log file</description>
    </property>
    

    搜索javax.jdo.option.connectionURL,将该name对应的value修改为MySQL的地址

    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://host:port/hive?createDatabaseIfNotExist=true</value>
        <description>
          JDBC connect string for a JDBC metastore.
          To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
          For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
        </description>
    </property>
    

    搜索javax.jdo.option.ConnectionDriverName,将该name对应的value修改为MySQL驱动类路径

    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <description>Driver class name for a JDBC metastore</description>
    </property>
    

    搜索javax.jdo.option.ConnectionUserName,将对应的value修改为MySQL数据库登录名

    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>hive1</value>
        <description>Username to use against metastore database</description>
    </property>
    

    搜索javax.jdo.option.ConnectionPassword,将对应的value修改为MySQL数据库的登录密码

    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>mima</value>
        <description>password to use against metastore database</description>
    </property>
    

    创建 tmp 文件

    mkdir /home/hadoop/hive-2.3.0/tmp
    

    并在 hive-site.xml 中修改

    把{system:java.io.tmpdir} 改成 /home/hadoop/hive-2.3.0/tmp

    把 {system:user.name} 改成 {user.name}

    新建 hive-env.sh

    cp hive-env.sh.template hive-env.sh
    
    vi hive-env.sh
    
    HADOOP_HOME=/home/hadoop/hadoop-2.7.4/
    export HIVE_CONF_DIR=/home/hadoop/hive-2.3.0/conf
    export HIVE_AUX_JARS_PATH=/home/hadoop/hive-2.3.0/lib
    

    下载 mysql 驱动包

    cd /home/hadoop/hive-2.3.0/lib
    
    wget http://central.maven.org/maven2/mysql/mysql-connector-java/5.1.38/mysql-connector-java-5.1.38.jar
    

    初始化 mysql

    MySQL数据库进行初始化 首先确保 mysql 中已经创建 hive 库

    cd /home/hadoop/hive-2.3.0/bin
    ./schematool -initSchema -dbType mysql
    

    如果看到如下,表示初始化成功

    Starting metastore schema initialization to 2.3.0
    Initialization script hive-schema-2.3.0.mysql.sql
    Initialization script completed
    schemaTool completed
    

    如果出现没有权限的问题,在mysql授权(在安装mysql的机器上执行)

    mysql -uroot -p
    #(执行下面的语句  *.*:所有库下的所有表   %:任何IP地址或主机都可以连接)
    GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'root' WITH GRANT OPTION;
    FLUSH PRIVILEGES;
    

    启动hive

    cd bin
    ./hive
    

    问题

    hive Call From node1/ip to node1:9000 failed on connection exception: java.net.ConnectException: Connection refused

    • 以上问题一般就是hadoop没有启动

     

    https://segmentfault.com/a/1190000011303459

    转载于:https://www.cnblogs.com/tianboblog/p/8591979.html

    展开全文
  •  传统数据采集卡多采用PCI或ISA总线接口,这种方式安装麻烦、价格昂贵,且受计算机插槽数量、地址、中断资源限制,有扩展性差等缺点。而USB通用串行总线则具有安装方便、高带宽、易扩展等优点,其中USB2.0标准具有...
  • :thinking_face: 可扩展性足以添加您自己的功能 安装 # with npm $ npm i -g foxman # or with yarn $ yarn global add foxman :warning: foxman在6.4.0下不支持nodejs 快速开始 1.配置 只需在项目根目录中填充一...
  • 0引言传统数据采集卡多采用PCI或ISA总线接口,这种方式安装麻烦、价格昂贵,且受计算机插槽数量、地址、中断资源限制,有扩展性差等缺点。而USB通用串行总线则具有安装方便、高带宽、易扩展等优点,其中USB2.0标准...
  • 产品配置管理能够建立完整的BOM表,实现其版本控制,高效、灵活的检索与查询最新的产品数据,实现产品数据的安全性和完整控制。产品配置管理能够使企业的各个部门在产品的整个生命周期内共享统一的产品配置,并且...
  •  传统数据采集卡多采用PCI或ISA总线接口,这种方式安装麻烦、价格昂贵,且受计算机插槽数量、地址、中断资源限制,有扩展性差等缺点。而USB通用串行总线则具有安装方便、高带宽、易扩展等优点,其中USB2.0标准具有...
  • MeterSphere 是一站式开源持续测试平台,涵盖测试跟踪、接口测试、性能测试、团队协作等功能,兼容JMeter 等开源标准,有效助力开发测试团队充分利用云弹性进行高度可扩展的自动化测试,加速高质量软件的交付。...
  • ZL2005P中文数据手册

    2014-08-05 01:15:16
    扩展性,同时减少电路板空间要求 设计的复杂性.Zilker Labs数字直流技 nology实现了独特的性能 无论是传统的模拟或不可用的功能 新的数字方法,解决问题associ - ated与提供多个低电压电源 域在一个PCB上. 该ZL...
  • 以DSP作为核心,配以FPGA作为外围接口扩展和管理,进行了控制器设计。... DSP强大的数据运算能力与FPGA的灵活性相结合,使得控制器具有灵活性好、通用强以及高速、高精度的特点,满足多种场合应用。
  • 由于使用了扩展验证协议(EAP),802.1x在请求者验证者之间采用的实际验证机制相当灵活。EAP原先是为点对点(PPP)链路上的应用而定义的, 在因特网工程任务组的请求评论文档(RFC)2284中得到了明确定义。 ...
  • CC3220数据手册.pdf

    2020-03-12 22:43:05
    借助以下特性,实现灵活的 Wi-Fi 配置: SmartConfig™技术、AP 模式 WPS2 选项 RESTful API 允许使用内部 HTTP 服务器 广泛的安全 特性: 硬件 特性: 独立执行环境 器件标识 可实现高级快速安全的硬件...
  • - 灵活的端口映射禁止顺序,支持多平台设计 • PortSwap - 可编程USB差分对引脚位置,它可使USB信号 线与连接器直接对齐,从而简化PCB设计 • PHYBoost - 可编程USB收发器驱动强度,用于恢复信号完 整 特性 • ...
  • JMeter是一个纯粹的...轻量级,其他测试工具相比更加灵活性 ----------------------------------------------------------------------------- 以上资源仅供学习交流,感兴趣的可以去我的更多分享资源下载,谢谢!
  • 主要特征: l 完全一至的用户接口 l 运行时配置和监控 l 支持多个连接访问 l 用户策略配置 l 活动历史记录,undo/redo操作 l 安全模式操作 l Scripts能事先安排执行时间和执行内容,脚本支持所有的命令操作。...
  • QCA 9882支持多达两个同时的业务流,将两个TX和两个Rx链集成在一起,以实现高吞吐量和扩展覆盖。Tx链结合PHY同相(I)和正交(Q)sigNAL,将它们转换到所需的频率,并将RF信号驱动到多个天线。RX链使用集成的体系结构。...
  • 1.1.3 可扩展性  1.1.4 MapReduce  1.2 面向列的有序存储  1.3 键/值存储  1.4 文档数据库  1.5 图形数据库  1.6 小结  第2章 NoSQL上手初体验  2.1 第一印象——两个简单的例子  2.1.1 简单的...
  • 数据仓库基础

    2012-03-29 13:25:26
    数据仓库和数据集市.............................................................................................................44 它们有什么不同?.........................................................
  • 这通常会降低搜索的准确,但这些方法可在单个服务器上的主存储器中扩展到数十亿个向量。该 GPU 实现可接受来自 CPU 或 GPU 内存的输入。在一个带有 GPU 的服务器上,其 GPU 索引可以被用作其 CPU 索引的插入替换...

空空如也

空空如也

1 2 3 4 5 ... 16
收藏数 318
精华内容 127
关键字:

数据接口灵活配置和扩展性