hbase 订阅
HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。 展开全文
HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统”。就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。
信息
系    统
Google
属    性
开源数据库
结    构
分布式存储系统
来    源
Fay Chang 所撰写的“Bigtable
中文名
HBase
隶    属
Apache的Hadoop项目
HBase结构介绍
HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。与FUJITSU Cliq等商用大数据产品不同,HBase是Google Bigtable的开源实现,类似Google Bigtable利用GFS作为其文件存储系统,HBase利用Hadoop HDFS作为其文件存储系统;Google运行MapReduce来处理Bigtable中的海量数据,HBase同样利用Hadoop MapReduce来处理HBase中的海量数据;Google Bigtable利用 Chubby作为协同服务,HBase利用Zookeeper作为对应。 [1]  上图描述Hadoop EcoSystem中的各层系统。其中,HBase位于结构化存储层,Hadoop HDFS为HBase提供了高可靠性的底层存储支持,Hadoop MapReduce为HBase提供了高性能的计算能力,Zookeeper为HBase提供了稳定服务和failover机制。 此外,Pig和Hive还为HBase提供了高层语言支持,使得在HBase上进行数据统计处理变的非常简单。 Sqoop则为HBase提供了方便的RDBMS数据导入功能,使得传统数据库数据向HBase中迁移变的非常方便。
收起全文
精华内容
下载资源
问答
  • hbase
    千次阅读
    2018-08-03 11:34:02

    一、hbase

    HBase是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统。

     适合于存储大表数据(表的规模可以达到数十亿行以及数百万列),并且对大表数据的读、写访问可以达到实时级别;
     利用Hadoop HDFS(Hadoop Distributed File System)作为其文件存储系统,提供高可靠性、高性能、列存储、可伸缩、实时读写的数据库系统;
     利用ZooKeeper作为协同服务。

    与RMDB比较:

    HBase
    分布式存储,面向列。
    动态扩展列。
    普通商用硬件支持,扩容成本低。
    RMDB
    数据结构固定。
    需要预先定义好数据结构。
    需要大量IO,扩展成本大。

    HBase适合具有如下需求的应用:

    海量数据(TB、PB)
    高吞吐量
    需要在海量数据中实现高效的随机读取
    需要很好的性能伸缩能力
    能够同时处理结构化和非结构化的数据
    不需要完全拥有传统关系型数据库所具备的ACID特性

    数据结构介绍:

    结构化数据
     具有固定的结构,属性划分,以及类型等信息。我们通常所理解的关系型数据库中所存储的数据信息,大多是结构化数据, 如职工信息表,拥有ID、Name、Phone、Address等属性信息。
     通常直接
    更多相关内容
  • 一、 HBase技术介绍 HBase简介 HBase – Hadoop Database,是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,利用HBase技术可在廉价PC Server上搭建起大规模结构化存储集群。 HBase是Google Bigtable的开源...
  • 搭建pinpoint需要的hbase初始化脚本hbase-create.hbase
  • HBase官方文档中文版-HBase官方手册中文版.
  • hbase phoenix 客户端连接jdbc的jar包,SQuirreL SQL Client,DbVisualizer 等客户端连接hbase配置使用
  • hbase不同版本jar包.rar

    2019-08-07 10:05:48
    hbase 1.2.0和1.2.6两个版本的jar依赖包,java,Eclipse开发,导入对应版本的依赖包
  • python3 使用 thrift 操作hbase 安装hbase-thirft后有一个Hbase报错 使用这个修改完成的Hbase类替换掉原来的Hbase类问题全部解决 主要是因为python版本兼容性带来的问题
  • 可以通过GUI管理Hbase数据库,支持多种过滤器查询,转载自https://sourceforge.net/projects/hbasemanagergui/
  • Hbase个人总结

    2018-01-27 18:03:59
    大数据 Hbase的学习个人总结文档,主要讲述了,Hbase的基础知识
  • Hbase 可视化客户端工具(非phoenix连接),支持Hbase1.x,配置方便,类似PL/SQL,是一个HBase数据库的客户端数据管理软件。
  • hbase存储csv数据

    2018-02-27 15:45:15
    简单的介绍了habse存储数据的样子和简单的hbase shell 使用
  • springboot 集成 phoenix+hbase整合,完整demo。 springboot集成phoenix+hbase 完整demo!!!!!!! springboot phoenix hbase
  • HBase权威指南》探讨了如何通过使用与HBase高度集成的Hadoop将HBase的可伸缩性变得简单;把大型数据集分布到相对廉价的商业服务器集群中;使用本地Java客户端,或者通过提供了REST、Avro和Thrift应用编程接口的...
  • HbaseTemplate 操作hbase

    热门讨论 2015-04-10 09:58:38
    java 利用 sping-data-hadoop HbaseTemplate 操作hbase find get execute 等方法 可以直接运行
  • 支持最新版本HBase的图形化管理工具,如果再有新版本不支持了的话,请给我留言,我会进行更新。本次版本更新时间为2017-04-06
  • HBase的安装与配置,HBase管理与HBase Shell。 1、掌握HBase数据库服务的启动、停止; 2、掌握HBase Shell操作命令; 3、掌握使用HBase Shell命令创建表; 4、掌握使用HBase Shell操作数据表。
  • phoenix-hbase各个版本源码的下载地址,由于phoenix对hbase的版本有要求,所以大家根据自己环境的情况下载
  • 文章目录1 HBase 简介1.1 HBase 定义1.2 HBase 数据模型1.2.1 HBase 逻辑结构1.2.2 HBase 物理存储结构1.2.3 数据模型1.3 HBase 基本架构2 HBase 快速入门1.2.3 自定义存储 offset1.3 自定义 Interceptor1.3.1 拦截...


    1 HBase 简介

    1.1 HBase 定义

    HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。

    1.2 HBase 数据模型

    逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从HBase 的底层物理存储结构(K-V)来看,HBase 更像是一个multi-dimensional map

    1.2.1 HBase 逻辑结构

    请添加图片描述

    1.2.2 HBase 物理存储结构

    在这里插入图片描述

    1.2.3 数据模型

    1. Name Space
    命名空间,类似于关系型数据库的 DatabBase 概念,每个命名空间下有多个表。HBase 有两个自带的命名空间,分别是 hbase 和 default,hbase 中存放的是 HBase 内置的表,default 表是用户默认使用的命名空间。

    2. Region
    类似于关系型数据库的表概念。不同的是,HBase 定义表时只需要声明列族即可,不需要声明具体的列。这意味着,往 HBase 写入数据时,字段可以动态、按需指定。因此,和关系型数据库相比,HBase 能够轻松应对字段变更的场景。

    3. Row
    HBase 表中的每行数据都由一个 RowKey 和多个 Column(列)组成,数据是按照 RowKey 的字典顺序存储的,并且查询数据时只能根据 RowKey 进行检索,所以 RowKey 的设计十分重要。

    4. Column
    HBase 中的每个列都由 Column Family (列族)和 Column Qualifier(列限定符)进行限定,例如 info:name,info:age。建表时,只需指明列族,而列限定符无需预先定义。

    5. Time Stamp
    用于标识数据的不同版本(version),每条数据写入时,如果不指定时间戳,系统会自动为其加上该字段,其值为写入 HBase 的时间。

    6. Cell
    {rowkey, column Family:column Qualifier, time Stamp}唯一确定的单元。cell 中的数据是没有类型的,全部是字节码形式存储。

    1.3 HBase 基本架构

    HBase 架构(不完整版)请添加图片描述
    1. Region Server
    Region Server 为 Region 的管理者,其实现类为 HRegionServer,主要作用如下:
    对于数据的操作:get, put, delete;
    对于Region 的操作:splitRegion、compactRegion。

    2. Master
    Master 是所有 Region Server 的管理者,其实现类为 HMaster,主要作用如下:
    对于表的操作:create, delete, alter
    对于 RegionServer 的操作:分配 regions 到每个 RegionServer,监控每个 RegionServer 的状态,负载均衡和故障转移。

    3. Zookeeper
    HBase 通过 Zookeeper 来做 Master 的高可用、RegionServer 的监控、元数据的入口以及集群配置的维护等工作。

    4. HDFS
    HDFS 为 HBase 提供最终的底层数据存储服务,同时为 HBase 提供高可用的支持。

    2 HBase 快速入门

    2.1 HBase 安装部署

    1. Zookeeper 正常部署
    首先保证 Zookeeper 集群的正常部署,并启动:

    [Tom@hadoop102 zookeeper-3.5.9]$ bin/zkServer.sh start
    [Tom@hadoop103 zookeeper-3.5.9]$ bin/zkServer.sh start
    [Tom@hadoop104 zookeeper-3.5.9]$ bin/zkServer.sh start
    

    2. Hadoop 正常部署
    Hadoop 集群的正常部署并启动:

    [Tom@hadoop102 hadoop-3.1.3]$ sbin/start-dfs.sh
    [Tom@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
    

    3. HBase 解压
    解压 Hbase 到指定目录:

    [Tom@hadoop102 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /opt/module
    

    4. HBase 的配置文件
    修改 HBase 对应的配置文件。
    (1)hbase-env.sh修改内容:

    export JAVA_HOME=/opt/module/jdk1.8.0_212
    export HBASE_MANAGES_ZK=false
    

    (2)hbase-site.xml修改内容:

    <configuration>
    
            <property>
                    <name>hbase.rootdir</name>
                    <value>hdfs://hadoop102:8020/HBase</value>
            </property>
    
            <property>
                    <name>hbase.cluster.distributed</name>
                    <value>true</value>
            </property>
    
            <!--0.98后的新变动,之前版本没有.port,默认端口为60000 -->
            <property>
                    <name>hbase.master.port</name>
                    <value>16000</value>
            </property>
    
            <property>
                    <name>hbase.zookeeper.quorum</name>
                    <value>hadoop102,hadoop103,hadoop104</value>
            </property>
    
            <property>
                    <name>hbase.zookeeper.property.dataDir</name>
                    <value>/opt/module/zookeeper-3.5.9/zkData</value>
            </property>
    
    </configuration>
    

    (3)regionservers

    hadoop102
    hadoop103
    hadoop104
    

    (4)软连接 hadoop 配置文件到 HBase

    [Tom@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/core-site.xml /opt/module/hbase-1.3.1/conf/core-site.xml
    [Tom@hadoop102 module]$ ln -s /opt/module/hadoop-3.1.3/etc/hadoop/hdfs-site.xml /opt/module/hbase-1.3.1/conf/hdfs-site.xml
    

    5. HBase 远程发送到其他集群

    [Tom@hadoop102 hbase-1.3.1]$ xsync hbase-1.3.1/
    

    6. HBase 服务的启动
    (1)启动方式1

    [Tom@hadoop102 hbase-1.3.1]$ bin/hbase-daemon.sh start master
    [Tom@hadoop102 hbase-1.3.1]$ bin/hbase-daemon.sh start regionserver
    

    (2)启动方式2

    [Tom@hadoop102 hbase-1.3.1]$ bin/start-hbase.sh
    

    对应的停止服务:

    [huxili@hadoop102 hbase-1.3.1]$ bin/stop-hbase.sh
    

    7. 查看 Hbase 页面
    启动成功后,可以通过“host:port”的方式来访问 HBase 管理页面,例如:
    http://hadoop102:16010
    在这里插入图片描述

    2.2 HBase Shell 操作

    2.2.1 基本操作

    1. .进入 HBase 客户端命令行

    [Tom@hadoop102 hbase-1.3.1]$ bin/hbase shell
    

    2. 查看帮助命令:

    hbase(main):001:0> help
    

    3. 查看当前数据库中有哪些表

    hbase(main):002:0> list
    TABLE                                                                                                                                                                                                                  
    0808:stu5                                                                                                                                                                                                              
    fruit                                                                                                                                                                                                                  
    fruit1                                                                                                                                                                                                                 
    fruit2                                                                                                                                                                                                                 
    stu                                                                                                                                                                                                                    
    stu2                                                                                                                                                                                                                   
    stu3                                                                                                                                                                                                                   
    stu4                               
    

    2.2.2 表的操作

    1. 创建表

    hbase(main):003:0> create 'student', 'info'
    

    2. 插入数据到表

    hbase(main):004:0> put 'student', '1001', 'info:sex', 'male'
    0 row(s) in 0.3020 seconds
    
    hbase(main):005:0> put 'student', '1001', 'info:age', '20'
    0 row(s) in 0.0330 seconds
    
    hbase(main):006:0> put 'student', '1002', 'info:name', 'Lisa'
    0 row(s) in 0.0160 seconds
    
    hbase(main):007:0> put 'student', '1002', 'info:sex', 'female'
    0 row(s) in 0.0220 seconds
    
    hbase(main):008:0> put 'student', '1002', 'info:age', '18'
    0 row(s) in 0.0160 seconds
    

    3. 扫描查看表数据

    hbase(main):010:0> scan 'student'
    ROW                                                    COLUMN+CELL                                                                                                                                                     
     1001                                                  column=info:age, timestamp=1632647694467, value=20                                                                                                              
     1001                                                  column=info:sex, timestamp=1632647667974, value=male                                                                                                            
     1002                                                  column=info:age, timestamp=1632647796278, value=18                                                                                                              
     1002                                                  column=info:name, timestamp=1632647750748, value=Lisa                                                                                                           
     1002                                                  column=info:sex, timestamp=1632647777073, value=female   
    
    hbase(main):012:0> scan 'student',{STARTROW => '1001',STOPROW => '1001'}
    ROW                                                    COLUMN+CELL                                                                                                                                                     
     1001                                                  column=info:age, timestamp=1632647694467, value=20                                                                                                              
     1001                                                  column=info:sex, timestamp=1632647667974, value=male   
    
    hbase(main):013:0> scan 'student',{STARTROW => '1001'}
    ROW                                                    COLUMN+CELL                                                                                                                                                     
     1001                                                  column=info:age, timestamp=1632647694467, value=20                                                                                                              
     1001                                                  column=info:sex, timestamp=1632647667974, value=male                                                                                                            
     1002                                                  column=info:age, timestamp=1632647796278, value=18                                                                                                              
     1002                                                  column=info:name, timestamp=1632647750748, value=Lisa                                                                                                           
     1002                                                  column=info:sex, timestamp=1632647777073, value=female 
    

    4. 查看表结构

    hbase(main):014:0> describe 'student'
    Table student is ENABLED                                                                                                                                                                                               
    student                                                                                                                                                                                                                
    COLUMN FAMILIES DESCRIPTION                                                                                                                                                                                            
    {NAME => 'info', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0', BLOCKCACHE =>
     'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}     
    

    5. 更新指定字段的数据

    hbase(main):015:0> put 'student','1001','info:name','Tom'
    0 row(s) in 0.0500 seconds
    
    hbase(main):016:0> put 'student','1001','info:age','25'
    0 row(s) in 0.0220 seconds
    

    6. 查看“指定行”或“指定列族:列”的数据

    hbase(main):017:0> get 'student','1001'
    COLUMN                                                 CELL                                                                                                                                                            
     info:age                                              timestamp=1632648276467, value=25                                                                                                                               
     info:name                                             timestamp=1632648250164, value=Tom                                                                                                                              
     info:sex                                              timestamp=1632647667974, value=male                                                                                                                             
    1 row(s) in 0.0600 seconds
    
    hbase(main):018:0> get 'student','1001','info:name'
    COLUMN                                                 CELL                                                                                                                                                            
     info:name                                             timestamp=1632648250164, value=Tom                                                                                                                              
    1 row(s) in 0.0280 seconds
    

    7. 统计表数据行数

    hbase(main):019:0> count 'student'
    2 row(s) in 0.0430 seconds
    
    => 2
    

    8. 删除数据
    删除某 rowkey 的全部数据:

    hbase(main):020:0> deleteall 'student', '1001'
    

    删除某 rowkey 的某一列数据:

    hbase(main):021:0> delete 'student','1002','info:sex'
    0 row(s) in 0.0170 seconds
    

    9. 清空表数据

    hbase(main):023:0> truncate 'student'
    Truncating 'student' table (it may take a while):
     - Disabling table...
     - Truncating table...
    

    提示:清空表的操作顺序为先 disable,然后再 truncate。

    10. 删除表
    首先需要先让该表为 disable 状态:

    hbase(main):025:0> disable 'student'
    

    然后才能 drop 这个表:

    hbase(main):026:0> drop 'student'
    0 row(s) in 1.2890 seconds
    

    提示:如果直接 drop 表,会报错:ERROR: Table student is enabled. Disable it first.

    hbase(main):024:0> drop 'student'
    
    ERROR: Table student is enabled. Disable it first.
    

    11. 变更表信息
    将 info 列族中的数据存放3 个版本:

    hbase(main):004:0> alter 'stu',{NAME=>'info2',VERSIONS=>3}
    
    hbase(main):005:0> get 'stu','1001',{COLUMN=>'info2:name',VERSIONS=>3}
    COLUMN                                                 CELL                                                                                                                                                            
     info2:name                                            timestamp=1632655775242, value=Nick                                                                                                                             
     info2:name                                            timestamp=1632654981999, value=Green                                                                                                                            
     info2:name                                            timestamp=1632654964002, value=Jack                                                                                                                             
    1 row(s) in 0.0440 seconds
    

    3 HBase 进阶

    3.1 架构原理

    在这里插入图片描述
    1. StoreFile
    保存实际数据的物理文件,StoreFile 以 HFile 的形式存储在 HDFS 上。每个 Store 会有一个或多个StoreFile(HFile),数据在每个 StoreFile 中都是有序的。

    2. MemStore
    写缓存,由于 HFile 中的数据要求是有序的,所以数据是先存储在 MemStore 中,排好序后,等到达刷写时机才会刷写到 HFile,每次刷写都会形成一个新的HFile。

    3. WAL
    由于数据要经 MemStore 排序后才能刷写到 HFile,但把数据保存在内存中会有很高的概率导致数据丢失,为了解决这个问题,数据会先写在一个叫做 Write-Ahead logfile 的文件中,然后再写入 MemStore 中。所以在系统出现故障的时候,数据可以通过这个日志文件重建。

    3.2 写流程

    请添加图片描述
    写流程:
    (1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。

    (2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。

    (3)与目标 Region Server 进行通讯。

    (4)将数据顺序写入(追加)到 WAL。

    (5)将数据写入对应的 MemStore,数据会在 MemStore 进行排序。

    (6)向客户端发送 ack;

    (7)等达到 MemStore 的刷写时机后,将数据刷写到 HFile。

    3.3 MemStore Flush

    在这里插入图片描述
    MemStore 刷写时机:
    1.当某个 memstroe 的大小达到了 hbase.hregion.memstore.flush.size(默认值128M),其所在 region 的所有 memstore 都会刷写。
    当 memstore 的大小达到了hbase.hregion.memstore.flush.size(默认值128M)* hbase.hregion.memstore.block.multiplier(默认值4)时,会阻止继续往该 memstore 写数据。

    2. 当 region server 中 memstore 的总大小达到java_heapsize *hbase.regionserver.global.memstore.size(默认值0.4) *hbase.regionserver.global.memstore.size.lower.limit(默认值0.95),region 会按照其所有 memstore 的大小顺序(由大到小)依次进行刷写。直到 region server 中所有 memstore 的总大小减小到上述值以下。
    当 region server 中 memstore 的总大小达到java_heapsize*hbase.regionserver.global.memstore.size(默认值0.4)时,会阻止继续往所有的memstore 写数据。

    3.到达自动刷写的时间,也会触发 memstore flush。自动刷新的时间间隔由该属性进行配置hbase.regionserver.optionalcacheflushinterval(默认1 小时)

    4.当 WAL 文件的数量超过hbase.regionserver.max.logs,region 会按照时间顺序依次进行刷写,直到 WAL 文件数量减小到 hbase.regionserver.max.log 以下(该属性名已经废弃,现无需手动设置,最大值为32)。

    3.4 读流程

    请添加图片描述
    (1)Client 先访问 zookeeper,获取 hbase:meta 表位于哪个 Region Server。

    (2)访问对应的 Region Server,获取 hbase:meta 表,根据读请求的 namespace:table/rowkey,查询出目标数据位于哪个 Region Server 中的哪个 Region 中。并将该 table 的 region 信息以及 meta 表的位置信息缓存在客户端的 meta cache,方便下次访问。

    (3)与目标 Region Server 进行通讯。

    在消息发送的过程中,涉及到了两个线程:main 线程和 Sender 线程 ,以及一个线程共享变量RecordAccumulator。main 主线程负责创建消息,然后通过拦截器、序列化器、分区器作用之后缓存到累加器RecordAccumulator中,Sender 线程不断从 RecordAccumulator中拉取消息发送到 Kafka broker。

    (4)分别在 Block Cache(读缓存),MemStore 和 Store File(HFile)中查询目标数据,并将查到的所有数据进行合并。此处所有数据是指同一条数据的不同版本(time stamp)或者不同的类型(Put/Delete)。

    (5)将从文件中查询到的数据块(Block,HFile 数据存储单元,默认大小为64KB)缓存到 Block Cache。

    (6)将合并后的最终结果返回给客户端。

    3.5 StoreFile Compaction

    由于 memstore 每次刷写都会生成一个新的 HFile,且同一个字段的不同版本(timestamp)和不同类型(Put/Delete)有可能会分布在不同的 HFile 中,因此查询时需要遍历所有的 HFile。为了减少 HFile 的个数,以及清理掉过期和删除的数据,会进行 StoreFile Compaction。
    Compaction 分为两种,分别是 Minor Compaction 和 Major Compaction。Minor Compaction 会将临近的若干个较小的 HFile 合并成一个较大的 HFile,但不会清理过期和删除的数据。Major Compaction 会将一个Store 下的所有的 HFile 合并成一个大 HFile,并且会清理掉过期和删除的数据。
    在这里插入图片描述

    3.6 Region Split

    默认情况下,每个 Table 起初只有一个 Region,随着数据的不断写入,Region 会自动进行拆分。刚拆分时,两个子 Region 都位于当前的 Region Server,但处于负载均衡的考虑,HMaster 有可能会将某个 Region 转移给其他的 Region Server。
    Region Split 时机:
    1.当1 个 region 中的某个 Store 下所有 StoreFile 的总大小超过hbase.hregion.max.filesize,该Region 就会进行拆分(0.94 版本之前)。
    2. 当1 个 region 中的某个 Store 下所有 StoreFile 的总大小超过Min(R^2 * "hbase.hregion.memstore.flush.size",hbase.hregion.max.filesize"),该Region 就会进行拆分,其中 R 为当前 Region Server 中属于该 Table 的个数(0.94 版本之后)。
    在这里插入图片描述

    参考:
    https://www.bilibili.com/video/BV1Y4411B7jy

    展开全文
  • HBase实践

    千次阅读 2022-04-17 22:36:48
    HBase实践 1.下载HBase 查看版本号对应的java,Hadoop https://hbase.apache.org/book.html#configuration 下载地址:https://archive.apache.org/dist/hbase/stable/ 我下载的版本是stable版本: 2.HBase2.4.10...

    HBase实践

    1.下载HBase

    查看版本号对应的java,Hadoop

    https://hbase.apache.org/book.html#configuration

    在这里插入图片描述

    下载地址:https://archive.apache.org/dist/hbase/stable/

    我下载的版本是stable版本:

    在这里插入图片描述

    在这里插入图片描述

    在这里插入图片描述

    2.HBase2.4.10安装

    1.1 解压安装包hbase-2.2.2-bin.tar.gz至路径 /usr/local,命令如下:

    cd ~/Downloads/
    

    解压到/usr/local下

    sudo tar -zxf ./hbase-2.4.11-bin.tar.gz -C /usr/local
    
    

    1.2 将解压的文件名hbase-2.4.10改为hbase,以方便使用,命令如下:

    cd /usr/local
    
    sudo mv ./hbase-2.4.11 ./hbase
    

    下面把hbase目录权限赋予给当前用户:houbao更改为当前用户

    sudo chown -R houbao ./hbase
    
    

    1.3 配置环境变量

    vim ~/.bashrc
    
    export HADOOP_HOME=/usr/local/hadoop
    export HBASE_HOME=/usr/local/hbase#新添加的
    export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_321
    
    export SCALA_HOME=/usr/local/scala
    export SPARK_HOME=/usr/local/spark
    
    export JRE_HOME=${JAVA_HOME}/jre
    
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
    #新修改的
    export PATH=${JAVA_HOME}/bin:${SCALA_HOME}/bin:${SPARK_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${HBASE_HOME}/bin:$PATH
    

    编辑完成后,再执行source命令使上述配置在当前终端立即生效,命令如下:

    source ~/.bashrc
    

    1.4查看HBase版本,确定hbase安装成功,命令如下:

    hbase version
    

    3.HBase配置(伪分布)

    1.配置/usr/local/hbase/conf/hbase-env.sh。命令如下:

    sudo vim /usr/local/hbase/conf/hbase-env.sh
    

    配置JAVA_HOME,HBASE_CLASSPATH,HBASE_MANAGES_ZK.
    HBASE_CLASSPATH设置为本机HBase安装目录下的conf目录(即/usr/local/hbase/conf)

    export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_321
    export HBASE_MANAGES_ZK=true
    export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"
    
    

    2.配置/usr/local/hbase/conf/hbase-site.xml

    用命令vi打开并编辑hbase-site.xml,命令如下:

    sudo vim /usr/local/hbase/conf/hbase-site.xml
    

    修改hbase.rootdir,指定HBase数据在HDFS上的存储路径;将属性hbase.cluter.distributed设置为true。假设当前Hadoop集群运行在伪分布式模式下,在本机上运行,且NameNode运行在9000端口。

     <configuration>
         <property>
      <name>hbase.rootdir</name>
      <value>hdfs://localhost:9000/hbase</value>
    </property>
            <property>
            <name>hbase.tmp.dir</name>
            <value>/usr/local/hbase/tmp</value>
        </property>
            <property>
                    <name>hbase.cluster.distributed</name>
                    <value>true</value>
            </property>
            <property>
            <name>hbase.unsafe.stream.capability.enforce</name>
            <value>false</value>
        </property>
    </configuration>
    
    

    hbase.rootdir指定HBase的存储目录;hbase.cluster.distributed设置集群处于分布式模式.
    另外,上面配置文件中,hbase.unsafe.stream.capability.enforce这个属性的设置,是为了避免出现启动错误。也就是说,如果没有设置hbase.unsafe.stream.capability.enforce为false,那么,在启动HBase以后,会出现无法找到HMaster进程的错误,启动后查看系统启动日志(/usr/local/hbase/logs/hbase-hadoop-master-ubuntu.log),会发现如下错误:

    2020-01-25 15:04:56,916 ERROR [master/localhost:16000:becomeActiveMaster] master.HMaster: Failed to become active master
    java.lang.IllegalStateException: The procedure WAL relies on the ability to hsync for proper operation during component failures, but the underlying filesystem does not support doing so. Please check the config value of 'hbase.procedure.store.wal.use.hsync' to set the desired level of robustness and ensure the config value of 'hbase.wal.dir' points to a FileSystem mount that can provide it.
    

    3.接下来测试运行HBase

    启动hadoop

    start-dfs.sh
    

    输入命令jps,能看到NameNode,DataNode和SecondaryNameNode都已经成功启动,表示hadoop启动成功,截图如下:

    在这里插入图片描述

    第二步:切换目录至/usr/local/hbase(如果按照我的要求配置了环境变量,可以不切换);再启动HBase.命令如下:

    start-hbase.sh
    

    在这里插入图片描述

    选择yes

    输入jps

    在这里插入图片描述

    进入shell界面

    hbase shell
    

    今天关闭HBase时,输入stop-hbase.sh一直处于等待状态

    解决方法:

    先输入

    hbase-daemon.sh stop master
    hbase-daemons.sh stop regionserver
    

    再输入:stop-hbase.sh就可以关闭HBase集群了。

    二、 编程实践

    1. 利用Shell命令

    1.1 HBase中创建表

    HBase中用create命令创建表,具体如下:进入shell

    hbase shell
    
    create 'student','Sname','Ssex','Sage','Sdept','course'
    

    报错

    ERROR: KeeperErrorCode = NoNode for /hbase/master
    

    端口对应起来:9000

    ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet

    原因是由于hadoop的安全模式打开了,解决方法:

    hdfs dfsadmin -safemode leave

    hdfs dfsadmin -safemode leave
    

    在这里插入图片描述

    搜了一圈,有人说是Hadoop版本3.3.x高了导致的兼容问题,要么就是hdfs进入安全模式了,但是实际上通过对hbase/conf/hbase-env.sh修改,去掉注释export HBASE_DISABLE_HADOOP_CLASSPATH_LOOKUP="true"后,可以再试试,成功执行。
    ————————————————
    版权声明:本文为CSDN博主「网名很难取诶」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。
    原文链接:https://blog.csdn.net/u011946741/article/details/122477894

    在这里插入图片描述

    1.1.1查看表

    describe 'student'
    

    在这里插入图片描述

    1.2 HBase数据库基本操作

    1. 添加数据
    put 'student','95001','Sname','LiYing'
    put 'student','95001','course:math','80'
    

    2.删除数据

    delete 'student','95001','Ssex'
    

    查验

    get 'student','95001'
    

    \2. deleteall命令

    deleteall 'student','95001'
    

    \2. scan命令

    scan 'student'
    
    • 删除表
      删除表有两步,第一步先让该表不可用,第二步删除表。
    disable 'student'  
    drop 'student'
    

    1.3 查询表历史数据

    查询表的历史版本,需要两步。
    1、在创建表的时候,指定保存的版本数(假设指定为5)

    create 'teacher',{NAME=>'username',VERSIONS=>5}
    

    2、插入数据然后更新数据,使其产生历史版本数据,注意:这里插入数据和更新数据都是用put命令

    put 'teacher','91001','username','Mary'
    put 'teacher','91001','username','Mary1'
    put 'teacher','91001','username','Mary2'
    put 'teacher','91001','username','Mary3'
    put 'teacher','91001','username','Mary4'  
    put 'teacher','91001','username','Mary5'
    

    3、查询时,指定查询的历史版本数。默认会查询出最新的数据。(有效取值为1到5)

    get 'teacher','91001',{COLUMN=>'username',VERSIONS=>5}
    

    1.4 退出HBase数据库表操作

    最后退出数据库操作,输入exit命令即可退出,注意:这里退出HBase数据库是退出对数据库表的操作,而不是停止启动HBase数据库后台运行。

    exit
    

    HBase Java API编程实践

    创建HBase项目:

    在这里插入图片描述

    创建包:

    在这里插入图片描述

    new class文件ExampleForHBase

    在这里插入图片描述

    源码:

    package com.houbao;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.hbase.*;
    import org.apache.hadoop.hbase.client.*;
    import org.apache.hadoop.hbase.util.Bytes;
     
    import java.io.IOException;
    public class ExampleForHBase {
        public static Configuration configuration;
        public static Connection connection;
        public static Admin admin;
        public static void main(String[] args)throws IOException{
            init();
            createTable("student",new String[]{"score"});
            insertData("student","zhangsan","score","English","69");
            insertData("student","zhangsan","score","Math","86");
            insertData("student","zhangsan","score","Computer","77");
            getData("student", "zhangsan", "score","English");
            close();
        }
     
        public static void init(){
            configuration  = HBaseConfiguration.create();
            configuration.set("hbase.rootdir","hdfs://localhost:9000/hbase");
            try{
                connection = ConnectionFactory.createConnection(configuration);
                admin = connection.getAdmin();
            }catch (IOException e){
                e.printStackTrace();
            }
        }
     
        public static void close(){
            try{
                if(admin != null){
                    admin.close();
                }
                if(null != connection){
                    connection.close();
                }
            }catch (IOException e){
                e.printStackTrace();
            }
        }
     
        public static void createTable(String myTableName,String[] colFamily) throws IOException {
            TableName tableName = TableName.valueOf(myTableName);
            if(admin.tableExists(tableName)){
                System.out.println("talbe is exists!");
            }else {
                TableDescriptorBuilder tableDescriptor = TableDescriptorBuilder.newBuilder(tableName);
                for(String str:colFamily){
                    ColumnFamilyDescriptor family = 
    ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes(str)).build();
                    tableDescriptor.setColumnFamily(family);
                }
                admin.createTable(tableDescriptor.build());
            } 
        }
     
        public static void insertData(String tableName,String rowKey,String colFamily,String col,String val) throws IOException { 
            Table table = connection.getTable(TableName.valueOf(tableName));
            Put put = new Put(rowKey.getBytes());
            put.addColumn(colFamily.getBytes(),col.getBytes(), val.getBytes());
            table.put(put);
            table.close(); 
        }
     
        public static void getData(String tableName,String rowKey,String colFamily, String col)throws  IOException{ 
            Table table = connection.getTable(TableName.valueOf(tableName));
            Get get = new Get(rowKey.getBytes());
            get.addColumn(colFamily.getBytes(),col.getBytes());
            Result result = table.get(get);
            System.out.println(new String(result.getValue(colFamily.getBytes(),col==null?null:col.getBytes())));
            table.close(); 
        }
    }
    
    

    java compiler 更改为1.8

    在这里插入图片描述

    增加jar包:“Add External JARs…”按钮。

    在这里插入图片描述

    1,进入到“/usr/local/hbase/lib”目录,选中该目录下的所有jar文件(注意,不要选中client-facing-thirdparty、ruby、shaded-clients和zkcli这四个目录),然后,点击界面底部的“OK”按钮。

    在这里插入图片描述

    2.然后,在“JAR Selection”界面中(如下图所示),点击进入到“client-facing-thirdparty”目录下。

    在这里插入图片描述

    run as java application

    在这里插入图片描述

    程序运行成功以后,如下图所示,会在运行结果中出现“69”。
    
    这时,可以到HBase Shell交互式环境中,使用如下命令查看student表是否创建成功:
    
    hbase> list
    

    在这里插入图片描述

    再在HBase Shell交互式环境中,使用如下命令查看student表中的数据:

    hbase> scan ‘student’
    

    在这里插入图片描述

    关闭HBASE->关闭Hadoop

    stop-hbase.sh
    

    在这里插入图片描述

    查看进程

    在这里插入图片描述

    关闭Hadoop

    stop-dfs.sh
    

    查看进程

    jps
    

    果中出现“69”。

    
    

    这时,可以到HBase Shell交互式环境中,使用如下命令查看student表是否创建成功:

    
    

    hbase> list

    
    
    
    再在HBase Shell交互式环境中,使用如下命令查看student表中的数据:
    
    hbase> scan ‘student’
    

    关闭HBASE->关闭Hadoop

    stop-hbase.sh
    

    查看进程

    在这里插入图片描述

    关闭Hadoop

    stop-dfs.sh
    

    查看进程

    jps
    

    在这里插入图片描述

    展开全文
  • HIVE建表时可以指定映射关系直接读取HBASE的数据,相当于有了一个HBASE向HIVE的通道。那HIVE向HBASE有通道吗?本文主要讲述了Hive库数据如何入到HBASE中。
  • 头歌HBase 开发:使用Java操作HBase

    千次阅读 2022-03-16 09:17:50
    第一关 packagestep1;...importorg.apache.hadoop.hbase.HBaseConfiguration; importorg.apache.hadoop.hbase.HColumnDescriptor; importorg.apache.hadoop.hbase.HTableDescriptor; import...

    第一关

    package step1;

    import java.io.IOException;

    import org.apache.hadoop.conf.Configuration;

    import org.apache.hadoop.hbase.HBaseConfiguration;

    import org.apache.hadoop.hbase.HColumnDescriptor;

    import org.apache.hadoop.hbase.HTableDescriptor;

    import org.apache.hadoop.hbase.TableName;

    import org.apache.hadoop.hbase.client.Admin;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder;

    import org.apache.hadoop.hbase.client.Connection;

    import org.apache.hadoop.hbase.client.ConnectionFactory;

    import org.apache.hadoop.hbase.client.Get;

    import org.apache.hadoop.hbase.client.Put;

    import org.apache.hadoop.hbase.client.Result;

    import org.apache.hadoop.hbase.client.ResultScanner;

    import org.apache.hadoop.hbase.client.Scan;

    import org.apache.hadoop.hbase.client.Table;

    import org.apache.hadoop.hbase.client.TableDescriptor;

    import org.apache.hadoop.hbase.client.TableDescriptorBuilder;

    import org.apache.hadoop.hbase.util.Bytes;

    /**

    * HBase 1.0 version of ExampleClient that uses {@code Connection},

    * {@code Admin} and {@code Table}.

    */

    public class Task{

    public void createTable()throws Exception{

    /********* Begin *********/

    Configuration config = HBaseConfiguration.create();

    Connection connection = ConnectionFactory.createConnection(config);

    try {

    // Create table

    Admin admin = connection.getAdmin();

    try {

    TableName tableName = TableName.valueOf("dept");

    // 新 API 构建表

    // TableDescriptor 对象通过 TableDescriptorBuilder 构建;

    TableDescriptorBuilder tableDescriptor =

    TableDescriptorBuilder.newBuilder(tableName);

    ColumnFamilyDescriptor family =

    ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes("data")).build();// 构建列族对象

    tableDescriptor.setColumnFamily(family); // 设置列族

    admin.createTable(tableDescriptor.build()); // 创建表


     

    TableName emp = TableName.valueOf("emp");

    // 新 API 构建表

    // TableDescriptor 对象通过 TableDescriptorBuilder 构建;

    TableDescriptorBuilder empDescriptor =

    TableDescriptorBuilder.newBuilder(emp);

    ColumnFamilyDescriptor empfamily =

    ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes("emp")).build();// 构建列族对象

    empDescriptor.setColumnFamily(empfamily); // 设置列族

    admin.createTable(empDescriptor.build()); // 创建表

    } finally {

    admin.close();

    }

    } finally {

    connection.close();

    }

    /********* End *********/

    }

    }

    start-dfs.sh

    回车

    start-hbase.sh

    回车

    第2关

    package step2;

    import java.io.IOException;

    import org.apache.hadoop.conf.Configuration;

    import org.apache.hadoop.hbase.HBaseConfiguration;

    import org.apache.hadoop.hbase.HColumnDescriptor;

    import org.apache.hadoop.hbase.HTableDescriptor;

    import org.apache.hadoop.hbase.TableName;

    import org.apache.hadoop.hbase.client.Admin;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder;

    import org.apache.hadoop.hbase.client.Connection;

    import org.apache.hadoop.hbase.client.ConnectionFactory;

    import org.apache.hadoop.hbase.client.Get;

    import org.apache.hadoop.hbase.client.Put;

    import org.apache.hadoop.hbase.client.Result;

    import org.apache.hadoop.hbase.client.ResultScanner;

    import org.apache.hadoop.hbase.client.Scan;

    import org.apache.hadoop.hbase.client.Table;

    import org.apache.hadoop.hbase.client.TableDescriptor;

    import org.apache.hadoop.hbase.client.TableDescriptorBuilder;

    import org.apache.hadoop.hbase.util.Bytes;

    public class Task {

     public void insertInfo()throws Exception{

     /********* Begin *********/

     Configuration config = HBaseConfiguration.create();

     Connection connection = ConnectionFactory.createConnection(config);

     Admin admin = connection.getAdmin();

     TableName tableName = TableName.valueOf("tb_step2");

     TableDescriptorBuilder tableDescriptor = TableDescriptorBuilder.newBuilder(tableName);

     ColumnFamilyDescriptor family = ColumnFamilyDescriptorBuilder.newBuilder(Bytes.toBytes("data")).build();//  构建列族对象

     tableDescriptor.setColumnFamily(family); //  设置列族

     admin.createTable(tableDescriptor.build()); //  创建表

     // 添加数据

     byte[] row1 = Bytes.toBytes("row1");

     Put put1 = new Put(row1); 

     byte[] columnFamily1 = Bytes.toBytes("data"); // 列

     byte[] qualifier1 = Bytes.toBytes(String.valueOf(1)); // 列族修饰词

     byte[] value1 = Bytes.toBytes("张三丰"); // 值

     put1.addColumn(columnFamily1, qualifier1, value1);

     byte[] row2 = Bytes.toBytes("row2");

     Put put2 = new Put(row2); 

     byte[] columnFamily2 = Bytes.toBytes("data"); // 列

     byte[] qualifier2 = Bytes.toBytes(String.valueOf(2)); // 列族修饰词

     byte[] value2 = Bytes.toBytes("张无忌"); // 值

     put2.addColumn(columnFamily2, qualifier2, value2);

     Table table = connection.getTable(tableName);

     table.put(put1);

     table.put(put2);

     /********* End *********/

     }

    }

    第3关

    package step3;

    import java.io.IOException;

    import org.apache.hadoop.conf.Configuration;

    import org.apache.hadoop.hbase.HBaseConfiguration;

    import org.apache.hadoop.hbase.HColumnDescriptor;

    import org.apache.hadoop.hbase.HTableDescriptor;

    import org.apache.hadoop.hbase.TableName;

    import org.apache.hadoop.hbase.client.Admin;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder;

    import org.apache.hadoop.hbase.client.Connection;

    import org.apache.hadoop.hbase.client.ConnectionFactory;

    import org.apache.hadoop.hbase.client.Get;

    import org.apache.hadoop.hbase.client.Put;

    import org.apache.hadoop.hbase.client.Result;

    import org.apache.hadoop.hbase.client.ResultScanner;

    import org.apache.hadoop.hbase.client.Scan;

    import org.apache.hadoop.hbase.client.Table;

    import org.apache.hadoop.hbase.client.TableDescriptor;

    import org.apache.hadoop.hbase.client.TableDescriptorBuilder;

    import org.apache.hadoop.hbase.util.Bytes;

    public class Task {

     public void queryTableInfo()throws Exception{

     /********* Begin *********/

     Configuration config = HBaseConfiguration.create();

     Connection connection = ConnectionFactory.createConnection(config);

     Admin admin = connection.getAdmin();

     TableName tableName = TableName.valueOf("t_step3");

     Table table = connection.getTable(tableName);

     // 获取数据

     Get get = new Get(Bytes.toBytes("row1")); // 定义 get 对象

     Result result = table.get(get); // 通过 table 对象获取数据

     //System.out.println("Result: " + result);

     // 很多时候我们只需要获取“值”   这里表示获取  data:1  列族的值

     byte[] valueBytes = result.getValue(Bytes.toBytes("data"), Bytes.toBytes("1")); // 获取到的是字节数组

     // 将字节转成字符串

     String valueStr = new String(valueBytes,"utf-8");

     System.out.println("value:" + valueStr);

     TableName tableStep3Name = TableName.valueOf("table_step3");

     Table step3Table = connection.getTable(tableStep3Name);

     // 批量查询

     Scan scan = new Scan();

     ResultScanner scanner = step3Table.getScanner(scan);

     try {

     int i = 0;

     for (Result scannerResult: scanner) {

     //byte[] value = scannerResult.getValue(Bytes.toBytes("data"), Bytes.toBytes(1));

     // System.out.println("Scan: " + scannerResult);

     byte[] row = scannerResult.getRow();

     System.out.println("rowName:" + new String(row,"utf-8"));

     }

     } finally {

     scanner.close();

     }

     /********* End *********/

     }

    }

    第4关

    package step4;

    import java.io.IOException;

    import org.apache.hadoop.conf.Configuration;

    import org.apache.hadoop.hbase.HBaseConfiguration;

    import org.apache.hadoop.hbase.HColumnDescriptor;

    import org.apache.hadoop.hbase.HTableDescriptor;

    import org.apache.hadoop.hbase.TableName;

    import org.apache.hadoop.hbase.client.Admin;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptor;

    import org.apache.hadoop.hbase.client.ColumnFamilyDescriptorBuilder;

    import org.apache.hadoop.hbase.client.Connection;

    import org.apache.hadoop.hbase.client.ConnectionFactory;

    import org.apache.hadoop.hbase.client.Get;

    import org.apache.hadoop.hbase.client.Put;

    import org.apache.hadoop.hbase.client.Result;

    import org.apache.hadoop.hbase.client.ResultScanner;

    import org.apache.hadoop.hbase.client.Scan;

    import org.apache.hadoop.hbase.client.Table;

    import org.apache.hadoop.hbase.client.TableDescriptor;

    import org.apache.hadoop.hbase.client.TableDescriptorBuilder;

    import org.apache.hadoop.hbase.util.Bytes;

    public class Task {

     public void deleteTable()throws Exception{

     /********* Begin *********/

     Configuration config = HBaseConfiguration.create();

     Connection connection = ConnectionFactory.createConnection(config);

     Admin admin = connection.getAdmin();

     TableName tableName = TableName.valueOf("t_step4");

     admin.disableTable(tableName);

     admin.deleteTable(tableName);

     /********* End *********/

     }

    }

    展开全文
  • hbase简介

    万次阅读 多人点赞 2020-12-09 21:29:39
    1.HBase简介 1.1 定义 HBase 是一种分布式、可扩展、支持海量数据存储的 NoSQL 数据库。 1.2 HBase数据模型 1.2.1逻辑结构 逻辑上,HBase 的数据模型同关系型数据库很类似,数据存储在一张表中,有行有列。但从...
  • Windows环境下安装HBase(Hadoop3.1.3、HBase2.2.5)与Linux环境下搭建HBase高可用集群
  • HBase2.4.10 踩坑笔记

    千次阅读 2022-03-19 17:06:57
    hbase安装
  • 分为8大章,第一章 Hbase介绍 第二章 Hbase模型和系统架构 第三章 Hbase数据读写流程 第四章 Hbase环境搭建 第五章 Hbase Shell 第六章 Hbase程序开发 第七章 Hbase高级特性 第八章 MapReduce ON Hbase
  • hbase 实战hbase 实战hbase 实战hbase 实战hbase 实战hbase 实战hbase 实战
  • Hbase学习分享

    2017-11-14 15:48:21
    本文首先简单介绍了HBase,然后重点讲述了HBase的高并发和实时处理数据 、HBase数据模型、HBase物理存储、HBase系统架构,HBase调优、HBase Shell访问等。
  • HBase应用场景 HBase功能与架构 HBase关键流程 HBase接口和参数;简介;需求场景;谁在用HBase ;HBase应用场景 HBase功能与架构 HBase关键流程 HBase接口和参数;部署架构 架构;HBase模块 Region;HBase模块 Region与...
  • hbase查看表结构_HBase语法

    千次阅读 2020-11-23 03:27:20
    一、HBase的DDL语法1. help①help :查看所有的hbase的shell命令②help 'cmd':寻求指定命令的使用方法 e.g. help 'create_namespace'hbase(main):012:0> help 'create_namespace'Create namespace; pass ...
  • docker搭建hbase环境

    千次阅读 2021-11-06 09:51:27
    hbase是hadoop生态中的一员,最早搭建hbase,需要先安装hadoop,然后安装zookeeper,再安装hbase。现在通过docker可以直接安装hbase,而且容器中并不需要hadoop。 安装很简单。直接拉取镜像,然后运行即可。 ...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 242,911
精华内容 97,164
关键字:

hbase

友情链接: ILC_INVERTER.rar