精华内容
下载资源
问答
  • 启动HBase集群: bin/start-hbase.sh 单独启动一个HMaster进程: bin/hbase-daemon.shstartmaster 单独停止一个HMaster进程: bin/hbase-daemon.shstopmaster 单独启动一个HRegionServer进程: bin/hbase-daemon....

    1.启动HBase集群:

    bin/start-hbase.sh

    2.单独启动一个HMaster进程:

    bin/hbase-daemon.sh start master

    3.单独停止一个HMaster进程:

    bin/hbase-daemon.sh stop master

    4.单独启动一个HRegionServer进程:

    bin/hbase-daemon.sh start regionserver

    5.​​​​​​​单独停止一个HRegionServer进程:

    bin/hbase-daemon.sh stop regionserver

    展开全文
  • 启动hbase命令 1.关闭三台虚拟机的防火墙 systemctl stop firewalld 2.开启zookeeper节点 zkServer.sh start 3.开启所有集群节点 start-all.sh 4.开启hbase start-hbase.sh 5.启动shell hbase shell

    启动hbase的命令

    1.关闭三台虚拟机的防火墙

    systemctl stop firewalld

    2.开启zookeeper节点

    zkServer.sh start

    3.开启所有集群节点

    start-all.sh

    4.开启hbase

    start-hbase.sh

    5.启动shell

    hbase shell

    展开全文
  • 集群启动命令

    2021-08-19 22:13:59
    Hadoop集群软件启动命令 1.集群规划 hostname/ip Hdfs Yarn Zk Mysql Hive Sqoop Flume Az Oozie Hue node01:192.168.204.138 nn/2nn rm1 zk1 hive sqoop flume solo/exec oozie hue node02:192.168.204....

    Hadoop集群软件启动命令

    1.集群规划

    hostname/ipHdfsYarnZkMysqlHiveSqoopFlumeAzOozieHue
    node01:192.168.204.138nn/2nnrm1zk1hivesqoopflumesolo/execooziehue
    node02:192.168.204.139dn1nm1zk2sqoopflumeexec/web
    node03:192.168.204.137dn2nm2zk3mysqlhivesqoopflume

    2.Hadoop启动和关闭命令

    #启动命令
    start-all.sh
    #关闭命令
    stop-all.sh
    

    3.JobHistory启动和关闭命令

    #启动命令
    mr-jobhistory-daemon.sh start historyserver
    #关闭命令
    mr-jobhistory-daemon.sh stop historyserver
    

    4.Zookeeper启动和关闭命令

    #启动命令
    zkServer.sh start
    
    #查看状态
    zkServer.sh status
    
    #关闭命令
    zkServer.sh stop
    
    # zkui可视化工具启动命令
    cd /data/zkui && nohup java -jar zkui-2.0-SNAPSHOT-jar-with-dependencies.jar &
    
    # 查看进程
    netstat  -tunpl | grep  :9090
    

    image-20210815161930989

    5.Hive启动命令和关闭命令

    #hivemetastore服务后台启动命令
    nohup hive --service metastore &
    nohup hive --service metastore 2>&1 >> /var/log.log &
    #关闭命令
    jps -m 			# 找到Hiveserver2运行的进程号
    kill -9 17303  	 # 使用kill -9 进程号 关闭相应的服务
    
    #hiveserver2服务后台启动命令
    nohup hiveserver2 &
    ----------------------------
    beeline
    !connect jdbc:hive2://node03:10000
    !connect jdbc:hive2://172.26.168.65:10000		# ECS_test2 机器
    
    root
    123456
    ---------------------------
    #关闭命令
    jps -m 			# 找到Hiveserver2运行的进程号
    kill -9 17303  	 # 使用kill -9 进程号 关闭相应的服务
    

    image-20210412205835909

    6.Azkaban solo-server 模式启动和关闭命令

    注:solo-server模式在node01机器上面

    #注:启动/关闭必须进到 azkaban-solo-server-0.1.0-SNAPSHOT/目录下
    #启动命令
    cd /export/servers/azkaban-solo-server
    bin/start-solo.sh
    #  solo-server 模式 web端口为 http://node01:8081/
    
    #关闭命令
    cd /export/servers/azkaban-solo-server
    bin/shutdown-solo.sh
    

    7.Azkaban two-server 模式启动和关闭命令

    注:two-server模式在node02机器上面

    #注:启动/关闭必须进到 azkaban-exec-server/目录下
    #   需要先启动exec-server,然后在手动激活exector,再启动web-server
    #azkaban-exec-server启动命令
    cd /export/servers/azkaban/azkaban-exec-server
    bin/start-exec.sh
    #手动激活 executor
    curl -G "node02:$(<./executor.port)/executor?action=activate" && echo
    #azkaban-web-server启动命令
    cd /export/servers/azkaban/azkaban-web-server
    bin/start-web.sh
    
    #  two-server 模式 web端口为 https://node01:8443/
    --------------------------------------------------
    
    #azkaban-exec-server关闭命令
    cd /export/servers/azkaban/azkaban-exec-server
    bin/shutdown-exec.sh
    #azkaban-web-server关闭命令
    cd /export/servers/azkaban/azkaban-web-server
    bin/shutdown-web.sh
    

    8.Oozie启动和关闭命令

    #启动命令
    oozied.sh start
    #关闭命令  注: 尽量不要使用kill方式关闭进程
    oozied.sh stop
    

    9.Hue启动和关闭命令

    #注:需要先从root用户下转换到用户hliushi下
    su hliushi
    #启动命令
    supervisor
    --------------------------
    #页面访问 hue
    http://node01:8888
    #关闭命令
    #在xshell按住ctrl+shift+c关闭进程即可
    

    9.机器之间发送配置文件命令

    scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node02:/export/servers/hadoop-2.7.7/etc/hadoop/
    scp /export/servers/hadoop-2.7.7/etc/hadoop/core-site.xml node03:/export/servers/hadoop-2.7.7/etc/hadoop/
    

    10.Nginx启动和关闭命令

    #注:nginx安装在node02机器上, 且没有配置环境变量
    #启动命令
    cd /usr/local/nginx
    sbin/nginx -c conf/nginx.conf
    ----------------------------------
    #查看nginx的运行转态
    ps -ef | grep nginx
    #关闭命令
    sbin/nginx -s stop
    

    image-20210414100443421

    11.Apache Server启动和关闭命令

    #启动命令
    service httpd start
    #重启命令
    service httpd restart
    #关闭服务命令
    service httpd stop
    

    12.本地 yum 源信息

    #本地yum源信息在 master主机上面
    url : http://192.168.204.10/cdh5.14.0/
    

    13.Redis启动和关闭命令

    启动redis

    # node01执行以下命令启动redis
    cd  /export/servers/redis-3.2.8/src
    redis-server  ../redis.conf
    # 启动哨兵服务
    cd /export/servers/redis-3.2.8
    src/redis-sentinel sentinel.conf 
    # 查看redis的进程
    ps -ef | grep redis
    

    连接redis客户端

    cd /export/servers/redis-3.2.8/src
    redis-cli -h node01
    

    关闭命令

    # 输入auth 123456 即可登录进入客户端
    node03:6379> auth 123456
    # 执行如下命令即可正常断开redis连接
    node03:6379> shutdown		# 关闭server服务
    not connected> quit
    

    image-20210422100738486

    14.Hbase启动和关闭命令

    注意事项:Hbase强依赖于HDFS以及zookeeper,所以安装Hbase之前一定要保证Hadoop和zookeeper正常启动

    # HBase集群启动命令 -- node01为Hbase master节点  node02为Hbase master backup 备份
    start-hbase.sh
    
    # 关闭集群命令
    stop-hbase.sh
    
    # 浏览器页面访问
    # http://node01:16010/master-status
    
    ---------------------------
    # 单节点启动方式命令
    # 启动HMaster命令
    hbase-daemon.sh start master
    # 启动HRegionServer命令
    hbase-daemon.sh start regionserver
    
    ---------------------------
    # hbase的thrift server服务启动命令  启动hue之前要启动这个服务
    hbase-daemon.sh start thrift 
    # 关闭服务命令
    hbase-daemon.sh stop thrift
    

    image-20210422214039210

    进入HBase客户端命令操作界面

    [root@node01 export]# hbase shell
    hbase(main):001:0> 
    
    # 集群关闭命令
    stop-hbase.sh
    

    15.Kafka启动和关闭命令

    注意事项:在kafka启动前,一定要让zookeeper启动起来。

    # 可以选择先进入kafka的安装目录, 只是把这个nohup.out输出到当前路径下而已
    cd /export/servers/kafka_2.11-0.10.0.0
    nohup kafka-server-start.sh config/server.properties 2>&1 &
    # 启动命令-后台启动
    nohup kafka-server-start.sh /export/servers/kafka_2.11-0.10.0.0/config/server.properties 2>&1 &
    
    # 停止命令
    kafka-server-stop.sh
    

    image-20210428100051064

    16.Kafka-eagle启动和关闭命令

    # 启动命令	 安装在node01 机器上
    ke.sh start
    ----------------------
    # web端口访问
    http://node01:8048/ke
    # 账号: admin  密码 : 123456
    

    image-20210429151004406

    # 启动
    ke.sh start
    # 查看状态
    ke.sh status
    # 关闭
    ke.sh stop
    # 重启
    ke.sh restart
    

    17.Spark启动和关闭命令

    注意下:Spark并没有配置环境变量, 个人觉得有一个命令和hadoop命令一样了,启动同样的命令有问题

    # 启动 Spark Master 和 Slaves, 以及 HistoryServer  -- Spark Master在node01
    # 注意由于spark集群配置了高可用, 是基于Zookeeper搭建起来的高可用
    # 并且修改了spark-env.sh 配置文件, 添加了Spark运行时参数, 从而指定Zookeeper的位置 
    # 所以确保启动高可用Spark之前, 一定先启动Zookeeper!!!
    -------------------------------------------------------------
    # Zookeeper启动命令 [三台机器都要启动]
    zkServer.sh start
    cd /export/servers/spark
    sbin/start-all.sh
    sbin/start-history-server.sh
    
    # spark的web UI 端口 
    http://node01:8080/
    
    # 关闭 Spark 和 HistoryServer
    cd /export/servers/spark
    sbin/stop-all.sh
    sbin/stop-history-server.sh
    

    image-20210511173847439

    # 启动 Spark shell
    cd /export/servers/spark
    bin/spark-shell --master local[2]
    

    问题出现:Can only call getServletHandlers on a running MetricsSystem

    image-20210513091142549

    原因: spark 集群的 worker 都挂掉了, 挂掉的原因是没有启动Zookeeper, 高可用的Spark集群是基于Zookeeper搭建起来的, 启动高可用的Spark的需要指定Zookeeper的位置, 如果不提前开启来zookeeper,那样Spark集群的 worker都会挂掉

    image-20210513093123021

    解决方式

    记得启动之前开启Zookeeper!!!, 不然worker还是会挂掉

    image-20210513091241363

    18.CDH版本Hadoop服务启动命令

    服务命令
    httpdservice httpd start
    Zookeeperservice zookeeper-server start
    hdfs-namenodeservice hadoop-hdfs-namenode start
    hdfs-datanodeservice hadoop-hdfs-datanode start
    hdfs-secondarynamenodeservice hadoop-hdfs-secondarynamenode start
    yarn-resourcemanagerservice hadoop-yarn-resourcemanager start
    mapreduce-historyserverservice hadoop-mapreduce-historyserver start
    yarn-nodemanagerservice hadoop-yarn-nodemanager start
    hive-metastoreservice hive-metastore start
    hive-server2service hive-server2 start
    kudu-masterservice kudu-master start
    kudu-tserverservice kudu-tserver start
    impala-state-storeservice impala-state-store start
    impala-catalogservice impala-catalog start
    impala-serverservice impala-server start
    hueservice hue start
    ntpservice ntpd start ntpstat

    19.centos6与centos7服务开启关闭命令对比

    指令名称centos 6centos 7
    启动服务service httpd startsystemctl start httpd.service
    关闭服务service httpd stopsystemctl stop httpd.service
    重启服务service httpd restartsystemctl restart httpd.service
    查看服务状态service httpd statussystemctl status httpd.service
    设置服务开机启动chkconfig httpd onsystemctl enable httpd.service
    设置服务开机关闭chkconfig httpd offsystemctl disable httpd.service
    查看服务开机启动chkconfig –listsystemctl list-units –type=service

    20.Flink启动和关闭命令

    # 注意由于spark集群配置了高可用, 是基于Zookeeper搭建起来的高可用
    # 所以确保启动高可用Spark之前, 一定先启动Zookeeper!!!
    # Zookeeper启动命令 [三台机器都要启动]
    zkServer.sh start
    
    # 启动和关闭Flink集群
    start-cluster.sh
    stop-cluster.sh
    
    # flink的web UI 端口 
    http://node01:8081/
    
    

    image-20210601084952764

    21.RocketMQ启动和关闭命令

    多Master多Slave模式服务启动和关闭 [没有自动创建topic]

    # 服务启动
    # 1. 启动NameServe集群(分别在1,2号服务器启动)
    cd /export/servers/rocketmq-4.6.0/bin
    nohup sh mqnamesrv &
    
    # 2. 启动Broker集群
    # 一号服务器
    # master1
    nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-a.properties & autoCreateTopicEnable=true
    
    # slave2
    nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-b-s.properties & autoCreateTopicEnable=true
    
    # 二号服务器
    # master2
    nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-b.properties & autoCreateTopicEnable=true
    
    # slave1
    nohup sh mqbroker -c /export/servers/rocketmq-4.6.0/conf/2m-2s-sync/broker-a-s.properties & autoCreateTopicEnable=true
    
    # 注意问题: 在PowerShell窗口下执行maven命令 出错Unknown lifecycle phase “.test.skip=true”.
    # 原因: 在PowerShell窗口下, 执行带参数的需要 '' 单引号包起来才可以
    # 方式1 
    # 命令改为 
    mvn clean install package '-Dmaven.test.skip=true'
    # 方式2
    # 不要使用PowerShell命令行模式,使用 cmd 进入命令行执行
    mvn clean install package -Dmaven.test.skip=true
    
    # console启动命令  devp 端口在9900    cvm端口在9999
    # 可以运行参数上更改运行端口和rocketMQ集群地址
    # java -jar rocketmq-console-ng-2.0.0.jar --server.port=8080 --rocketmq.config.namesrvAddr=127.0.0.1:9876
    java -jar dev-rocketmq-console-ng-2.0.0.jar
    
    
    # 3. rocketmq服务关闭
    # 关闭broker服务
    sh mqshutdown broker
    
    # 关闭namesrv服务:
    sh mqshutdown namesrv
    

    单机版启动和关闭命令

    cd /export/servers/rocketmq-4.6.0/
    
    ### 启动 NameServer 服务和路由
    # 启动命令,并且常驻内存,nohup 属于后台启动,当前目录下生成 nohup.out 日志文件,也可以指定日志输出位置。
    # sh mqnamesrv :属于终端启动,直接输出日志信息,按 ctrl+c 可直接关闭退出
    nohup sh mqnamesrv &
    
    # 查看启动日志,能看到 "The Name Server boot success" 字样则成功
    tail -f ~/logs/rocketmqlogs/namesrv.log
    
    ### 启动 Broker 中间件
    nohup sh mqbroker -c conf/broker.conf -n localhost:9876 &
    
    # sh mqbroker -n localhost:9876 :属于终端启动,直接输出日志信息,按 ctrl+c 可直接关闭退出
    
    # 查看启动日志
    tail -f ~/logs/rocketmqlogs/broker.log
    
    ### 关闭命令
    # 先关闭 broker、在关闭 nameserv
    sh mqshutdown broker
    sh mqshutdown namesrv
    
    # web可视化界面命令  端口9999
    java -jar cvm-rocketmq-console-ng-2.0.0.jar --rocketmq.config.namesrvAddr=cvm-node02:9876
    

    测试RocketMQ

    cd /export/servers/rocketmq-4.6.0
    # 发送消息
    # 1.设置环境变量
    export NAMESRV_ADDR=localhost:9876
    # 2.使用安装包的Demo发送消息
    sh bin/tools.sh org.apache.rocketmq.example.quickstart.Producer
    
    # 接收消息
    # 1.设置环境变量
    export NAMESRV_ADDR=localhost:9876
    # 2.接收消息
    sh bin/tools.sh org.apache.rocketmq.example.quickstart.Consumer
    
    查看集群情况./bin/mqadmin clusterList -n 127.0.0.1:9876
    查看 broker 状态./bin/mqadmin brokerStatus -n 127.0.0.1:9876 -b 172.20.1.138:10911
    查看 topic 列表./bin/mqadmin topicList -n 127.0.0.1:9876
    查看 topic 状态./bin/mqadmin topicStatus -n 127.0.0.1:9876 -t MyTopic (换成想查询的 topic)
    查看 topic 路由./bin/mqadmin topicRoute -n 127.0.0.1:9876 -t MyTopic



    win10服务运行

    # D:\develop\rocketmq-all-4.6.0-bin-release\bin
    # 打开cmd
    start mqnamesrv.cmd
    start mqbroker.cmd -n 127.0.0.1:9876 autoCreateTopicEnable=true
    

    21.WIN10中CMD随笔

    ########################################################
    # cmd 命令随笔
    # 输入 D:  可切换到 D盘路径下 同理,使用 F:切换到 F盘路径下
    
    C:\Users\llhuang10>D:
    D:\>
    # dir命令显示当先目录, 等同于  Linux中的 ll或ls
    D:\>dir
     驱动器 D 中的卷没有标签。
     卷的序列号是 60A3-D0C6
    
     D:\ 的目录
     
    2021/07/21  08:06    <DIR>          book_study
    2021/07/22  09:13    <DIR>          code
    2021/07/21  17:02    <DIR>          develop
    2021/07/22  15:51    <DIR>          downloads
    2021/07/22  10:03    <DIR>          home
    2021/07/22  15:53    <DIR>          IdeaProjects
    2021/07/21  19:13    <DIR>          iflytek
    2021/07/22  08:10    <DIR>          Program Files
    2021/07/21  16:52    <DIR>          Program Files (x86)
    2021/07/22  16:02    <DIR>          tmp
    2021/07/20  13:49    <DIR>          WebstormProjects
    2021/07/15  17:02    <DIR>          workspace
                   0 个文件              0 字节
                  12 个目录 484,580,605,952 可用字节
    D:\>
    ########################################################
    

    22.集群之间免密登录

    删除之前生成的公匙 (如果有)

    rm ./id_rsa*            # 删除之前生成的公匙(如果有)
    

    远程登录自身,也需要配置免秘钥!!

    [root@cvm-node01 .ssh]# cat ./id_rsa.pub >> ./authorized_keys
    

    问题1

    chmod: 更改’authorized_keys’ 的权限: 不允许的操作

    原因

    在linux系统下

    有些配置文件是不允许被任何人(包括root)修改的
    为了防止被误修改或删除
    可以设定该文件的不可修改位:immutable

    解决办法 :chattr

    # 防止关键文件被修改:
    chattr +i authorized_keys
    # 如果需要修改文件则:
    chattr -i authorized_keys
    

    问题2

    sh: .ssh/authorized_keys: 权限不够

    原因

    修改修改.ssh目录的权限以及authorized_keys 的权限(这个必须修改,要不然还是需要密码)

    解决办法

    sudo chmod 644 ~/.ssh/authorized_keys
    sudo chmod 700 ~/.ssh
    

    image-20210811094336580

    img

    23.RabbitMQ启动和关闭命令

    docker run -d --hostname my-rabbit --name rabbit -p 15672:15672 -p5672:5672 daocloud.io/library/rabbitmq:3.6.10-management
    
    # 查看docker中的rabbitmq的运行状态
    docker ps | grep rabbit
    
    # 查看正在运行的容器
    docker ps
    
    # 删除指定容器
    # docker rm 容器名称(或容器Id)
    docker rm rabbit
    

    image-20210816094941861

    24.Jenkins启动和关闭命令

    # 启动
    service jenkins start
    # 重启
    service jenkins restart
    # 停止
    service jenkins stop
    # 访问地址
    http://cvm-node02:12345/
    
    展开全文
  • Hbase基础命令

    2021-03-15 09:25:27
    HBase的shell其实JRuby的IRB(交互式的Ruby),但在其中添加了一些HBase命令启动HBase shell: hbase shell 4.2.2 创建表 语法: create '表名','列蔟名'... 创建订单表,表名为ORDER_INFO,该表有一个列蔟为...

    4. 常用shell操作

    我们可以以shell的方式来维护和管理HBase。例如:执行建表语句、执行增删改查操作等等。
    4.1 需求
    有以下订单数据,我们想要将这样的一些数据保存到HBase中。
    订单ID 订单状态 支付金额 支付方式ID 用户ID 操作时间 商品分类
    001 已付款 200.5 1 001 2020-5-2 18:08:53 手机;
    接下来,我们将使用HBase shell来进行以下操作:
    1.创建表
    2.添加数据
    3.更新数据
    4.删除数据
    5.查询数据
    4.2 创建表
    在HBase中,所有的数据也都是保存在表中的。要将订单数据保存到HBase中,首先需要将表创建出来。
    4.2.1 启动HBase Shell
    HBase的shell其实JRuby的IRB(交互式的Ruby),但在其中添加了一些HBase的命令。
    启动HBase shell:
    hbase shell
    4.2.2 创建表

    语法:
    create '表名','列蔟名'...
    
    创建订单表,表名为ORDER_INFO,该表有一个列蔟为C1
    create 'ORDER_INFO','C1';
    

    注意:
    create要写成小写
    一个表可以包含若干个列蔟
    命令解析:调用hbase提供的ruby脚本的create方法,传递两个字符串参数
    通过下面链接可以看到每个命令都是一个ruby脚本
    链接
    4.2.3 查看表

    hbase(main):005:0> list
    TABLE                                                                                                                                                                    
    ORDER_INFO                                                                                                                                                               
    1 row(s)
    Took 0.0378 seconds                                                                                                                                                      
    => ["ORDER_INFO"]
    

    4.2.4 删除表
    要删除某个表,必须要先禁用表
    4.2.4.1 禁用表

    语法:disable "表名"
    

    4.2.4.2 删除表

    语法:drop "表名"
    

    4.2.4.3 删除ORDER_INFO表

    disable "ORDER_INFO"
    drop "ORDER_INFO
    

    "
    4.3 添加数据
    4.3.1 需求
    接下来,我们需要往订单表中添加以下数据。

    订单ID	订单状态	支付金额	支付方式ID	用户ID	操作时间	商品分类
    
    ID	STATUS	PAY_MONEY	PAYWAY	USER_ID	OPERATION_DATE	CATEGORY
    000001	已提交	4070	1	4944191	2020-04-25 12:09:16	手机;
    

    4.3.2 PUT操作
    HBase中的put命令,可以用来将数据保存到表中。但put一次只能保存一个列的值。以下是put的语法结构:

    put '表名','ROWKEY','列蔟名:列名','值'
    

    要添加以上的数据,需要使用7次put操作。如下:

    put 'ORDER_INFO','000001','C1:ID','000001'
    put 'ORDER_INFO','000001','C1:STATUS','已提交'
    put 'ORDER_INFO','000001','C1:PAY_MONEY',4070
    put 'ORDER_INFO','000001','C1:PAYWAY',1
    put 'ORDER_INFO','000001','C1:USER_ID',4944191
    put 'ORDER_INFO','000001','C1:OPERATION_DATE','2020-04-25 12:09:16'
    put 'ORDER_INFO','000001','C1:CATEGORY','手机;'
    

    4.4 查看添加的数据
    4.4.1 需求
    要求将rowkey为:000001对应的数据查询出来。
    4.4.2 get命令
    在HBase中,可以使用get命令来获取单独的一行数据。

    语法:
    get '表名','rowkey'
    

    4.4.3 查询指定订单ID的数据

    get 'ORDER_INFO','000001'
    
    COLUMN	CELL         
     C1:CATEGORY       	timestamp=1588415690678, value=\xE6\x89\x8B\xE6\x9C\xBA;             
     C1:OPERATION_DATE 	timestamp=1588415689773, value=2020-04-25 12:09:16                   
     C1:PAYWAY         	timestamp=1588415689681, value=1                                     
     C1:PAY_MONEY      	timestamp=1588415689643, value=4070                                  
     C1:STATUS         	timestamp=1588415689591, value=\xE5\xB7\xB2\xE6\x8F\x90\xE4\xBA\xA4  
     C1:USER_ID        	timestamp=1588415689721, value=4944191                               
    

    4.4.4 显示中文
    在HBase shell中,如果在数据中出现了一些中文,默认HBase shell中显示出来的是十六进制编码。要想将这些编码显示为中文,我们需要在get命令后添加一个属性:{FORMATTER => ‘toString’}
    4.4.4.1 查看订单的数据

    get 'ORDER_INFO','000001', {FORMATTER => 'toString'}
    

    注:
    { key => value},这个是Ruby语法,表示定义一个HASH结构
    get是一个HBase Ruby方法,’ORDER_INFO’、’000001’、{FORMATTER => ‘toString’}是put方法的三个参数
    FORMATTER要使用大写
    在Ruby中用{}表示一个字典,类似于hashtable,FORMATTER表示key、’toString’表示值
    4.5 更新操作
    4.5.1 需求
    将订单ID为000001的状态,更改为「已付款」
    4.5.2 使用put来更新数据
    同样,在HBase中,也是使用put命令来进行数据的更新,语法与之前的添加数据一模一样。
    4.5.3 更新指定的列

    put 'ORDER_INFO', '000001', 'C1:STATUS', '已付款'
    

    注意:
     HBase中会自动维护数据的版本
     每当执行一次put后,都会重新生成新的时间戳
    C1:STATUS timestamp=1588748844082, value=已提交
    C1:STATUS timestamp=1588748952074, value=已付款
    C1:STATUS timestamp=1588748994244, value=已付款
    4.6 删除操作
    4.6.1 删除状态列数据
    4.6.1.1 需求
    将订单ID为000001的状态列删除。
    4.6.1.2 delete命令
    在HBase中,可以使用delete命令来将一个单元格的数据删除。语法格式如下:

    delete '表名', 'rowkey', '列蔟:列'

    注意:此处HBase默认会保存多个时间戳的版本数据,所以这里的delete删除的是最新版本的列数据。
    4.6.1.3 删除指定的列

    delete 'ORDER_INFO','000001','C1:STATUS'
    

    4.6.2 删除整行数据
    4.6.2.1 需求
    将订单ID为000001的信息全部删除(删除所有的列)
    4.6.2.2 deleteall命令
    deleteall命令可以将指定rowkey对应的所有列全部删除。语法:

    deleteall '表名','rowkey'
    

    4.6.2.3 删除指定的订单

    deleteall 'ORDER_INFO','000001'
    

    4.6.3 清空表
    4.6.3.1 需求
    将ORDER_INFO的数据全部删除
    4.6.3.2 truncate命令
    truncate命令用来清空某个表中的所有数据。语法:

    truncate "表名"
    

    4.6.3.3 清空ORDER_INFO的所有数据

    truncate 'ORDER_INFO'
    

    4.7 导入测试数据集
    4.7.1 需求
    在资料的 数据集/ ORDER_INFO.txt 中,有一份这样的HBase数据集,我们需要将这些指令放到HBase中执行,将数据导入到HBase中。

    可以看到这些都是一堆的put语句。那么如何才能将这些语句全部执行呢?

    4.7.2 执行command文件
    4.7.2.1 上传command文件
    将该数据集文件上传到指定的目录中
    4.7.2.2 执行
    使用以下命令执行:

    hbase shell /export/software/ORDER_INFO.txt
    

    即可。
    4.8 计数操作
    4.8.1 需求
    查看HBase中的ORDER_INFO表,一共有多少条记录。
    4.8.2 count命令
    count命令专门用来统计一个表中有多少条数据。语法:

    count ‘表名’
    

    注意:这个操作是比较耗时的。在数据量大的这个命令可能会运行很久。
    4.8.3 获取订单数据

     count 'ORDER_INFO'
    

    4.9 大量数据的计数统计
    当HBase中数据量大时,可以使用HBase中提供的MapReduce程序来进行计数统计。语法如下:

    $HBASE_HOME/bin/hbase org.apache.hadoop.hbase.mapreduce.RowCounter '表名'
    

    4.9.1 启动YARN集群
    启动yarn集群

    start-yarn.sh
    

    启动history server

    mr-jobhistory-daemon.sh start historyserver
    

    4.9.2 执行MR JOB

    $HBASE_HOME/bin/hbase org.apache.hadoop.hbase.mapreduce.RowCounter 'ORDER_INFO'
    

    通过观察YARN的WEB UI,我们发现HBase启动了一个名字为rowcounter_ORDER_INFO的作业。

    4.10 扫描操作
    4.10.1 需求一:查询订单所有数据
    4.10.1.1 需求
    查看ORDER_INFO表中所有的数据
    4.10.1.2 scan命令
    在HBase,我们可以使用scan命令来扫描HBase中的表。语法:

    scan '表名'
    

    4.10.1.3 扫描ORDER_INFO表

    scan 'ORDER_INFO',{FORMATTER => 'toString'}
    

    注意:要避免scan一张大表!
    4.10.2 需求二:查询订单数据(只显示3条)

    scan 'ORDER_INFO', {LIMIT => 3, FORMATTER => 'toString'}
    

    4.10.3 需求三:查询订单状态、支付方式
    4.10.3.1 需求
    只查询订单状态以及支付方式,并且只展示3条数据
    4.10.3.2 命令

    scan 'ORDER_INFO', {LIMIT => 3, COLUMNS => ['C1:STATUS', 'C1:PAYWAY'], FORMATTER => 'toString'}
    

    注意:
    [‘C1:STATUS’, …]在Ruby中[]表示一个数组
    4.10.4 需求四:查询指定订单ID的数据并以中文展示
    根据ROWKEY来查询对应的数据,ROWKEY为02602f66-adc7-40d4-8485-76b5632b5b53,只查询订单状态、支付方式,并以中文展示。

    要查询指定ROWKEY的数据,需要使用ROWPREFIXFILTER,用法为:

    scan '表名', {ROWPREFIXFILTER => 'rowkey'}
    

    实现指令:

    scan 'ORDER_INFO', {ROWPREFIXFILTER => '02602f66-adc7-40d4-8485-76b5632b5b53', COLUMNS => ['C1:STATUS', 'C1:PAYWAY'], FORMATTER => 'toString'}
    

    4.11 过滤器
    4.11.1 简介
    在HBase中,如果要对海量的数据来进行查询,此时基本的操作是比较无力的。此时,需要借助HBase中的高级语法——Filter来进行查询。Filter可以根据列簇、列、版本等条件来对数据进行过滤查询。因为在HBase中,主键、列、版本都是有序存储的,所以借助Filter,可以高效地完成查询。当执行Filter时,HBase会将Filter分发给各个HBase服务器节点来进行查询。

    HBase中的过滤器也是基于Java开发的,只不过在Shell中,我们是使用基于JRuby的语法来实现的交互式查询。以下是HBase 2.2的JAVA API文档。
    http://hbase.apache.org/2.2/devapidocs/index.html

    4.11.2 HBase中的过滤器
    在HBase的shell中,通过show_filters指令,可以查看到HBase中内置的一些过滤器。

    hbase(main):028:0> show_filters
    DependentColumnFilter                                                                                                                                                       
    KeyOnlyFilter                                                                                                                                                               
    ColumnCountGetFilter                                                                                                                                                        
    SingleColumnValueFilter                                                                                                                                                     
    PrefixFilter                                                                                                                                                                
    SingleColumnValueExcludeFilter                                                                                                                                              
    FirstKeyOnlyFilter                                                                                                                                                          
    ColumnRangeFilter                                                                                                                                                           
    ColumnValueFilter                                                                                                                                                           
    TimestampsFilter                                                                                                                                                            
    FamilyFilter                                                                                                                                                                
    QualifierFilter                                                                                                                                                             
    ColumnPrefixFilter                                                                                                                                                          
    RowFilter                                                                                                                                                                   
    MultipleColumnPrefixFilter                                                                                                                                                  
    InclusiveStopFilter                                                                                                                                                         
    PageFilter                                                                                                                                                                  
    ValueFilter                                                                                                                                                                 
    ColumnPaginationFilter
    

    rowkey
    过滤器 RowFilter 实现行键字符串的比较和过滤
    PrefixFilter rowkey前缀过滤器
    KeyOnlyFilter 只对单元格的键进行过滤和显示,不显示值
    FirstKeyOnlyFilter 只扫描显示相同键的第一个单元格,其键值对会显示出来
    InclusiveStopFilter 替代 ENDROW 返回终止条件行
    列过滤器 FamilyFilter 列簇过滤器
    QualifierFilter 列标识过滤器,只显示对应列名的数据
    ColumnPrefixFilter 对列名称的前缀进行过滤
    MultipleColumnPrefixFilter 可以指定多个前缀对列名称过滤
    ColumnRangeFilter 过滤列名称的范围
    值过滤器 ValueFilter 值过滤器,找到符合值条件的键值对
    SingleColumnValueFilter 在指定的列蔟和列中进行比较的值过滤器
    SingleColumnValueExcludeFilter 排除匹配成功的值
    其他过滤器 ColumnPaginationFilter 对一行的所有列分页,只返回 [offset,offset+limit] 范围内的列
    PageFilter 对显示结果按行进行分页显示
    TimestampsFilter 时间戳过滤,支持等值,可以设置多个时间戳
    ColumnCountGetFilter 限制每个逻辑行返回键值对的个数,在 get 方法中使用
    DependentColumnFilter 允许用户指定一个参考列或引用列来过滤其他列的过滤器

    Java API官方地址:https://hbase.apache.org/devapidocs/index.html
    4.11.3 过滤器的用法
    过滤器一般结合scan命令来使用。打开HBase的JAVA API文档。找到RowFilter的构造器说明,我们来看以下,HBase的过滤器该如何使用。
    scan ‘表名’, { Filter => "过滤器(比较运算符, ‘比较器表达式’)” }
    4.11.3.1 比较运算符

    比较运算符	描述
    =	等于
    >	大于
    >=	大于等于
    <	小于
    <=	小于等于
    !=	不等于
    

    4.11.3.2 比较器
    比较器 描述

    BinaryComparator	匹配完整字节数组
    BinaryPrefixComparator	匹配字节数组前缀
    BitComparator	匹配比特位
    NullComparator	匹配空值
    RegexStringComparator	匹配正则表达式
    SubstringComparator	匹配子字符串
    

    4.11.3.3 比较器表达式
    基本语法:比较器类型:比较器的值
    比较器 表达式语言缩写

    BinaryComparator	binary:值
    BinaryPrefixComparator	binaryprefix:值
    BitComparator	bit:值
    NullComparator	null
    RegexStringComparator	regexstring:正则表达式
    SubstringComparator	substring:值
    

    4.11.4 需求一:使用RowFilter查询指定订单ID的数据

    4.11.4.1 需求
    只查询订单的ID为:02602f66-adc7-40d4-8485-76b5632b5b53、订单状态以及支付方式   
    
    分析
    1.因为要订单ID就是ORDER_INFO表的rowkey,所以,我们应该使用rowkey过滤器来过滤
    2.通过HBase的JAVA API,找到RowFilter构造器
    
    通过上图,可以分析得到,RowFilter过滤器接受两个参数,
     op——比较运算符
     rowComparator——比较器
    所以构建该Filter的时候,只需要传入两个参数即可
    

    4.11.4.2 命令

    scan 'ORDER_INFO', {FILTER => "RowFilter(=,'binary:02602f66-adc7-40d4-8485-76b5632b5b53')"}
    4.11.5 需求二:查询状态为已付款的订单
    4.11.5.1 需求
    查询状态为「已付款」的订单
    
    分析
    1.因为此处要指定列来进行查询,所以,我们不再使用rowkey过滤器,而是要使用列过滤器
    2.我们要针对指定列和指定值进行过滤,比较适合使用SingleColumnValueFilter过滤器,查看JAVA API
    
    需要传入四个参数:
     列簇
     列标识(列名)
     比较运算符
     比较器
    
    注意:
    列名STATUS的大小写一定要对!此处使用的是大写!
    列名写错了查不出来数据,但HBase不会报错,因为HBase是无模式的
    4.11.5.2 命令
    scan 'ORDER_INFO', {FILTER => "SingleColumnValueFilter('C1', 'STATUS', =, 'binary:已付款')", FORMATTER => 'toString'}
    

    4.11.6 需求三:查询支付方式为1,且金额大于3000的订单

    分析
     此处需要使用多个过滤器共同来实现查询,多个过滤器,可以使用AND或者OR来组合多个过滤器完成查询
     使用SingleColumnValueFilter实现对应列的查询
    4.11.6.1 命令
    1.查询支付方式为1
    SingleColumnValueFilter('C1', 'PAYWAY', = , 'binary:1')
    2.查询金额大于3000的订单
    SingleColumnValueFilter('C1', 'PAY_MONEY', > , 'binary:3000')
    3.组合查询
    scan 'ORDER_INFO', {FILTER => "SingleColumnValueFilter('C1', 'PAYWAY', = , 'binary:1') AND SingleColumnValueFilter('C1', 'PAY_MONEY', > , 'binary:3000')", FORMATTER => 'toString'}
    
    注意:
    HBase shell中比较默认都是字符串比较,所以如果是比较数值类型的,会出现不准确的情况
    例如:在字符串比较中4000是比100000大的
    4.12 INCR
    4.12.1 需求
    某新闻APP应用为了统计每个新闻的每隔一段时间的访问次数,他们将这些数据保存在HBase中。
    该表格数据如下所示:
    新闻ID	访问次数	时间段	ROWKEY
    0000000001	12	00:00-01:00	0000000001_00:00-01:00
    0000000002	12	01:00-02:00	0000000002_01:00-02:00
    
    要求:原子性增加新闻的访问次数值。
    4.12.2 incr操作简介
    incr可以实现对某个单元格的值进行原子性计数。语法如下:
    incr '表名','rowkey','列蔟:列名',累加值(默认累加1)
    
     如果某一列要实现计数功能,必须要使用incr来创建对应的列
     使用put创建的列是不能实现累加的
    

    4.12.3 导入测试数据

    该脚本创建了一个表,名为NEWS_VISIT_CNT,列蔟为C1。并使用incr创建了若干个计数器,每个rowkey为:新闻的编号_时间段。CNT为count的缩写,表示访问的次数。
    
    hbase shell /export/software/NEWS_VISIT_CNT.txt 
    scan 'NEWS_VISIT_CNT', {LIMIT => 5, FORMATTER => 'toString'}
    4.12.4 需求一:对0000000020新闻01:00 - 02:00访问计数+1
    1.获取0000000020这条新闻在01:00-02:00当前的访问次数
    get_counter 'NEWS_VISIT_CNT','0000000020_01:00-02:00','C1:CNT'
    此处,如果用get获取到的数据是这样的:
    base(main):029:0> get 'NEWS_VISIT_CNT','0000000020_01:00-02:00','C1:CNT'
    COLUMN                                           CELL                                                                                                                                        
     C1:CNT                                          timestamp=1599529533072, value=\x00\x00\x00\x00\x00\x00\x00\x06                                                                             
    1 row(s)
    Took 0.0243 seconds
    
    2.使用incr进行累加
    incr 'NEWS_VISIT_CNT','0000000020_01:00-02:00','C1:CNT'
    
    3.再次查案新闻当前的访问次数
    get_counter 'NEWS_VISIT_CNT','0000000020_01:00-02:00','C1:CNT'
    4.13 更多的操作
    以下连接可以查看到所有HBase中支持的SHELL脚本。
    https://learnhbase.net/2013/03/02/hbase-shell-commands/
    

    5. shell管理操作

    5.1 status
    例如:显示服务器状态
    2.4.1 :062 > status
    1 active master, 0 backup masters, 3 servers, 0 dead, 1.0000 average load
    Took 0.0034 seconds     
    5.2 whoami
    显示HBase当前用户,例如:
    2.4.1 :066 > whoami
    root (auth:SIMPLE)
        groups: root
    Took 0.0080 seconds
    5.3 list
    显示当前所有的表
    2.4.1 :067 > list
    TABLE                                                                                                                                                  
    ORDER_INFO                                                                                                                                             
    1 row(s)
    Took 0.0266 seconds                                                                                                                                    
     => ["ORDER_INFO"]
    5.4 count
    统计指定表的记录数,例如:
    2.4.1 :070 > count 'ORDER_INFO'
    66 row(s)
    Took 0.0404 seconds                                                                                                                                    
     => 66
    5.5 describe
    展示表结构信息
    2.4.1 :074 > describe 'ORDER_INFO'
    Table ORDER_INFO is ENABLED                                                                                                                            
    ORDER_INFO                                                                                                                                             
    COLUMN FAMILIES DESCRIPTION                                                                                                                            
    {NAME => 'C1', VERSIONS => '1', EVICT_BLOCKS_ON_CLOSE => 'false', NEW_VERSION_BEHAVIOR => 'false', KEEP_DELETED_CELLS => 'FALSE', CACHE_DATA_ON_WRITE =
    > 'false', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', MIN_VERSIONS => '0', REPLICATION_SCOPE => '0', BLOOMFILTER => 'ROW', CACHE_INDEX_ON_WRITE =
    > 'false', IN_MEMORY => 'false', CACHE_BLOOMS_ON_WRITE => 'false', PREFETCH_BLOCKS_ON_OPEN => 'false', COMPRESSION => 'NONE', BLOCKCACHE => 'true', BLO
    CKSIZE => '65536'}                                                                                                                                     
    1 row(s)
    Took 0.0265 seconds        
    5.6 exists
    检查表是否存在,适用于表量特别多的情况
    2.4.1 :075 > exists 'ORDER_INFO'
    Table ORDER_INFO does exist                                                                                                                            
    Took 0.0050 seconds                                                                                                                                    
     => true
    5.7 is_enabled、is_disabled
    检查表是否启用或禁用
    2.4.1 :077 > is_enabled 'ORDER_INFO'
    true                                                                                                                                                   
    Took 0.0058 seconds                                                                                                                                    
     => true 
    2.4.1 :078 > is_disabled 'ORDER_INFO'
    false                                                                                                                                                  
    Took 0.0085 seconds                                                                                                                                    
     => 1
    5.8 alter
    该命令可以改变表和列蔟的模式,例如:
    

    创建一个USER_INFO表,两个列蔟C1、C2

    create 'USER_INFO', 'C1', 'C2'
    

    新增列蔟C3

    alter 'USER_INFO', 'C3'
    

    删除列蔟C3

    alter 'USER_INFO', 'delete' => 'C3'
    
    > 注意: 'delete' => 'C3',还是一个Map结构,只不过只有一个key,可以省略两边的{}
    > 5.9 disable/enable 禁用一张表/启用一张表
    > 5.10 drop 删除一张表,记得在删除表之前必须先禁用
    > 5.11 truncate 清空表的数据,禁用表-删除表-创建表
    
    展开全文
  • 在linux下操作hbase

    2021-05-10 04:11:54
    在linux下操作hbase作者:bin这个月比较忙,一直都没有时间整理最近学习的东西,T_T这里介绍如何使用hbase shell进行操作hbase具体的安装、配置,可以随意在网上找到,这里不赘述登录hbase shellhbase shell退出...
  • 但是一般不推荐使用start-all.sh(因为开源框架中内部命令启动有很多问题)。 **stop-all.sh 停止** 停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、Nod
  • 现在我们要是运行hbase的stop-hbase.sh命令 这时候继续运行jps命令查看,发现HMaster进程还存在,这是因为HMaster和hdfs可能还有工作没做完, 这时候有两个关闭的方法,一个是直接杀死他的进程kill-9(个人不推荐,...
  • hbase启动失败问题解决 1.查看:输入命令jps,能看到NameNode,DataNode和SecondaryNameNode都已经成功启动,表示hadoop启动成功。具体进程有:HRegionServer、HMaster、HQuorumPeer,表示HBase启动成功。 2.通过默认...
  • Hbase的DDL命令

    2021-03-17 20:07:57
    HBASE启动前置工作 1.启动hdfs集群(start-dfs.sh) 2.启动ZooKeeper集群(conf下zkserver.sh) 3.启动HBASE集群(start-hbase.sh) 命令 进入HBASE命令(hbase shell) 查看所有表(list) 查看名字空间(类似于mysql的...
  • HBase Shell命令大全

    2021-08-30 11:41:00
    HBase的名字的来源于Hadoop database,即hadoop数据库,不同于一般的关系数据库,它是非结构化数据存储的数据库,而且它是基于列的而不是基于行的模式。 HBase是一个分布式的、面向列的、基于Google Bigtable的开源...
  • 最近自学大数据技术栈中,将自己遇到的问题记录一下,希望能帮到其他学习的...这里写目录标题Hmaster启动后,一会自动消失ERROR:org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running ye.
  • 启动Hbase shell后执行list命令报错: Master is initializing  问题出现原因: 可能由于集群的机器时间不同步时,盲目的开启hbase造成的。 此外,集群机器时间不同步,还会导致集群开启异常,比如,...
  • Hbase启动没有HMaster进程问题解决

    千次阅读 2021-08-09 12:01:11
    安装好hbase1.4.1后启动找不到hmaster进程,已确认没有版本冲突。但能启动HRegionServer进程。然后ip:16010/master-status访问根本拒绝访问。 2.解决 2.1 启动的报错 启动报错 OpenJDK 64-Bit Server VM warning: ...
  • 启动HBase2.启用HBase Shell3.键入HBase Shell命令操作HBase三、常用HBase Shell实例1.常用的HBase Shell命令2.一个运用上述命令的综合实例:总结 前言 提示:本博客为博主在阅读吴章勇和王强老师编写的《大数据 ...
  • Hbase配置与启动

    2021-06-25 19:24:42
    hadoop已经完成配置,可以使用hadoop version命令查看 #hadoop version命令查看 hadoop version 二、Hbase配置 1、ZooKeeper和Hbase下载解压 这里博主是在windows上下载,然后利用puty传到Linux虚拟机的节点的...
  • 0 hbase本身就是一个数据库,也只有一...1 hbase shell操作:在hbase/bin 目录下,输入hbase 可以看到hbase所有命令如下:[root@master bin]# pwd/usr/local/hbase/bin[root@master bin]# hbaseUsage: hbase where a...
  • HBase建表的基本命令

    2021-09-15 10:55:57
    1.启动HBase外壳环境(shell):hbase shell 2.新建一张表“test” 要新建一个表,必须对你的表命名,并定义模式。一个表的模式包含表的属性和一个列族的列表。列族本身也有属性。可以在定义模式时一次定义它们。列...
  • HBase 常用Shell命令

    2020-12-21 03:10:55
    两个月前使用过hbase,现在最基本的命令都淡忘了,留一个备查~hbase shell命令描述alter修改列族(column family)模式count统计表中行的数量create创建表describe显示表相关的详细信息delete删除指定对象的值(可以为...
  • 不仅如此,而且启动HBase 的时候也非常慢 解决:在hbase/conf/hbase-site.xml 这个文件增加下面的代码 <property> <name>hbase.unsafe.stream.capability.enforce</name> <value
  • 安装Hbase1.官网下载安装包,我下载的是hbase-2.4.0-bin.tar.gz。2.解压:tar zxf hbase-2.4.0-bin.tar.gz3.安装JDK,并设置JAVA_HOME,通过vi ~/.bash_profile,设置环境变量export JAVA_HOME=/Library/Java/...
  • 查看 HBase 是否启动:jps(注:docker 容器内没有该命令) 进入 HBase 的客户端:./hbase shell 2.命名空间 1)创建命名空间 create_namespace '命名空间' 2)查看命名空间 list_nameapce 注:HBase系统...
  • 文章目录项目场景:问题描述:原因分析:解决方案: 项目场景: Ubuntu20.04 Hadoop3.2.2 ...在启动 Hbase shell 后,使用 create, list 等命令时,出现如下报错: hbase(main):001:0> list TABLE
  • 今天在搭建的HBase单机伪分布式集群环境上运行start-hbase.sh来启动Hbase,使用jps命令查看进程: 10195 Jps 9237 JobHistoryServer 9669 HMaster 8839 ResourceManager 9080 NodeManager 9608 HQuorumPeer ...
  • 1 Hmaster主机观察是否有闪退 java.lang.IllegalStateException: The procedure WAL relies on the ability to hsync for proper operation during component ... Please check the config value of 'hbase.procedure.
  • 这两天,在新的服务器上部署大数据相关内容,其中安装HBase,所有安装都已成功,但是启动的时候,HMaster启动失败,有时候,jps查看是HMaster存在几十秒就挂了(总共七台服务器,node1为master,node2为backup-...
  • CentOS 7 安装 Hbase及其常用命令 1、Hbase安装 (1)解压Hbase压缩包,如下图所示: (2) 修改配置文件 1)进入hbase-1.2.6/conf目录,如下图所示: 2)修改hbase-env.sh文件,如下图所示: 3)修改hbase-site.xml...
  • hadoop@dblab-VirtualBox:~$ source /etc/profile hadoop@dblab-VirtualBox:~$ echo $HBASE_HOME ...localhost: starting zookeeper, logging to /usr/local/hbase/bin/../logs/hbase-hadoop-zookeeper-dblab-Virtua
  • 一、错误描述 网上查这个错误几乎都是说是因为Hadoop是处于安全模式,用命令退出即可 但是我的并没有作用,如果你的虚拟机有这种情况,可以看一下我的解决方法 hbase:001:0> list TABLE

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 34,942
精华内容 13,976
关键字:

hbase启动命令