Hadoop+HBase+ZooKeeper分布式集群环境搭建

释放双眼,带上耳机,听听看~!

Hadoop+HBase+ZooKeeper分布式集群环境搭建

概述
1. 安装准备
1.1 软件系统清单
1.2 IP 地址配置清单
2. 准备工作
2.1 关闭防火墙
2.2 安装JDK
2.3 添加Hosts映射关系
2.4 集群之间SSH无密码登陆
3. Hadoop集群安装配置
3.1 安装置配置Hadoop
3.1.1 安装Hadoop
3.1.2 配置core-site.xml
3.1.3 配置hadoop-env.sh
3.1.4 配置hdfs-site.xml
3.1.5 配置mapred-site.xml
3.1.6 配置yarn-env.sh
3.1.7 配置yarn-site.xml
3.1.8 配置 slaves
3.2 部署他其他节点
3.3 分别配置Hadoop环境变量
3.4 格式化namenode
3.5 启动Hadoop
3.6 启动成功标志
3.7 关闭Hadoop
4. ZooKeeper集群安装配置
4.1 安装配置 Zookeeper
4.2 部署其他节点
4.3 启动ZooKeeper集群
4.4 启动成功标志
4.5 关闭Zookeeper
5. HBase集群安装配置
5.1 安装配置HBase
5.1.1 安装 HBase
5.1.2 配置hbase-env.sh
5.1.3 配置hbase-site.xml
5.1.4 更改 regionservers
5.2 部署他其他节点
5.3 分别配置Hbase环境变量
5.4 启动Hbase集群
5.5 启动成功标志
5.6 关闭Hbase集群
5.7 进入hbase shell进行验证

概述

本次 Hadoop 集群安装实验,采用在 VMware 虚拟机下安装多个 CentOS 系统的 方式进行;3 个 CentOS 系统中,其中,1 个为 Master 机,作为 NameNode;另外 3 个为 Slave 机,作为 DataNode,均采用独立静态 IP 地址配置。

1. 安装准备

1.1 软件系统清单

序号 名称 描述
1 jdk-8u171-linux-i586.tar.gz 所有环境都需要的配置 地址
2 VMware 虚拟机安装程序,这里采用 VMware12 模拟测试 地址
3 CentOS-7-x86_64-DVD-1804.iso 集群操作系统 地址
4 hadoop-2.8.3.tar.gz Hadoop 安装程序 地址
5 hbase-2.0.0-bin.tar.gz HBase 安装程序 地址
6 zookeeper-3.4.12.tar.gz 集群分布式应用程序协调服务 地址
以下是hbase官网提供的Hbase和Hadoop版本兼容信息 参考

“S” = supported(支持)
“X” = not supported(不支持)
“NT” = Not tested(未测试)
HBase-1.2.x HBase-1.3.x HBase-1.5.x HBase-2.0.x HBase-2.1.x
Hadoop-2.4.x S S X X X
Hadoop-2.5.x S S X X X
Hadoop-2.6.0 X X X X X
Hadoop-2.6.1+ S S X S X
Hadoop-2.7.0 X X X X X
Hadoop-2.7.1+ S S S S S
Hadoop-2.8.[0-1] X X X X X
Hadoop-2.8.2 NT NT NT NT NT
Hadoop-2.8.3+ NT NT NT S S
Hadoop-2.9.0 X X X X X
Hadoop-2.9.1+ NT NT NT NT NT
Hadoop-3.0.x X X X X X
Hadoop-3.1.0 X X X X X

1.2 IP 地址配置清单

集群环境至少需要3个节点(也就是3台服务器设备):1个Master,2个Slave,节点之间局域网连接,可以相互ping通,下面举例说明,配置节点IP分配如下:

Hostname IP User Password
master 192.168.1.60 root root
weiqi1 192.168.1.61 root root
weiqi2 192.168.1.62 root root
三个节点均使用CentOS-7系统,为了便于维护,集群环境配置项最好使用相同用户名、用户密码、相同hadoop、hbase、zookeeper目录结构。

2. 准备工作

2.1 关闭防火墙

关闭firewalld防火墙:

1


1
2
3
1$ systemctl status firewalld.service    #检查防火墙状态
2
3

2


1
2
3
1$ systemctl stop firewalld.service      #关闭防火墙
2
3

3


1
2
3
1$ systemctl disable firewalld.service   #禁止开机启动防火墙
2
3

 关闭iptables防火墙:

1


1
2
3
1$ systemctl status iptables             #检查防火墙状态
2
3

2


1
2
3
1$ systemctl stop iptables               #关闭防火墙
2
3

3


1
2
3
1$ systemctl disable iptables            #禁止开机启动防火墙
2
3

2.2 安装JDK


1
2
3
1上传jdk-8u171-linux-i586.tar.gz安装包到根目录下新建的weiqi文件夹中,
2
3

进去到weiqi目录下,解压安装包:

1


1
2
3
1$ tar -zxvf jdk-8u171-linux-i586.tar.gz
2
3

配置java环境变量,打开/etc/profile文件

1


1
2
3
1$ nano /etc/profile
2
3

添加如下配置:

1


1
2
3
1export JAVA_HOME=/weiqi/jdk1.8.0_171
2
3

2


1
2
3
1export PATH=$JAVA_HOME/bin:$PATH export
2
3

3


1
2
3
1CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
2
3

然后重新加载配置文件使之生效:

1


1
2
3
1$ source /etc/profile
2
3

检查java环境是否配置成功:


1
2
3
1$ java -version
2
3

看到如下响应说明环境OK:


1
2
3
4
5
1java version "1.8.0_171"
2Java(TM) SE Runtime Environment (build 1.8.0_171-b11)
3Java HotSpot(TM) 64-Bit Server VM (build 25.171-b11, mixed mode)
4
5

2.3 添加Hosts映射关系

分别在三个节点上修改hosts映射关系:

1


1
2
3
1$ nano /etc/hosts    
2
3

添加的内容如下:


1
2
3
4
5
11.192.168.1.60 master
22.192.168.1.61 weiqi1
33.192.168.1.62 weiqi2
4
5

2.4 集群之间SSH无密码登陆

CentOS默认安装了ssh,如果没有你需要先安装ssh 。

集群环境的使用必须通过ssh无密码登陆来执行,本机登陆本机必须无密码登陆,主机与从机之间必须可以双向无密码登陆,从机与从机之间无限制。

主要有三步:①生成公钥和私钥、②导入公钥到认证文件、③更改权限

分别在各个主机上生成密钥:

1


1
2
3
1$ ssh-keygen -t rsa                                 //生成秘钥  
2
3

在weiqi1上:

1


1
2
3
1$ cp ~/.ssh/id_rsa.pub ~/.ssh/weiqi1.id_rsa.pub     //复制备份
2
3

2


1
2
3
1$ scp ~/.ssh/weiqi1.id_rsa.pub master:~/.ssh        //拷贝到master准备认证
2
3

在weiqi2上:

1


1
2
3
1$ cp ~/.ssh/id_rsa.pub ~/.ssh/weiqi2.id_rsa.pub     //复制备份
2
3

2


1
2
3
1$ scp ~/.ssh/weiqi2.id_rsa.pub master:~/.ssh        //拷贝到master准备认证
2
3

在master 上:


1
2
3
4
5
6
7
8
1$ cd ~/.ssh
2$ cat id_rsa.pub >> authorized_keys
3$ cat weiqi1.id_rsa.pub >>authorized_keys           //导入到认证文件
4$ cat weiqi2.id_rsa.pub >>authorized_keys           //导入到认证文件
5$ scp authorized_keys weiqi1:~/.ssh                 //更改权限
6$ scp authorized_keys weiqi2:~/.ssh                 //更改权限
7
8

测试:

1


1
2
3
4
5
6
7
8
9
1[root@master ~]# ssh weiqi1
2Last login: Tue Jul 10 16:50:05 2018 from 192.168.1.97
3[root@weiqi1 ~]#
4
5[root@master ~]# ssh weiqi2
6Last login: Tue Jul 10 16:50:06 2018 from 192.168.1.97
7[root@weiqi2 ~]#
8
9

可通过exit退回到master上

3. Hadoop集群安装配置

  3.1 安装置配置Hadoop

  3.1.1 安装Hadoop

  上传hadoop-2.8.3.tar.gz安装包到weiqi文件夹下

解压安装包:


1
2
3
4
5
6
7
8
9
10
1$ tar -zxvf hadoop-2.8.3.tar.gz
2进入到hadoop-2.8.3下:
3
4分别创建如下相关文件:
5$ mkdir hdfs
6$ mkdir hdfs/data       //DataNode存放文件夹
7$ mkdir hdfs/name       //NameNode存放文件夹
8$ mkdir hdfs/tmp        //数据临时存放文件夹
9
10

进入到etc/hadoop目录下,分别修改如下配置文件

3.1.2 配置core-site.xml


1
2
3
1nano core-site.xml
2
3

1
2
3
4
5
6
7
8
9
10
11
12
13
14
1<configuration>
2    <!-- 指定hdfs的nameservice为master -->
3    <property>
4        <name>fs.defaultFS</name>
5        <value>hdfs://master:9000</value>
6    </property>
7    <!--指定hadoop数据临时存放目录-->
8    <property>
9        <name>hadoop.tmp.dir</name>
10        <value>/weiqi/hadoop-2.8.3/hdfs/tmp</value>
11    </property>
12</configuration>
13
14

3.1.3 配置hadoop-env.sh

$ nano hadoop-env.sh


1
2
3
4
1#添加JDK路径
2export JAVA_HOME=/home/java/jdk1.8.0_171
3
4

3.1.4 配置hdfs-site.xml


1
2
3
1$ nano hdfs-site.xml
2
3

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
1<configuration>
2    <!-- 设置hdfs中存放NameNode的文件路径 -->
3    <property>
4        <name>dfs.namenode.name.dir</name>
5        <value>file:/weiqi/hadoop-2.8.3/hdfs/name</value>
6    </property>
7    <!-- 设置hdfs中存放DataNode的文件路径 -->
8    <property>
9    <name>dfs.datanode.data.dir</name>
10        <value>file:/weiqi/hadoop-2.8.3/hdfs/data</value>
11    </property>
12    <!-- 指定hdfs保存数据的副本数量 -->
13    <property>
14        <name>dfs.replication</name>
15        <value>2</value>
16   </property>
17</configuration>
18
19

3.1.5 配置mapred-site.xml


1
2
3
1$ nano mapred-site.xml
2
3

1
2
3
4
5
6
7
8
9
10
11
12
13
14
1<configuration>
2    <!-- 连接jobtrack服务器的配置项 -->
3    <property>
4        <name>mapred.job.tracker</name>
5        <value>master:9001</value>
6    </property>
7    <!-- 告诉hadoop以后MR(Map/Reduce)运行在YARN上 -->
8   <property>
9        <name>mapreduce.framework.name</name>
10        <value>yarn</value>
11    </property>
12</configuration>
13
14


3.1.6 配置yarn-env.sh


1
2
3
1$ nano yarn-env.sh
2
3

#添加JDK路径


1
2
3
1export JAVA_HOME=/home/java/jdk1.8.0_171
2
3

3.1.7 配置yarn-site.xml


1
2
3
1$ nano yarn-site.xml
2
3

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
1<configuration>
2    <!--nomenodeManager获取数据的方式是shuffle-->
3    <property>
4        <name>yarn.nodemanager.aux-services</name>
5        <value>mapreduce_shuffle</value>
6    </property>
7    <!--指定Yarn的老大(ResourceManager)的地址-->
8    <property>
9        <name>yarn.resourcemanager.hostname</name>
10        <value>master</value>
11    </property>
12    <!--Yarn打印工作日志-->
13    <property>
14        <name>yarn.log-aggregation-enable</name>
15        <value>true</value>
16    </property>
17</configuration>
18
19

3.1.8 配置 slaves


1
2
3
1$ nano slaves
2
3

1
2
3
4
1weiqi1
2weiqi2
3
4

3.2 部署他其他节点


1
2
3
1$ scp -r /weiqi/hadoop-2.8.3 weiqi1:/weiqi/hadoop-2.8.3
2
3

1
2
3
1$ scp -r /weiqi/hadoop-2.8.3 weiqi2:/weiqi/hadoop-2.8.3
2
3

3.3 分别配置Hadoop环境变量


1
2
3
1$ nano /etc/profile
2
3

添加:

#配置Hadoop环境变量


1
2
3
4
5
6
7
8
9
1export HADOOP_HOME=/weiqi/hadoop-2.8.3
2export HADOOP_COMMON_HOME=$HADOOP_HOME
3export HADOOP_HDFS_HOME=$HADOOP_HOME
4export HADOOP_MAPRED_HOME=$HADOOP_HOME
5export HADOOP_YARN_HOME=$HADOOP_HOME
6export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
7export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
8
9

然后重新加载配置文件使之生效:


1
2
3
1$ source /etc/profile
2
3

3.4 格式化namenode

进入master,格式化namenode,第一次启动服务前执行的操作,以后不需要执行。


1
2
3
1$ hdfs namenode -format
2
3

如出现包含以下结果,说明格式化成功了:


1
2
3
4
5
1***************************************************
2************has been successfully formatted
3***************************************************
4
5

同时,也能在master的/weiqi/hadoop-2.8.3/hdfs/name生成了current文件夹

3.5 启动Hadoop

进入master

#若配置了环境变量


1
2
3
1$ start-all.sh
2
3

若没有配置环境变量
进入:/weiqi/hadoop-2.8.3/


1
2
3
1$ sbin/start-all.sh
2
3

3.6 启动成功标志

在master上使用jps命令:


1
2
3
1$ jps
2
3

1
2
3
4
5
6
7
1[root@master ~]# jps
210499 Jps
31511 SecondaryNameNode
41321 NameNode
51659 ResourceManager
6
7

在weiqi1和weiqi2上使用jps命令


1
2
3
1$ jps
2
3

1
2
3
4
5
6
1[root@weiqi1 ~]# jps
21234 DataNode
31336 NodeManager
46524 Jps
5
6

同时也能在浏览器上通过http://192.168.1.60:50070web端查看Hadoop信息

或者通过http://192.168.1.60:8088web端查看Hadoop信息

3.7 关闭Hadoop

关闭 master节点上的 hadoop


1
2
3
1[root@master sbin]# stop-all.sh
2
3

4. ZooKeeper集群安装配置

4.1 安装配置 Zookeeper

上传zookeeper-3.4.12.tar.gz安装包到weiqi文件夹下

解压安装包:


1
2
3
1$ tar -zxvf zookeeper-3.4.12.tar.gz
2
3

进入到zookeeper-3.4.12下:

分别创建如下相关文件:


1
2
3
4
1$ mkdir data        //zookeeper数据存放文件夹
2$ mkdir logs        //zookeeper日志存放文件夹
3
4

进入到conf目录下,复制zoo_sample.cfg为zoo.cfg:


1
2
3
1$ cp zoo_sample.cfg zoo.cfg
2
3

在zoo.cfg文件下修改添加如下配置:


1
2
3
4
5
6
1dataDir=/weiqi/zookeeper-3.4.12/data
2server.0=master:2888:3888
3server.1=weiqi1:2888:3888
4server.2=weiqi2:2888:3888
5
6

4.2 部署其他节点

分别复制zookeeper-3.4.12到其他节点下:


1
2
3
4
1$ scp -r /weiqi/zookeeper-3.4.12 weiqi1:/weiqi/zookeeper-3.4.12
2$ scp -r /weiqi/zookeeper-3.4.12 weiqi2:/weiqi/zookeeper-3.4.12
3
4

分别配置每台主机的zookeeper环境变量:


1
2
3
1$ nano /etc/profile
2
3

添加:


1
2
3
4
5
1#配置zookeeper环境变量
2export ZOOKEEPER_HOME=/weiqi/zookeeper-3.4.12
3export PATH=$PATH:$ZOOKEEPER_HOME/bin:$ZOOKEEPER_HOME/conf
4
5

然后重新加载配置文件使之生效:


1
2
3
1$ source /etc/profile
2
3

分别在每台主机的/weiqi/zookeeper-3.4.12/data目录下创建myid文件,同时和zoo.cfg文件中的server对应,master的myid中填0、weiqi1的myid填1、weiqi2的myid填2,

如下:

master下:


1
2
3
4
5
1[root@master ~]# nano /weiqi/zookeeper-3.4.12/data/myid
2  GNU nano 2.3.1                        文件: /weiqi/zookeeper-3.4.12/data/myid                
30
4
5


weiqi1下:


1
2
3
4
5
1[root@weiqi1  ~]# nano /weiqi/zookeeper-3.4.12/data/myid
2  GNU nano 2.3.1                        文件: /weiqi/zookeeper-3.4.12/data/myid                
31
4
5


weiqi2下:


1
2
3
4
5
6
1[root@weiqi2 ~]# nano /weiqi/zookeeper-3.4.12/data/myid
2  GNU nano 2.3.1                        文件: /weiqi/zookeeper-3.4.12/data/myid                
32
4​
5
6

4.3 启动ZooKeeper集群

在ZooKeeper集群的每个节点上,执行启动ZooKeeper服务的脚本:

若配置了环境变量


1
2
3
1$ zkServer.sh start
2
3

若没有配置环境变量


1
2
3
1cd /weiqi/zookeeper-3.4.12
2
3

1
2
3
1$ /bin/zkServer.sh start
2
3

查看服务是否启动成功:

#若配置了环境变量


1
2
3
1$ zkServer.sh status
2
3

若没有配置环境变量


1
2
3
4
1cd /weiqi/zookeeper-3.4.12
2$ /bin/zkServer.sh status
3
4

成功状态如下:

貌似leader节点是随机分配的:


1
2
3
4
5
6
7
1[root@master ~]# zkServer.sh status
2ZooKeeper JMX enabled by default
3Using config: /weiqi/zookeeper-3.4.12/bin/../conf/zoo.cfg
4Mode: leader
5follower
6
7

1
2
3
4
5
6
1[root@weiqi1 ~]# zkServer.sh status
2ZooKeeper JMX enabled by default
3Using config: /weiqi/zookeeper-3.4.12/bin/../conf/zoo.cfg
4Mode: follower
5
6

4.4 启动成功标志

在master上使用jps命令:


1
2
3
1$ jps
2
3

1
2
3
4
1[root@master ~]# jps
22063 QuorumPeerMain
3
4

在weiqi1和weiqi2上使用jps命令


1
2
3
1$ jps
2
3

1
2
3
4
1[root@weiqi1 ~]# jps
21593 QuorumPeerMain
3
4

4.5 关闭Zookeeper

关闭 master节点上的 zookeeper 和 weiqi1,weiqi2节点的 zookeeper 的命令式一样的。 命令如下:


1
2
3
1[root@master bin]# zkServer.sh stop
2
3

5. HBase集群安装配置

5.1 安装配置HBase

5.1.1 安装 HBase

上传hbase-2.0.0-bin.tar.gz安装包到weiqi文件夹下

解压安装包:


1
2
3
1$ tar -zxvf hbase-2.0.0-bin.tar.gz
2
3

进入到hbase-2.0.0-bin下:

分别创建如下相关文件:


1
2
3
4
5
6
1$ mkdir hdfs
2$ mkdir hdfs/data       //DataNode存放文件夹
3$ mkdir hdfs/name       //NameNode存放文件夹
4$ mkdir hdfs/tmp        //数据临时存放文件夹
5
6

进入到conf目录下,分别修改如下配置文件
5.1.2 配置hbase-env.sh


1
2
3
1$ nano hbase-env.sh
2
3

#指定Java路径


1
2
3
1export JAVA_HOME=/home/java/jdk1.8.0_171
2
3

#配置hbase日志输出地址


1
2
3
1export HBASE_LOG_DIR=${HBASE_HOME}/logs
2
3

#指定Hadoop配置


1
2
3
1export HBASE_CLASSPATH=/weiqi/hadoop-2.8.3/etc/hadoop
2
3

1
2
3
1#禁用默认的zookeeper,使用单独的zookeeper
2
3

1
2
3
1export HBASE_MANAGES_ZK=false
2
3

5.1.3 配置hbase-site.xml


1
2
3
1$ nano hbase-site.xml
2
3

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
1<configuration>
2    <!-- HBase集群中所有RegionServer共享目录,用来持久化HBase的数据,
3        一般设置的是hdfs的文件目录-->
4    <property>
5        <name>hbase.rootdir</name>
6        <value>hdfs://master:9000/hbase</value>
7    </property>
8    <!-- 集群的模式,分布式还是单机模式,如果设置成false的话,
9        HBase进程和Zookeeper进程在同一个JVM进程 -->
10    <property>
11        <name>hbase.cluster.distributed</name>
12        <value>true</value>
13    </property>
14    <!--默认HMaster HTTP访问端口-->
15    <property>
16        <name>hbase.master.info.port</name>
17        <value>16010</value>
18    </property>
19    <!--默认HRegionServer HTTP访问端口-->
20    <property>
21        <name>hbase.regionserver.info.port</name>
22        <value>16030</value>
23    </property>
24    <!--指定zookeeper访问端口-->
25    <property>
26        <name>hbase.zookeeper.property.clientPort</name>
27        <value>2181</value>
28    </property>
29    <!-- zookeeper集群的URL配置,多个host中间用逗号(,)分割 -->
30    <property>
31        <name>hbase.zookeeper.quorum</name>
32        <value>master,weiqi1,weiqi2</value>
33    </property>
34    <!-- 客户端与zk连接超时时间 -->
35    <property>
36        <name>zookeeper.session.timeout</name>
37        <value>60000000</value>
38    </property>
39    <!--  -->
40    <property>
41        <name>dfs.support.append</name>
42        <value>true</value>
43    </property>
44</configuration>
45
46

5.1.4 更改 regionservers

分别把每个节点下的hostname填写到该文件中


1
2
3
1$ nano regionservers
2
3

1
2
3
4
1weiqi1
2weiqi2
3
4

5.2 部署他其他节点


1
2
3
4
1$ scp -r /weiqi/hbase-2.0.0-bin weiqi1:/weiqi/hbase-2.0.0-bin
2$ scp -r /weiqi/hbase-2.0.0-bin weiqi2:/weiqi/hbase-2.0.0-bin
3
4

5.3 分别配置Hbase环境变量


1
2
3
1$ nano /etc/profile
2
3

添加:
#配置hbase环境变量


1
2
3
4
1export HBASE_HOME=/weiqi/hbase-2.0.0
2export PATH=$PATH:$HBASE_HOME/bin
3
4

然后重新加载配置文件使之生效:


1
2
3
1$ source /etc/profile
2
3

5.4 启动Hbase集群

进入master

#若配置了环境变量


1
2
3
1$ start-hbase.sh
2
3

若没有配置环境变量


1
2
3
4
1cd /weiqi/hbase-2.0.0/
2$ bin/start-hbase.sh
3
4

5.5 启动成功标志

在master上使用jps命令:

$ jps


1
2
3
4
5
6
7
8
9
1[root@master ~]# jps
22880 HMaster                     #hbase master进程
31511 SecondaryNameNode          #hadoop进程
41321 NameNode                    #hadoop master进程
51659 ResourceManager            #hadoop进程
616029 Jps
72063 QuorumPeerMain             #zookeeper进程
8
9

在weiqi1和weiqi2上使用jps命令


1
2
3
1$ jps
2
3

1
2
3
4
5
6
7
8
1[root@weiqi1 ~]# jps
29953 Jps
31234 DataNode                    #hadoop slave进程
41336 NodeManager                 #hadoop slave进程
51593 QuorumPeerMain              #zookeeper进程
61900 HRegionServer               #hbase slave进程
7
8

同时也能在浏览器上通过http://192.168.1.60:16010web端查看Hbase信息

5.6 关闭Hbase集群
关闭 master节点上的 hbase


1
2
3
1[root@master ~]# stop-hbase.sh
2
3

5.7 进入hbase shell进行验证


1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
1[root@master ~]# hbase shell
2SLF4J: Class path contains multiple SLF4J bindings.
3SLF4J: Found binding in [jar:file:/weiqi/hbase-2.0.0/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
4SLF4J: Found binding in [jar:file:/weiqi/hadoop-2.8.3/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
5SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
6SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
7HBase Shell
8Use "help" to get list of supported commands.
9Use "exit" to quit this interactive shell.
10Version 2.0.0, r7483b111e4da77adbfc8062b3b22cbe7c2cb91c1, Sun Apr 22 20:26:55 PDT 2018
11Took 0.0018 seconds                                                                                                                  
12hbase(main):001:0> list
13TABLE                                                        
140 row(s)
15Took 0.8049 seconds                                                                                                                  
16=> []
17hbase(main):002:0> status
181 active master, 0 backup masters, 2 servers, 0 dead, 2.0000 average load
19Took 0.3276 seconds                                                                                                                  
20    hbase(main):003:0>
21
22

给TA打赏
共{{data.count}}人
人已打赏
安全运维

OpenSSH-8.7p1离线升级修复安全漏洞

2021-10-23 10:13:25

安全运维

设计模式的设计原则

2021-12-12 17:36:11

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索