一、集群规划
这里搭建一个 3 节点的 HBase 集群,其中三台主机上均为 Regin Server。同时为了保证高可用,除了在 hadoop001 上部署主 Master 服务外,还在 hadoop002 上部署备用的 Master 服务。Master 服务由 Zookeeper 集群进行协调管理,如果主 Master 不可用,则备用 Master 会成为新的主 Master。
二、前置条件
HBase 的运行需要依赖 Hadoop 和 JDK(HBase 2.0+ 对应 JDK 1.8+) 。同时为了保证高可用,这里我们不采用 HBase 内置的 Zookeeper 服务,而采用外置的 Zookeeper 集群。相关搭建步骤可以参阅:
- Linux 环境下 JDK 安装
- Zookeeper 单机环境和集群环境搭建
- Hadoop 集群环境搭建
三、集群搭建
3.1 下载并解压
下载并解压,这里我下载的是 CDH 版本 HBase,下载地址为:http://archive.cloudera.com/cdh5/cdh/5/
1
2 1# tar -zxvf hbase-1.2.0-cdh5.15.2.tar.gz
2
3.2 配置环境变量
1
2 1# vim /etc/profile
2
添加环境变量:
1
2
3 1export HBASE_HOME=usr/app/hbase-1.2.0-cdh5.15.2
2export PATH=$HBASE_HOME/bin:$PATH
3
使得配置的环境变量立即生效:
1
2 1# source /etc/profile
2
3.3 集群配置
进入 ${HBASE_HOME}/conf 目录下,修改配置:
1. hbase-env.sh
1
2
3
4
5 1# 配置JDK安装位置
2export JAVA_HOME=/usr/java/jdk1.8.0_201
3# 不使用内置的zookeeper服务
4export HBASE_MANAGES_ZK=false
5
2. hbase-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18 1<configuration>
2 <property>
3 <!-- 指定 hbase 以分布式集群的方式运行 -->
4 <name>hbase.cluster.distributed</name>
5 <value>true</value>
6 </property>
7 <property>
8 <!-- 指定 hbase 在 HDFS 上的存储位置 -->
9 <name>hbase.rootdir</name>
10 <value>hdfs://hadoop001:8020/hbase</value>
11 </property>
12 <property>
13 <!-- 指定 zookeeper 的地址-->
14 <name>hbase.zookeeper.quorum</name>
15 <value>hadoop001:2181,hadoop002:2181,hadoop003:2181</value>
16 </property>
17</configuration>
18
3. regionservers
1
2
3
4 1hadoop001
2hadoop002
3hadoop003
4
4. backup-masters
1
2 1hadoop002
2
backup-masters 这个文件是不存在的,需要新建,主要用来指明备用的 master 节点,可以是多个,这里我们以 1 个为例。
3.4 HDFS客户端配置
这里有一个可选的配置:如果您在 Hadoop 集群上进行了 HDFS 客户端配置的更改,比如将副本系数 dfs.replication 设置成 5,则必须使用以下方法之一来使 HBase 知道,否则 HBase 将依旧使用默认的副本系数 3 来创建文件:
- Add a pointer to your HADOOP_CONF_DIR to the HBASE_CLASSPATH environment variable in hbase-env.sh.
- Add a copy of hdfs-site.xml (or hadoop-site.xml) or, better, symlinks, under ${HBASE_HOME}/conf, or
- if only a small set of HDFS client configurations, add them to hbase-site.xml.
以上是官方文档的说明,这里解释一下:
第一种 :将 Hadoop 配置文件的位置信息添加到 hbase-env.sh 的 HBASE_CLASSPATH 属性,示例如下:
1
2 1export HBASE_CLASSPATH=usr/app/hadoop-2.6.0-cdh5.15.2/etc/hadoop
2
第二种 :将 Hadoop 的 hdfs-site.xml 或 hadoop-site.xml 拷贝到 ${HBASE_HOME}/conf 目录下,或者通过符号链接的方式。如果采用这种方式的话,建议将两者都拷贝或建立符号链接,示例如下:
1
2
3
4
5
6 1# 拷贝
2cp core-site.xml hdfs-site.xml /usr/app/hbase-1.2.0-cdh5.15.2/conf/
3# 使用符号链接
4ln -s /usr/app/hadoop-2.6.0-cdh5.15.2/etc/hadoop/core-site.xml
5ln -s /usr/app/hadoop-2.6.0-cdh5.15.2/etc/hadoop/hdfs-site.xml
6
注:hadoop-site.xml 这个配置文件现在叫做 core-site.xml
第三种 :如果你只有少量更改,那么直接配置到 hbase-site.xml 中即可。
3.5 安装包分发
将 HBase 的安装包分发到其他服务器,分发后建议在这两台服务器上也配置一下 HBase 的环境变量。
1
2
3 1scp -r /usr/app/hbase-1.2.0-cdh5.15.2/ hadoop002:usr/app/
2scp -r /usr/app/hbase-1.2.0-cdh5.15.2/ hadoop003:usr/app/
3
四、启动集群
4.1 启动ZooKeeper集群
分别到三台服务器上启动 ZooKeeper 服务:
1
2 1 zkServer.sh start
2
4.2 启动Hadoop集群
1
2
3
4
5 1# 启动dfs服务
2start-dfs.sh
3# 启动yarn服务
4start-yarn.sh
5
4.3 启动HBase集群
进入 hadoop001 的 ${HBASE_HOME}/bin,使用以下命令启动 HBase 集群。执行此命令后,会在 hadoop001 上启动 Master 服务,在 hadoop002 上启动备用 Master 服务,在 regionservers 文件中配置的所有节点启动 region server 服务。
1
2 1start-hbase.sh
2
4.5 查看服务
访问 HBase 的 Web-UI 界面,这里我安装的 HBase 版本为 1.2,访问端口为 60010,如果你安装的是 2.0 以上的版本,则访问端口号为 16010。可以看到 Master 在 hadoop001 上,三个 Regin Servers 分别在 hadoop001,hadoop002,和 hadoop003 上,并且还有一个 Backup Matser 服务在 hadoop002 上。
hadoop002 上的 HBase 出于备用状态:
更多大数据系列文章可以参见 GitHub 开源项目: 大数据入门指南