HBase集群安装部署
作者:互联网
1.1 准备安装包
-
下载安装包并上传到hadoop01服务器
-
安装包下载地址:
https://www.apache.org/dyn/closer.lua/hbase/2.2.6/hbase-2.2.6-bin.tar.gz -
将安装包上传到node01服务器/bigdata/softwares路径下,并进行解压
[hadoop@hadoop01 ~]$ cd /bigdata/soft/
[hadoop@hadoop01 soft]$ tar -zxvf hbase-2.2.6-bin.tar.gz -C /bigdata/install/
1.2 修改HBase配置文件
1.2.1 hbase-env.sh
- 修改文件
[hadoop@hadoop01 softwares]$ cd /bigdata/install/hbase-2.2.6/conf
[hadoop@hadoop01 conf]$ vi hbase-env.sh
- 修改如下两项内容,值如下
export JAVA_HOME=/bigdata/install/jdk1.8.0_141
export HBASE_MANAGES_ZK=false
1.2.2 hbase-site.xml
- 修改文件
[hadoop@hadoop01 conf]$ vi hbase-site.xml
- 内容如下
<configuration>
<!-- 指定hbase在HDFS上存储的路径 -->
<property>
<name>hbase.rootdir</name>
<value>hdfs://hadoop01:8020/hbase</value>
</property>
<!-- 指定hbase是否分布式运行 -->
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<!-- 指定zookeeper的地址,多个用“,”分割 -->
<property>
<name>hbase.zookeeper.quorum</name>
<value>hadoop01,hadoop02,hadoop03:2181</value>
</property>
<!--指定hbase管理页面-->
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
<!-- 在分布式的情况下一定要设置,不然容易出现Hmaster起不来的情况 -->
<property>
<name>hbase.unsafe.stream.capability.enforce</name>
<value>false</value>
</property>
</configuration>
1.2.3 regionservers
- 修改文件
[hadoop@hadoop01 conf]$ vi regionservers
- 指定HBase集群的从节点;原内容清空,添加如下三行
hadoop01
hadoop02
hadoop03
1.2.4 back-masters
- 创建backup-masters配置文件,里边包含备份HMaster节点的主机名,每个机器独占一行,实现HMaster的高可用
[hadoop@hadoop01 conf]$ vi backup-masters
- 将hadoop03作为备份的HMaster节点,问价内容如下
hadoop03
1.3 分发安装包
- 将 hadoop01上的HBase安装包,拷贝到其他机器上
[hadoop@hadoop01 conf]$ cd /bigdata/install
[hadoop@hadoop01 install]$ xsync hbase-2.2.6/
1.4 创建软连接
-
注意:三台机器均做如下操作
-
因为HBase集群需要读取hadoop的core-site.xml、hdfs-site.xml的配置文件信息,所以我们三台机器都要执行以下命令,在相应的目录创建这两个配置文件的软连接
ln -s /bigdata/install/hadoop-3.1.4/etc/hadoop/core-site.xml /bigdata/install/hbase-2.2.6/conf/core-site.xml
ln -s /bigdata/install/hadoop-3.1.4/etc/hadoop/hdfs-site.xml /bigdata/install/hbase-2.2.6/conf/hdfs-site.xml
- 执行完后,出现如下效果,以hadoop02为例
1.5 添加HBase环境变量
- 注意:三台机器均执行以下命令,添加环境变量
sudo vi /etc/profile
- 文件末尾添加如下内容
export HBASE_HOME=/bigdata/install/hbase-2.2.6
export PATH=$PATH:$HBASE_HOME/bin
- 重新编译/etc/profile,让环境变量生效
source /etc/profile
1.6 HBase的启动与停止
- 需要提前启动HDFS及ZooKeeper集群
- 如果没开启hdfs,请在node01运行
start-dfs.sh
命令 - 如果没开启zookeeper,请在3个节点分别运行
zkServer.sh start
命令
- 如果没开启hdfs,请在node01运行
- 第一台机器hadoop01(HBase主节点)执行以下命令,启动HBase集群
[hadoop@hadoop01 ~]$ start-hbase.sh
-
启动完后,jps查看HBase相关进程
hadoop01、hadoop03上有进程HMaster、HRegionServer
hadoop02上有进程HRegionServer
1.7 访问WEB页面
-
浏览器页面访问
1.8 停止HBase集群
-
停止HBase集群的正确顺序
- hadoop01上运行,关闭hbase集群
[hadoop@hadoop01 ~]$ stop-hbase.sh
- 关闭ZooKeeper集群
- 关闭Hadoop集群
- 关闭虚拟机
- 关闭笔记本
标签:部署,hadoop01,hadoop,bigdata,集群,install,HBase,hbase 来源: https://www.cnblogs.com/tenic/p/14762834.html