写论文的第二天 Hbase集群搭建
日志______2019.1.24
Hbase分布式搭建
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。注意:hbase的使用基于hadoop,开启以及关闭需要注意顺序,由于我是的是自带的zookeeper,说以开启关闭顺序应如下
启动:hadoop>>hbase
关闭:hbase>>Hadoop
相关命令: start-all.sh开启hadoop stop-all.sh 关闭hadoop
Start-hbase.sh开启hbase stop-hbase.sh关闭hbase
Filezilla上传hbase压缩包到主节点
解压hbase压缩包到/usr/local/目录下并且重命名成hbase
命令:tar –zxf hbase-1.1.5-bin.tar.gz /usr/local
mv hbase-1.1.5 hbase
配置hbase环境变量并且使环境变量生效
命令: vim /etc/profile
#set HBASE_HOME quick to start
export HBASE_HOME=/usr/local/hbase
export PATH=$HBASE_HOME/bin:$PATH
命令:source /etc/profile
配置hbase环境变量,主要涉及两个文件
Hbase.env.sh 和hbase.site.xml文件 对这两个文件进行配置
配置hbase-env.sh
#内容
#add myself
export HADOOP_HOME=/usr/local/hadoop
export JAVA_LIBRARY_PATH=/usr/lib:/usr/local/lib:$LD_LIBRARY_PATH:$HADOOP_HOME/lib/native
export HBASE_LIBRARY_PATH=$LD_LIBRARY_PATH:$HBASE_LIBRARY_PATH
#JAVA_HOME
export JAVA_HOME=/usr/local/jdk1.8.0_192
export HBASE_REGIONSERVERS=/usr/local/hbase/conf/regionservers
配置hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name> <!-- hbase存放数据目录 -->
<value>hdfs://master:9000/usr/local/hbase</value>
<!-- 端口要和Hadoop的fs.defaultFS端口一致-->
</property>
<property>
<name>hbase.tmp.dir</name>
<value>/usr/local/hbase/tmp</value>
</property>
<property>
<name>hbase.master</name>
<value>master:60000</value>
</property>
<property>
<name>zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.cluster.distributed</name> <!-- 是否分布式部署 -->
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name> <!-- list of zookooper -->
<value>master,node1,node2</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/usr/local/zookeeper/data</value>
</property>
</configuration>
配置regionservers
node1
node2
复制hbase到子节点
命令: scp –r /usr/local/hbase node1:/usr/local
scp –r /usr/local/hbase node2:/usr/local
尝试启动hbase查看是否配置成功
主节点启动成功子节点没有成功 查看日志两个子节点地址绑定错误。解决办法,修改hosts文件将每个节点的ip修改为内网ip重新启动
启动成功
进入hbase测试
命令:hbase shell 进入了hbase并且使用list命令查看表结构 至此安装成功
