ubuntu-Hadoop的伪分布式集群搭建及详细配置
虚拟机环境 :Ubuntu-14.04.6
所谓的伪分布式集群搭建指的是单主机的环境,所以我的暂时只需要一台虚拟机即可
本次使用的是hadoop-2.6.5版本
1、配置主机环境
安装hadoop前请确保jdk已安装配置完毕,安装jdk详细教程请参照教程:https://www.cnblogs.com/sh635208/p/10014489.html
SRE实战 互联网时代守护先锋,助力企业售后服务体系运筹帷幄!一键直达领取阿里云限量特价优惠。1.1 修改主机名称,我会使用 hadoop01ubuntu
vim /etc/hostname
1.2 在hosts文件中进行主机的注册(必要)
vim /etc/hosts
1.3 配置ssh免密登录连接
生成新的 ssh-key : (生成新的ssh-key 以rsa加密的方式) ,执行以下代码:
ssh-keygen -t rsa
显示这个样子,表示公钥生成成功
为本机进行公钥的注册写入,执行以下代码:
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
1.4、测试ssh本机免密连接
输入以下代码;免密连接本机,可 输入 exit 退出 ,执行以下代码:
ssh localhost
2、进行hadoop安装
2.1 、解压缩安装hadoop
我们可以选择将安装包下载到本地上传到系统之中 或者可以选择用wget命令直接通过服务器获取 wget http://apache.fayea.com/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz
(本次我选择从本地上传) <利用FTP工具>
将hadoop 压缩包解压缩,执行以下代码:
tar -zxvf hadoop-2.6.5.tar.gz
x : 从 tar 包中把文件提取出来
z : 表示 tar 包是被 gzip 压缩过的,所以解压时需要用 gunzip 解压
v : 显示详细信息
f xxx.tar.gz : 指定被处理的文件是 xxx.tar.gz
对解压缩后的hadoop文件进行改名,改为 hadoop , 我的hadoop是在 /usr/local目录下,执行以下代码:
mv /usr/local/hadoop-2.6.5 /usr/local/hadoop
2、2配置hadoop的Path环境变量
执行以下代码:
vim /etc/profile
打开配置文件后,在末尾追加这三行:
保存退出。
配置完成后,执行以下代码更新配置:
source /etc/profile
2.3配置hadoop内的JAVA_HOME:
因为hadoop内定的JAVA_HOME环境变量未定义,执行以下代码:
vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh
打开后,找到JAVA_HOME的配置,更改成你的JAVA_HOME配置,如图:
保存退出。
3、hadoop 伪分布式配置
修改的所有配置文件都在{$HADOOP_HOME}/etc/hadoop目录下
3.1、修改core-site.xml配置文件
修改core-site.xml配置文件,执行以下代码:
vim core-site.xml
在末尾添加以下配置:
添加以上配置,保存退出。
3.2、修改hdfs-site.xml配置文件
修改hdfs-site.xml配置文件,执行以下代码如下:
vim hdfs-site.xml
添加如上配置,其中dfs.namenode.name.dir 和 dfs.datanode.data.dir 的 value值是两个目录,需要用户自动创建
两个对应的目录,不需要和我一样,保存退出。
3.3、修改yarn-site.xml配置文件
修改yarn-site.xml配置文件,执行以下代码,如下:
vim yarn-site.xml
添加以上配置,保存退出。
3.4、修改从节点的配置文件
执行以下代码:
vim slaves
添加你的主机别名,保存退出。
最后格式化namenode,执行以下代码:
hdfs namenode -format
格式化成功后,启动所有进程,执行以下两行代码:
cd /usr/local/hadoop/sbin
./start-all.sh
启动之后,输入jps,查看进程:
看到这几个进程,说明搭建成功!