Hadoop集群安装
Hadoop集群安装
Alexhadoop集群安装
centos6.5安装
- (略)
环境要求
- linux环境3台(一主两副)可上网
###安装步骤
安装JDK
- 添加虚拟机本机文件目录共享
- 启动虚拟机,进入虚拟机机器开始配置安装
- 共享文件目录:
/mnt/hgfs
- 安装jdk
1
2
3cp jdk-6u45-linux-x64.bin /usr/local/src/
cd /usr/local/src
./jdk-6u45-linux-x64.bin ##执行安装 ,看到done表示安装完成 - 配置jdk环境变量
1
2
3
4
5
6
7
8
9
10## 编辑环境变量
vi ~/.bashrc
## 文件末尾加入
export JAVA_HOME=/usr/local/src/jdk1.6.0_45
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin
## 执行加载配置
source ~/.bashrc - 同理安装剩下两台配置环境变量
安装hadoop
- 复制hadoop文件到
/usr/local/src
- 解压文件
tar -zxvf hadoop-1.2.1-bin.tar.gz
1
2cd hadoop-1.2.1
mkdir tmp - 配置
1
cd conf/
- 配置master
vi masters
1
master
- 配置slaves
vi slaves
1
2slave1
slave2 vi core-site.xml
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/src/hadoop-1.2.1/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.122.10:9000</value>
</property>
</configuration>vi mapred-site.xml
1
2
3
4
5
6
7
8
9
10
11<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.122.10:9001</value>
</property>
</configuration>vi hdfs-site.xml
1
2
3
4
5
6
7
8
9
10
11<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
</configuration>vi hadoop-env.sh
1
2### 末尾添加
export JAVA_HOME=/usr/local/src/jdk1.6.0_45- 配置本机hosts映射
vi /etc/hosts
1
2
3192.168.122.10 master
192.168.122.11 slave1
192.168.122.12 slave2 - 配置永久生效hostname
vi /etc/sysconfig/network
1
2ORKING=yes
HOSTNAME=master - 拷贝当前hadoop文件目录到副节点
1
2scp -r hadoop-1.2.1 root@slave1:/usr/local/src/
scp -r hadoop-1.2.1 root@slave2:/usr/local/src/
- 副节点需配置项目
- hosts文件ip映射
- hostname配置
- 本地测试建议关掉防火墙
1
2
3service iptables stop ##关闭
chkconfig iptables off ## 禁止开机启动
service iptables status ## 查看防火墙运行状态 - 配置ssh免密码登录
- 配置jdk
- 配置hadoop
测试hadoop安装是否成功
- 格式化:
./hadoop namenode -format
- 启动集群:
./start-all.sh
- 插件进程:
jps
- 查看集群fs目录文件
./hadoop fs -ls /
- 上传文件测试
./hadoop fs -put /etc/hosts /
- 再查看一下目录文件
./hadoop fs -ls /
- 查看集群文件
./hadoop fs cat /hosts