1.下载hadoop-2.5.1,存放根目录
2.通过tar -zxvf 包名 来进行解压
3.通过mv命令将解压后的hadoop包移动到/home下
4.修改hadoop-en.sh配置文件,添加jdk的安装目录,操作如下图所示
5.修改core-site.xml配置文件,添加namenode的配置信息
6.修改hdfs-site.xml配置文件,添加secondarynamenode的配置信息
7.修改slaves配置文件,添加datanode节点的配置信息
8.配置masters的secondarynode的主机名
9.将node1上的安装目录hadoop复制到其他的节点
10.将node1上的hosts文件复制到其他节点hosts文件所在目录/etc/hosts
11.将hadoop的安装目录添加到系统环境变量
12.将环境变量文件.bash_profile复制到其他节点
13.在node1上重新加载bash_profile
14.通过hdfs namenode -format格式化namenode节点(node1是namenode节点)
15.通过start-dfs.sh命令启动hadoop
16.通过http://192.168.2.136:50070/访问namenode的监控页面(192.168.2.136是node1)
17.通过http://192.168.2.137:50090访问secondarynamenode的监控页面(192.168.2.137是node2)
18.说明
安装前 检查jdk版本是否与hadoop匹配 检查节点时间是否一致,时间相差不要超过30秒 免密码登录是否设置 到此hadoop的简单安装与配置完成笔者在这里使用的是虚拟机来安装这些环境node1 安装namenode节点node2 安装secondarynamenode节点node3 安装datanode节点node4 安装datanode节点node5 安装datanode节点
本文转自 素颜猪 51CTO博客,原文链接:http://blog.51cto.com/suyanzhu/1951910