2.3 HDFS环境搭建
1)卸载自带的java
查看已经安装的java
rpm -qa | grep java
java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.i686 java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.i686
删除openjdk版本
rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.i686 rpm -e --nodeps java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.i686
2)jdk安装 解压:
tar -zxvf jdk-8u79-linux-x64.tar.gz -C ~/xxx
添加到系统环境变量: ~/.bash_profileexport JAVA_HOME=/home/hadoop/app/jdk1.8.0_79 export PATH=$JAVA_HOME/bin:$PATH
使得环境变量生效: source ~/.bash_profile 验证java是否配置成功: java -v
3)安装ssh(免密登陆)
sudo yum install ssh ssh-keygen -t rsa cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
4)下载并解压hadoop 下载:直接去cdh网站下载 解压:
tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/xxx
5)hadoop配置文件的修改(hadoop_home/etc/hadoop)
hadoop-env.sh export JAVA_HOME=/home/hadoop/app/jdk1.8.0_79 core-site.xml <property> <name>fs.defaultFS</name> <value>hdfs://node-teach:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/root/bigdata/tmp</value> </property> hdfs-site.xml <property> <name>dfs.replication</name> <value>1</value> </property> slaves(这个文件默认不修改)
6)启动hdfs 格式化文件系统(仅第一次执行即可,不要重复执行):hadoop namenode -format 启动hdfs:
sbin/start-dfs.sh
验证是否启动成功:jps DataNode SecondaryNameNode NameNode 浏览器访问方式: http://node-teach:50070
- 6)停止hdfs
sbin/stop-dfs.sh