2.3 HDFS环境搭建

  • 1)卸载自带的java

    ​ 查看已经安装的java

    ​ rpm -qa | grep java

    java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.i686
    java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.i686
    

    ​ 删除openjdk版本

     rpm -e --nodeps java-1.6.0-openjdk-1.6.0.0-1.50.1.11.5.el6_3.i686
     rpm -e --nodeps java-1.7.0-openjdk-1.7.0.9-2.3.4.1.el6_3.i686
    
  • 2)jdk安装 ​ 解压:tar -zxvf jdk-8u79-linux-x64.tar.gz -C ~/xxx ​ 添加到系统环境变量: ~/.bash_profile

    export JAVA_HOME=/home/hadoop/app/jdk1.8.0_79
    export PATH=$JAVA_HOME/bin:$PATH
    

    ​ 使得环境变量生效: source ~/.bash_profile ​ 验证java是否配置成功: java -v

  • 3)安装ssh(免密登陆)

    sudo yum install ssh
    ssh-keygen -t rsa
    cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
    
  • 4)下载并解压hadoop ​ 下载:直接去cdh网站下载 ​ 解压:tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ~/xxx

  • 5)hadoop配置文件的修改(hadoop_home/etc/hadoop)

    hadoop-env.sh
        export JAVA_HOME=/home/hadoop/app/jdk1.8.0_79
    core-site.xml
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://node-teach:8020</value>
        </property>
    
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/root/bigdata/tmp</value>
        </property>
    
    hdfs-site.xml
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    
    slaves(这个文件默认不修改)
    
  • 6)启动hdfs ​ 格式化文件系统(仅第一次执行即可,不要重复执行):hadoop namenode -format ​ 启动hdfs:sbin/start-dfs.sh ​ 验证是否启动成功:

    jps
        DataNode
        SecondaryNameNode
        NameNode
    浏览器访问方式: http://node-teach:50070
    
  • 6)停止hdfs ​ sbin/stop-dfs.sh

results matching ""

    No results matching ""