JobPlus知识库 IT 大数据 文章
centos7虚拟机(在系统和用户环境变量中)安装hadoop2.7.6分布式

NO.1安装配置hadoop系统环境变量

只需要配置四个文件加一个路径,最后刷新一把

  1. [root@localhost hadoop]# vim hadoop-env.sh

  2. [root@localhost hadoop]# vim core-site.xml

  3. [root@localhost hadoop]# vim hdfs-site.xml

  4. [root@localhost hadoop]# vim mapred-site.xml.template

  5. [root@localhost hadoop]# vim /etc/profile

  6. [root@localhost hadoop]# source /etc/profile

第一个vim需要操作的内容

export JAVA_HOME=/home/jan/opt/jdk1.8.0_171    /在jdk所在文件进终端pwd找到此路径,复制过来就行

每个人jdk放的文件夹不同,路径也就不同,要具体问题具体分析,找自己的jdk所在位置就对了

 

第二个vim需要操作的内容

  1. <configuration>

  2. <property>

  3. <name>hadoop.tmp.dir</name>

  4. <value>/hadoop</value>

  5. </property>

  6. <property>

  7. <name>hadoop.name.dir</name>

  8. <value>/hadoop/name</value>

  9. </property>

  10. <property>

  11. <name>fs.default.name</name>

  12. <value>hdfs://localhost:9000</value>               //localhost是我的主机名

  13. </property>

  14. </configuration>

 

第三个vim需要操作的内容

  1. <configuration>

  2. <property>

  3. <name>dfs.data.dir</name>

  4. <value>/hadoop/data</value>

  5. </property>

  6. </configuration>

第四个vim需要操作的内容

  1. <configuration>

  2. <property>

  3. <name>mapred.job.tracker</name>

  4. <value>localhost:9000</value>              //localhost是我的主机名

  5. </property>

  6. </configuration>

路径需要配置的内容

  1. export HADOOP_HOME=/home/jan/opt/hadoop-2.7.6        //hadoop所在的路径一定要对

  2. export PATH=$HADOOP_HOME/bin:$PATH

最后刷新运行一下

[root@localhost hadoop]# source /etc/profile

以上步骤都完成未报错的情况下,就可以开始格式化了,按照以下步骤进行就行

  1. 1 : cd $HADOOP_HOME

  2. 2 : hdfs namenode -format

  3. 3 : sbin/start-dfs.sh

  4. 4 : sbin/start-yarn.sh

以上四步完成后,检查一下网络是否连接,网络没问题的话,就在linux系统中额浏览器中输入以下内容,检验是否成功。 

localhost:50070       //localhost是我的主机名

 

NO.2  安装配置hadoop用户环境变量

前四个vim的操作同系统环境变量安装

路径有所不同

  1. [jan@localhost opt]$ cd hadoop-2.7.6/

  2. [jan@localhost hadoop-2.7.6]$ pwd

  3. /home/jan/opt/hadoop-2.7.6

  4. [jan@localhost hadoop-2.7.6]$ hadooppath=`pwd`

  5. [jan@localhost hadoop-2.7.6]$ echo $hadooppath

  6. /home/jan/opt/hadoop-2.7.6

  7. [jan@localhost hadoop-2.7.6]$ echo export HADOOP_HOME=$hadooppath

  8. export HADOOP_HOME=/home/jan/opt/hadoop-2.7.6

  9. [jan@localhost hadoop-2.7.6]$ echo export HADOOP_HOME=$hadooppath >> ~/.bashrc

  10. [jan@localhost hadoop-2.7.6]$ echo export PATH=\$HADOOP_HOME/bin:\$PATH

  11. export PATH=$HADOOP_HOME/bin:$PATH

  12. [jan@localhost hadoop-2.7.6]$ echo export PATH=\$HADOOP_HOME/bin:\$PATH >> ~/.bashrc

  13. [jan@localhost hadoop-2.7.6]$ source ~/.bashrc

  14. [jan@localhost hadoop-2.7.6]$ echo $HADOOP_HOME

  15. [root@localhost hadoop]# cd $HADOOP_HOME

  16. [root@localhost hadoop-2.7.6]# hdfs namenode -format

  17. [root@localhost hadoop-2.7.6]# sbin/start-dfs.sh

  18. [root@localhost hadoop-2.7.6]# sbin/start-yarn.sh

  19. //最后同样在浏览器中  localhost:50070    检验一下是否可以连接到网络

如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!

¥ 打赏支持
240人赞 举报
分享到
用户评价(0)

暂无评价,你也可以发布评价哦:)

扫码APP

扫描使用APP

扫码使用

扫描使用小程序