快捷搜索:  汽车  科技

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)tar zxvf jdk-8u111-linux-x64.tar.gz #解压jdk包cp /usr/local/src/jdk-8u111-linux-x64.tar.gz /usr/java #将jdk包拷贝到java目录下我所有的软件包,全部在mac上通过terminal下的scp发送到master上了,全部放在/usr/local/src下,如下图:切换到root用户,在/usr下创建java目录,将jdk包拷贝到java目录下,解压mkdir /usr/java

配置jdk和hadoop的原则为,先将Master安装并且配置好,然后再统一将其发送给所有的Slave,Slave如果需要单独配置则单独改变。

1.JDK安装配置

之前在有篇博客是搭建apache tomcat nutch solr的已经讲过jdk的详细搭建,此次在这里采用第一种搭建方式,即在/etc/profile里进行环境变量的配置。

1).JDK解压安装

我所有的软件包,全部在mac上通过terminal下的scp发送到master上了,全部放在/usr/local/src下,如下图:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(1)

切换到root用户,在/usr下创建java目录,将jdk包拷贝到java目录下,解压

mkdir /usr/java

cp /usr/local/src/jdk-8u111-linux-x64.tar.gz /usr/java #将jdk包拷贝到java目录下

tar zxvf jdk-8u111-linux-x64.tar.gz #解压jdk包

rm jdk-8u111-linux-x64.tar.gz #解压完成后,将其删除

ll #查看解压后的jdk包

即可看到如下目录

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(2)

接下来为在profile中设置环境变量

2).PROFILE配置

打开/etc/profile文件,在文件最后加入如下代码:

vi /etc/profile

#set java environment

export JAVA_HOME=/usr/java/jdk1.8.0_111

export CLASSPATH=.:CLASSPATH:

CLASSPATH:JAVA_HOME/lib:JAVA

H

OME/jre/libexportPATH=

JAVAHOME/jre/libexportPATH=PATH:JAVA

H

OME/bin:

JAVAHOME/bin:JAVA_HOME/jre/bin

如图:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(3)

添加完成后保存退出:wq 然后source /etc/profile 让配置生效

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(4)

查看jdk是否配置成功

java -version

显示如下,表示配置成功

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(5)

2.Hadoop安装配置

1).HADOOP解压安装

将/usr/local/src/hadoop-2.7.1.tar.gz拷贝到/usr下并将其解压,并将其分配给hadoop用户读的权限,需用root用户登录

cp /usr/local/src/hadoop-2.7.1.tar.gz /usr

tar zxvf hadoop-2.7.1.tar.gz

mv hadoop-2.7.1.tar.gz hadoop

rm hadoop-2.7.1.tar.gz

chown -R hadoop:hadoop hadoop/

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(6)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(7)

2).HADOOP配置

Hadoop 所有的配置文件全部在/usr/hadoop/etc/hadoop下,进行相应的配置时可用vi编辑器进行打开配置。其中主要配置其中的5歌文件,如下所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(8)

(1).第一步,hadoop-env.sh配置

在24行

#The java implementation to use.

#export JAVA_HOME=${JAVA_HOME}

export JAVA_HOME=/usr/java/jdk1.8.0_111

如下所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(9)

(2).第二步,core-site.xml配置

<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://Master.Hadoop:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/hadoop/hadoop-2.7.1/tmp</value> </property> <property> <name>io.file.buffer.size</name> <value>131702</value> </property> </configuration>

如图所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(10)

(3).第三步,hdfs-site.xml配置

<configuration> <property> <name>dfs.namenode.name.dir</name> <value>/home/hadoop/hadoop-2.7.1/hdfs/name</value> </property> <property> <name>dfs.namenode.data.dir</name> <value>/home/hadoop/hadoop-2.7.1/hdfs/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.secondary.http-address</name> <value>Master.Hadoop:9001</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property> </configuration>

如图所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(11)

(4).第四步,mapred-site.xml配置

需要将mapred-site.xml.template重命名为mapred-site.xml

<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>Master.Hadoop:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>Master.Hadoop:19888</value> </property> </configuration>

如图所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(12)

(5).第五步,yarn-site.xml配置

<configuration> <!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.auxservices.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>Master.Hadoop:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>Master.Hadoop:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>Master.Hadoop:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>Master.Hadoop:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>Master.Hadoop:8088</value> </property> <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>2048</value> </property> </configuration>

如图所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(13)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(14)

(6).第六步,slaves配置

Slave1.Hadoop

Slave2.Hadoop

如图所示

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(15)

注意:slaves 文件只是在Master节点上有用,其他Slave节点没用,但复制过去时带着也无妨。

(7).第七步,profile配置Hadoop命令(可省)

#set hadoop enviroment

export HADOOP_HOME=/usr/hadoop

export PATH=$PATH:$HADOOP_HOME/bin

如图所示:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(16)

3).发送给所有SLAVE节点并进行配置

先将Master配置好的各项文件发给所有的Slave,然后再单独对Slave的相关文件进行设置。

1.将Master的hosts文件发给Slave

scp /etc/hosts root@Slave1.Hadoop:/etc/

scp /etc/hosts root@Slave2.Hadoop:/etc/

2.将Master的JDK发给Slave

scp -r /usr/java/ root@Slave1.Hadoop:/usr/

scp -r /usr/java/ root@Slave2.Hadoop:/usr/

3.将Master的hadoop发送给Slave

scp -r /usr/hadoop/ root@Slave1.Hadoop:/usr/

scp -r /usr/hadoop/ root@Slave2.Hadoop:/usr/

4.将Master的profile发送给Slave

scp /etc/profile root@Slave1.Hadoop:/etc/

scp /etc/profile root@Slave2.Hadoop:/etc/

5.将Master创建的hadoop-2.7.1目录发送到Slave

scp -r hadoop-2.7.1/ hadoop@Slave2.Hadoop:~/

6.登录所有的Slave进行配置,让profile生效,给hadoop文件增加hadoop用户读的权限。

source /etc/profile

su & cd /usr

chown -R hadoop:hadoop hadoop/

至此,所有的安装配置工作完成,接下来要进行验证是否配置成功。

4).启动验证

(1).格式化HDFS文件系统

在”Master.Hadoop”上使用普通用户hadoop进行操作。(备注:只需一次,下次启动不再需要格式化,只需 start-all.sh)

hadoop namenode -format

如图所示表示格式化成功:

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(17)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(18)

(2).启动Hadoop

进入到cd /usr/hadoop/sbin目录下

./start-all.sh

可以通过以下启动日志看出,首先启动namenode 接着启动datanode1,datanode2,…,然后启动secondarynamenode。再启动yarn,resourcemanager nodemanager.

启动 hadoop成功后,在 Master 中的 tmp 文件夹中生成了 dfs 文件夹,在Slave 中的 tmp 文件夹中均生成了 dfs 文件夹和 nm-local-dir 文件夹。

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(19)

(3).验证Hadoop

通过jps查看进程

Master上查看:

jps

含有:

8515 SecondaryNameNode

8325 NameNode

9448 Jps

8667 ResourceManager

进程,如图所示,表示master运行成功。

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(20)

Slave上查看:

含有:

12338 Jps

11884 NodeManager

11775 DataNode

进程,如图所示,表示slave上运行成功。

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(21)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(22)

还可使用

[hadoop@Master hadoop]$ hadoop dfsadmin -report

来查看hadoop集群状态。

回到mac上打开chrome浏览器,输入10.211.55.13:8088 10.211.55.13:50070

可查看相关网页版状态。

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(23)

hadoop如何查看jdk安装目录(Hadoop系列之二JDK和Hadoop安装配置)(24)

附Hadoop shell相关命令操作:

既然 HDFS 是存取数据的分布式文件系统 那么对 HDFS的操作 就是文件系统的基本操作 比如文件的创建、修改、删除、修改权限等 文件夹的创建、删除、重命名等。对 HDFS 的操作命令类似于Linux 的 shell对文件的操作 如 ls、mkdir、rm 等。

执行:hadoop fs,可以查看hdfs 的指令:

选项名称使用格式含义-ls-ls <路径>查看指定路径的当前目录结构-lsr-lsr <路径>递归查看指定路径的目录结构-du-du <路径>统计目录下个文件大小-dus-dus <路径>汇总统计目录下文件(夹)大小-count-count [-q] <路径>统计文件(夹)数量-mv-mv <源路径> <目的路径>移动-cp-cp <源路径> <目的路径>复制-rm-rm [-skipTrash] <路径>删除文件/空白文件夹-rmr-rmr [-skipTrash] <路径>递归删除-put-put <多个 linux 上的文件>上传文件-copyFromLocal-copyFromLocal <多个 linux 上的文件>从本地复制-moveFromLocal-moveFromLocal <多个 linux 上的文件>从本地移动-getmerge-getmerge <源路径>合并到本地-cat-cat查看文件内容-text-text查看文件内容-copyToLocal-copyToLocal [-ignoreCrc] [-crc] [hdfs 源路 径] [linux 目的路径]从本地复制-moveToLocal-moveToLocal [-crc]从本地移动-mkdir-mkdir创建空白文件夹-setrep-setrep [-R] [-w] <副本数> <路径>修改副本数量-touchz-touchz <文件路径>创建空白文件-stat-stat [format] <路径>显示文件统计信息-tail-tail [-f] <文件>查看文件尾部信息-chmod-chmod [-R] <权限模式> [路径]修改权限-chown-chown [-R] [属主][:[属组]] 路径修改属主-chgrp-chgrp [-R] 属组名称 路径修改属组-help-help [命令选项]帮助

至此,hadoop配置完成,下一步配置Zookeeper Hbase Hive.

猜您喜欢: