1、环境准备
1.1、centOS7:内核版本3.10.0-1160.49.1.el7.x86_64
1.2、关闭防火墙:systemctl disable firewalld
1.3、三台机器地址:192.168.137.129、192.168.137.130、192.168.137.131
1.4、三台机器的hostname:cat /etc/hostname
localhost.localdomain1
localhost.localdomain2
localhost.localdomain2
1.5、配置hosts:vim /etc/hosts,添加如下内容
192.168.137.129 hp1 localhost.localdomain1
192.168.137.130 hp2 localhost.localdomain2
192.168.137.131 hp3 localhost.localdomain3
1.6、新建目录:
mkdir -p /export/server/
mkdir -p /export/data/
mkdir -p /export/software/
1.7、配置jdk环境:
通过yum安装的jdk
vim /etc/profile添加如下内容:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre
export PATH=$PATH:$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
若配置java环境报此错误:Similar command is: ‘lz’,执行以下命令:
export PATH=/bin:/usr/bin:$PATH
2、hadoop配置
2.1、hadoop下载地址:https://archive.apache.org/dist/hadoop/common/
本篇下载的hadoop3.2.0版本
2.2、本地hadoop-3.2.0.tar.gz上传到1.6新建的server目录中,并解压:
scp -r hadoop-3.2.0.tar.gz root@192.168.137.129:/export/server
tar -xvzf hadoop-3.2.0.tar.gz
2.3、配置hadoop
配置hadoop需要进入如下目录:/export/server/hadoop-3.2.0/etc/hadoop
2.3.1、配置hadoop-env.sh
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64/jre
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root
2.3.2、配置core-site.xml
<!– 默认使用文件系统 –>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hp1:8020</value>`
</property>
<!– 本地保存数据的路径 –>
<property>
<name>hadoop.tmp.dir</name>
<value>/export/data/hadoop-3.2.0</value>
</property>
<!– 设置HDFS web UI用户身份–>
<property>
<name>hadoop.http.staticuser.user</name>
<value>root</value>
</property>
<!– 整合hive用户代理设置–>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
<!– 文件系统垃圾桶保存时间–>
<property>
<name>fs.trash.interval</name>
<value>1440</value>
</property>
2.3.3、配置hdfs-site.xml
<!– SNN进程运行机器位置信息 –>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hp2:9868</value>
</property>
2.3.4、配置mapred-site.xml
<!– MR程序默认运行模式:yarn集群模式 local本地模式 –>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<!– MR程序历史服务器地址 –>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hp1:10020</value>
</property>
<!– MR程序历史服务器web端地址 –>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hp1:19888</value>
</property>
<property>
<name>yarn.app.mapreduce.am.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
<property>
<name>yarn.app.mapreduce.env</name>
<value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value>
</property>
2.3.5、配置yarn-site.xml
<!– YAREN集群主角色运行机器位置 –>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hp1</value>
</property>
<property>
<name>yarn.resourcemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<!– 是否对容器实施物理内存限制 –>
<property>
<name>yarn.nodemanager.pmem-check-enabled</name>
<value>false</value>
</property>
<!– 是否对容器实施虚拟内存限制 –>
<property>
<name>yarn.nodemanager.vmem-check-enabled</name>
<value>false</value>
</property>
<!– 开启日志聚集 –>
<property>
<name>yarn.log-aggregation-enabled</name>
<value>true</value>
</property>
<!– yarn历史服务器地址 –>
<property>
<name>yarn.log.server.url</name>
<value>http://hp1:19888/jobhistory/logs</value>
</property>
<!– 历史日志保存7天 –>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
2.3.6、配置workers
localhost.localdomain1
localhost.localdomain2
localhost.localdomain3
2.4、配置hadoop环境变量:vim /etc/prifile
export HADOOP_HOME=/export/server/hadoop-3.2.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
2.5、免密登录设置
在192.168.137.129虚拟机上执行如下命令:
ssh-keygen -t rsa
ll -a
cd .ssh
ssh-copy-id -i id_rsa.pub root@192.168.137.129
ssh-copy-id -i id_rsa.pub root@192.168.137.130
ssh-copy-id -i id_rsa.pub root@192.168.137.131
2.6、进行格式化操作(NameNode format)
hdfs namenode -format
2.7、启动
start-dfs.sh
start-yarn.sh
2.8、停止
stop-all.sh
3、说明
三台虚拟机上都要进行【2、hadoop配置】配置
4、测试集群环境
4.1、查看hdfs:
http://192.168.137.129:9870
4.2、查看yarn
http://192.168.137.129:8088
5、报错处理
5.1、ping 192.168.137.129正常,浏览器访问http://192.168.137.129:9870报错,就在hdfs-site.xml中配置如下:
<property>
<name>dfs.namenode.http-address</name>
<value>192.168.137.129:9870</value>
</property>
5.2、执行了多次hdfs namenode -forma命令,浏览器访问http://192.168.137.129:9870出现Live Nodes为0的情况,如下图:
解决方法:将/export/data目录删除,再新建data目录。进入export目录(cd /export),删除data(rm -rf data),新建data(mkdir data)。所有虚拟机都要这么做。修改之前上图中的指标全部为0,修改之后就会与上图一样。
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/5469.html