Java知识分享网 - 轻松学习从此开始!    

Java知识分享网

Java1234官方群25:java1234官方群17
Java1234官方群25:838462530
        
SpringBoot+SpringSecurity+Vue+ElementPlus权限系统实战课程 震撼发布        

最新Java全栈就业实战课程(免费)

springcloud分布式电商秒杀实战课程

IDEA永久激活

66套java实战课程无套路领取

锋哥开始收Java学员啦!

Python学习路线图

锋哥开始收Java学员啦!
当前位置: 主页 > Java文档 > 大数据云计算 >

Spark on Yarn模式部署 PDF 下载


分享到:
时间:2021-10-28 09:21来源:http://www.java1234.com 作者:转载  侵权举报
Spark on Yarn模式部署 PDF 下载
失效链接处理
 Spark on Yarn模式部署  PDF 下载



本站整理下载:
提取码:el8f 
 
 
相关截图:
 
主要内容:

部署步骤:
一、修改主机名,添加主机名到IP地址映射。
二、配置免密码登录
三、安装并配置JDK8
四、配置Hadoop
五、配置Spark
 
一、 修改主机名,添加主机名到IP地址映射
1.新建三台VMWare虚拟机,并安装好Ubuntu server 16.04.3 LTS系统。
2.编辑/etc/hostname,修改虚拟机名,将三台虚拟机名分别改为master、slave1和slave2,master主机名修改如下图,slave1和slave2主机名修改类似。
 
 
3.编辑/etc/hosts,在三台虚拟机上分别添加IP地址到主机名映射,如下图,注意把IP地址改为虚拟机实际地址。
 
4.重启master、slave1和slave2。
 
二、配置免密码登录
1. 配置master免密码登录master、slave1和slave2,配置过程参见之前的实验文档。
注意:必须配置master免密码登录master自身,即 ssh master 无需输入密码。
 
注意:以下操作步骤若无特别说明,均在master上进行。
三、安装并配置JDK8
1. 到Oracle网站(https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html)下载JDK8(注意下载jdk-8u261-linux-x64.tar.gz版本),把windows中下载的jdk8通过PSCP传到master上,如下图,或者在master上通过命令:wget 下载连接  直接下载。
 
2. 将jdk8复制到/usr/目录,并解压,操作命令如下图。
 
3. 编辑/etc/profile,在尾部加入Java环境变量,如下图:
 
 
export JAVA_HOME=/usr/jdk1.8.0_181 (注意:改为JDK8实际位置)
export JRE_HOME=$JAVA_HOME/jre
export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
4. 执行命令:source /etc/profile,使修改后的profile文件立即生效。
5. 验证jdk8,输入:java –version,有下图提示信息,说明jdk8配置成功。
 
四、配置Hadoop
1. 下载Hadoop3.1.4的binary版本(下载地址:https://archive.apache.org/dist/hadoop/common/hadoop-3.1.4/hadoop-3.1.4.tar.gz)和spark-3.0.1-bin-hadoop2.7.tgz(下载地址:https://archive.apache.org/dist/spark/spark-3.0.1/spark-3.0.1-bin-hadoop2.7.tgz),将下载的hadoop和spark通过PSCP上传到master中,或者在master上直接通过wget下载。
2. 进入/usr,新建目录spark-on-yarn,命令:mkdir spark-on-yarn,将hadoop和spark复制到spark-on-yarn目录下,并解压。
3. 编辑profile :vim /etc/profile,加入hadoop home环境变量信息,如下图,然后执行: source /etc/profile,使修改后profile立即生效。
 
export HADOOP_HOME=/usr/spark-on-yarn/hadoop-3.1.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
 
4. 进入hadoop配置文件目录(Hadoop解压目录下的etc/hadoop),配置hadoop,命令:cd /usr/spark-on-yarn/hadoop-3.1.1/etc/hadoop,需要配置7个文件。
5. 编辑hadoop-env.sh :,在其中加入JAVA_HOME和权限信息,如下图。
 
 
6. 编辑yarn-env.sh :,在其中加入JAVA_HOME信息,如下图。
 
7. 编辑workers : ,在其中加入slave1和slave2,如下图。
 
8. 编辑core-site.xml : ,在其中加入下图所示配置信息,参见示例文件。

 

------分隔线----------------------------

锋哥公众号


锋哥微信


关注公众号
【Java资料站】
回复 666
获取 
66套java
从菜鸡到大神
项目实战课程

锋哥推荐