1.下载spark安装包,下面是官网连接地址
http://spark.apache.org/downloads.html
2.进入官网,点击红色框子
3.找自己对应的Hadoop版本的安装包
4.当前下的是 spark-2.3.1-bin-hadoop2.7.tgz
5.进入分布式j进入xftp,找自己下载的目录的安装包双击就上传到分布式自己习惯使用的目录下
6.cd 到自己的安装包路径,看到spark-2.3.1-bin-hadoop2.7.tgz
解压命令:tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz
修改命令:mv spark-2.3.1-bin-hadoop2.7 spark-2.3.1
文件 spark-2.3.1-bin-hadoop2.7就变成spark-2.3.1
7.进入conf目录,复制文件cp spark-env.sh.template spark-env.sh
8.vim spark-env.sh 进入文件编辑 点击 i ;
添加对应的安装路径和自己的配置
9.cd 切换到sbin目录下使用 ./start-all.sh 命令
10.jps 看到有worker和Master节点
11.cd 到bin目录 使用./saprk-shell
12.看到spark界面,安装成功
测试一下
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/4843.html