其他分享
首页 > 其他分享> > Spark安装与配置(单机版)(保姆级教程)

Spark安装与配置(单机版)(保姆级教程)

作者:互联网

Spark简述:

Spark:快速通用的大规模数据处理引擎,特点是速度快,易使用。

Spark安装前准备工作:

1、安装配置好jdk,如果不会安装可以跳转到脚本安装jdk保姆级教程
2、搭建配置好Hadoop,如果不会配置安装可以跳转到Hadoop配置保姆级教程
3、安装好Scala,如果不会安装可以跳转到Linux下安装配置Scala保姆级教程

Spark安装步骤:

1、通过xftp将spark安装包上传到Linux中,版本是spark-2.4.5-bin-hadoop2.6.tgz

2、解压缩tar -zxf spark-2.4.5-bin-hadoop2.6.tgz -C ../soft/

3、为了方便以后使用,将解压缩后的文件夹修改名字mv spark-2.4.5-bin-hadoop2.6/ spark245

4、配置环境变量vim /etc/profile

#spark
export SPARK_HOME=/opt/soft/spark245
export PATH=$PATH:$SPARK_HOME/bin

5、首先先做个备份 cp spark-env.sh.template spark-env.sh
然后修改配置文件,在最后添加如下代码

export JAVA_HOME=/opt/soft/jdk180
export SCALA_HOME=/opt/soft/scala211
export SPARK_HOME=/opt/soft/spark245
export HADOOP_INSTALL=/opt/soft/hadoop260
export HADOOP_CONF_DIR=$HADOOP_INSTALL/etc/hadoop
export SPARK_MASTER_IP=nnode1
export SPARK_DRIVER_MEMORY=2G
export SPARK_EXECUTOR_MEMORY=2G
export SPARK_LOCAL_DIRS=/opt/soft/spark245

6、因为是单机版,不需要去配置slaves,但是也可以配置一下,cp slaves.template slaves先做个备份,然后vim slaves,将localhost修改为自己的主机名

7、启动/关闭spark,进入到sbin目录下,看到有很多的命令,spark也有start-all.sh和stop-all.sh命令,所以直接./用就行了。

8、打开浏览器,输入主机名:8080就可以看到spark的可视化页面了
在这里插入图片描述
至此,spark单机版安装配置完成了~

标签:opt,教程,单机版,安装,export,spark,SPARK,soft,Spark
来源: https://blog.csdn.net/weixin_44911081/article/details/121757347