其他分享
首页 > 其他分享> > 安装spark

安装spark

作者:互联网

首先,先安装jdk.我安装的是jdk14.下载界面如下所示:

 

 接下来配置path,java_home两个环境变量即可。

 

接下来安装scala

我安装的scala是2.13.2版本。

接下来安装hadoop

 

标签:java,jdk,scala,2.13,接下来,spark,安装
来源: https://www.cnblogs.com/blog-lmk/p/13121914.html