其他分享
首页 > 其他分享> > 开发PySpark 所需准备环境

开发PySpark 所需准备环境

作者:互联网

1) 安装python环境

安装python有两种方式:原生安装、Ancona安装

以上安装路径中不能有中文,不能有空格

2) window中必须配置SPARK_HOME

3) 在python中安装py4j模块

两种安装方式:

(1)使用 pip install py4j

进入 Anaconda3的Scripts目录下,cmd

 

 

 输入:pip install py4j

(2)找到spark-2.3.1-bin-hadoop2.6\python\lib目录,

解压py4j-0.10.7-src.zip和pyspark.zip两个文件:

 

 将py4j文件夹复制到

由于PyCharm开发spark 需要本地Spark环境,所以要在官网中下载Spark安装包到本地(这里我们下载Spark1.6版本)。

  1. 进入Spark官网,找到对应的Spark版本下载。

 

  1. 将下载好的安装包解压到本地某个路径(路径中不要有空格和中文)
  2. 将解压的路径中的…spark….\python\lib下的以下两个压缩包解压

 

解压后:

 

注意

★py4j是一个用 Python和Java编写的库。通过Py4J,Python程序能够动态访问Java虚拟机中的Java对象,Java程序也能够回调Python对象。

★pyspark 是 Spark 为 Python 开发者提供的 API

标签:解压,py4j,Java,PySpark,python,环境,Python,开发,Spark
来源: https://www.cnblogs.com/zhouaimin/p/14504128.html