其他分享
首页 > 其他分享> > spark之Executor与初始化SparkSession

spark之Executor与初始化SparkSession

作者:互联网

关于Executor:

一个executor同时只能执行一个计算任务

但一个worker(物理节点)上可以同时运行多个executor

executor的数量决定了同时处理任务的数量

一般来说,分区数远大于executor的数量才是合理的

同一个作业,在计算逻辑不变的情况下,分区数和executor的数量很大程度上决定了作业运行的时间

初始化SparkSession

scala版本

import org.apache.spark.sql.SparkSession
val spark = SparkSession.builder().master("yarn-client").appName("New SS").config("spark.executor.instances","10").config("spark.executor.memory","10g").getOrCreate()
import spark.implicits._

  在代码中,我们通过配置指明了spark运行环境时的yarn,并以yarn-client的方式提交作业(yarn还支持yarn-cluster的方式,区别在于前者driver运行在客户端,后者driver运行在yarn的container中)。我们一共申请了10个executer,每个10g。

python版本

from pyspark.sql import SparkSession
spark = SparkSession.builder.master("yarn-client").appName("New SS").config("spark.executor.instances","10").config("spark.executor.memory","10g").getOrCreate()

 

标签:SparkSession,Executor,10g,yarn,executor,spark,config
来源: https://www.cnblogs.com/xiao02fang/p/13197877.html