其他分享
首页 > 其他分享> > |NO.Z.00005|——————————|^^ 配置 ^^|——|Hadoop&Spark.V05|------------------------------------------|Spar

|NO.Z.00005|——————————|^^ 配置 ^^|——|Hadoop&Spark.V05|------------------------------------------|Spar

作者:互联网



[BigDataHadoop:Hadoop&Spark.V05]                                        [BigDataHadoop.Spark内存级快速计算引擎][|章节一|Hadoop|spark|sparkcore:spark伪分布式模式|]








一、伪分布式
### --- 伪分布式

~~~     # 伪分布式模式:在一台机器中模拟集群运行,相关的进程在同一台机器上;
~~~     # 备注:不用启动集群资源管理服务;
~~~     local-cluster[N,cores,memory]
~~~     N模拟集群的 Slave(或worker)节点个数
~~~     cores模拟集群中各个Slave节点上的内核数
~~~     memory模拟集群的各个Slave节点上的内存大小
~~~     # 备注:参数之间没有空格,memory不能加单位
二、伪分布式模式集群启动
### --- 关闭相关服务

[root@hadoop02 ~]# stop-all-spark.sh
[root@hadoop01 ~]# stop-dfs.sh
[root@hadoop01 ~]# stop-yarn.sh
### --- 修改配置参数,解除hdfs配置参数

~~~     # spark-defaults.conf文件中,注释以下两行:
[root@hadoop01 ~]# vim $SPARK_HOME/conf/spark-defaults.conf
spark.master                    spark://hadoop02:7077
#spark.eventLog.enabled         true
#spark.eventLog.dir             hdfs://hadoop01:9000/spark-eventlog
#spark.serializer               org.apache.spark.serializer.KryoSerializer
spark.driver.memory            512m
### --- 启动 Spark 伪分布式模式

[root@hadoop01 ~]# spark-shell --master local-cluster[5,2,1024]
~~~ [4,2,1024]  5:表示副本数 2:core  1024表示内存数量 
~~~     # 使用 jps 检查,发现1个 SparkSubmit 进程和5个CoarseGrainedExecutorBackend 进程
~~~     SparkSubmit依然充当全能角色,又是Client进程,又是Driver程序,还有资源管理的作用。
~~~     5个CoarseGrainedExecutorBackend,用来并发执行程序的进程。

[root@hadoop01 ~]# jps
11399 CoarseGrainedExecutorBackend
11400 CoarseGrainedExecutorBackend
11401 CoarseGrainedExecutorBackend
11402 CoarseGrainedExecutorBackend
11390 CoarseGrainedExecutorBackend
11212 SparkSubmit
三、伪分布式模式集群验证测试
### --- 执行简单的测试程序
~~~     local-cluster[5,2,1024],参数不要给太大,资源不够
~~~     这种模式少用,有Bug。SPARK-32236
~~~     10:表示精度

[root@hadoop01 ~]# spark-submit --master local-cluster[5,2,1024] \
--class org.apache.spark.examples.SparkPi \
$SPARK_HOME/examples/jars/spark-examples_2.12-2.4.5.jar 10
~~~ 输出参数  
Pi is roughly 3.142031142031142

附录一:定版文件
### --- $SPARK_HOME/conf/spark-defaults.conf

[root@hadoop01 ~]# vim $SPARK_HOME/conf/spark-defaults.conf
spark.master                    spark://hadoop02:7077
#spark.eventLog.enabled         true
#spark.eventLog.dir             hdfs://hadoop01:9000/spark-eventlog
#spark.serializer               org.apache.spark.serializer.KryoSerializer
spark.driver.memory            512m








===============================END===============================


Walter Savage Landor:strove with none,for none was worth my strife.Nature I loved and, next to Nature, Art:I warm'd both hands before the fire of life.It sinks, and I am ready to depart                                                                                                                                                   ——W.S.Landor



来自为知笔记(Wiz)

标签:V05,v05,CoarseGrainedExecutorBackend,hadoop01,conf,Spark,root,spark,分布式
来源: https://www.cnblogs.com/yanqivip/p/16131826.html