其他分享
首页 > 其他分享> > 04-Flink 部署

04-Flink 部署

作者:互联网

https://flink.apache.org/downloads.html

左侧 Downloads   Binaries,1.14.2,.tgz包,300M+大小

yarn模式需要hadoop支持,在Additional Components下面下载

解压 tar -zxvf flink-1.14.2-bin-scala_2.12.tgz

最主要的三个目录:

bin :shell脚本文件

     start-cluster.sh  stop-cluster.sh   jobmanager.sh   taskmanager.sh 

     特别的:flink文件(没有.sh)

conf:yml配置文件

   flink-conf.yaml

       jobmanager.rpc.address: localhost    配置jobmanager

       jobmanager.rpc.port: 6123

       ......

       rest.port: 8081

       rest.address: localhost

   masters:配置jobmanager

   slaves:配置taskmanager,每行一个

lib:可用的库包,比如hadoop包

Standalone 模式

执行 ./start-cluster.sh 默认会启动一个standalonesession daemon和一个taskexecutor daemon

执行 jps 查看可以看到一个TaskManagerRunner和一个StandaloneSessionClusterEntrypoint

访问 localhost:8081,可以看到web页面

并行度优先级:代码中setParallelism(n)>提交job时候的设置的parallelism>flink-conf.yaml中parallelism.default设置的值

注意slot和task任务数的配置,可能存在任务提交失败的情况(slot资源不够)

命令行方式:   

./flink run -c   <mainClass> -p 3  <jarPath> --host localhost --port 7777

./flink cancel <jobId>

./flink list -a

Flink on Yarn 模式2种

Flink需要hadoop支持

Sesson Cluster

Per Job Cluster

Kubernetes部署(待整理)

 

标签:Flink,04,部署,flink,jobmanager,sh,port,localhost
来源: https://www.cnblogs.com/yb38156/p/15731959.html