余老师带你学习大数据框架全栈第十一章Flink第四节Standalone模式下提交job
作者:互联网
web控制页面介绍
1、当前集群的状态,3个task,0个运行的。
2、运行的Job和完成的Job都是0个。
3、当前TaskManager的情况,我们的集群是三个TaskManager。
4、JobManager的基本信息
5、提交Job
打包
6、将poml文件中的主程序删除,修改StreamWordCount的host和端口号,为app-11和7777
7、查看Java版本
命令:java -version
8、压缩程序
命令:tar -zcf Flink.tar Flink/
9、拷贝到app-11上
命令:scp Flink.tar 192.168.60.139:/workspace_logs/
10、返回app-11,将程序拷贝到Flink安装目录下
命令:cp /workspace_logs/Flink.tar /hadoop/Flink/
11、解压程序
命令:tar -xf Flink.tar
12、进入到这个程序的目录下
命令:cd Flink
13、程序打包
命令:
mvn clean scala:compile compile package
14、查看打包程序
命令:ls target/
15、将打包好的程序拷贝到Flink安装目录下
命令:cp target/FlinkTutorial-1.0-SNAPSHOT-jar-with-dependencies.jar /hadoop/Flink/
提交job
16、返回网页,上传job,找到Workspace目录下的jar包上传
17、在new terminal中启动7777端口号
命令:nc -lk 7777
18、填写主程序和相关的配置信息
19、在Running Jobs中可以查看到信息
20、在7777端口号下输入Hello Word
21、在Task Manager中的studout中可以看到输出结果
详细学习内容可观看Spark快速大数据处理扫一扫~~~或者引擎搜索Spark余海峰
标签:11,tar,Standalone,Flink,程序,7777,命令,job 来源: https://blog.csdn.net/weixin_45810046/article/details/113694261