其他分享
首页 > 其他分享> > Flink遇到的问题及解决方案

Flink遇到的问题及解决方案

作者:互联网

1. flink部署到集群上,standalone模式,需要指定TaskManager主机的地址:修改flink-conf.yaml配置并添加配置 taskmanager.host: localhost
否则提交job时,会报错:TaskExecutor akka.tcp://xxx has no more allocated slots for job 
2. 当需要其它的jar包时,比如kafka连接器、jdbc连接器,需要maven将依赖也打入包中
3. 不好打入jar包中,并且使用频率较高的jar包,可以放置在flink/lib目录下,然后重启集群

4. 写入greenplum数据会翻倍,不知道为什么 ---doing

标签:包中,Flink,遇到,解决方案,flink,jar,job,连接器,打入
来源: https://www.cnblogs.com/fabulous5/p/16056123.html