python-运行的芹菜工人在同一个容器中跳动
作者:互联网
我的烧瓶应用程序由四个容器组成:Web应用程序,postgres,rabbitMQ和Celery.由于我有定期运行的芹菜任务,因此我使用的是芹菜节拍.我已经像这样配置了docker-compose文件:
version: '2'
services:
rabbit:
# ...
web:
# ...
rabbit:
# ...
celery:
build:
context: .
dockerfile: Dockerfile.celery
我的Dockerfile.celery看起来像这样:
# ...code up here...
CMD ["celery", "-A", "app.tasks.celery", "worker", "-B", "-l", "INFO"]
当我在文档中阅读到我不应该使用-B选项进行生产时,无论如何我还是匆忙添加了它(并且忘记了对其进行更改),并很快了解到我的计划任务正在运行多次.对于那些感兴趣的人,如果您做ps aux |从您的celery容器中的grep celery,您将看到多个celery beat进程正在运行(但是应该只有一个beat进程,但是应该有许多worker进程).从文档中我不确定为什么不应该在生产中运行-B,但是现在我知道了.
所以然后我将Dockerfile.celery更改为:
# ...code up here...
CMD ["celery", "-A", "app.tasks.celery", "worker", "-l", "INFO"]
CMD ["celery", "-A", "app.tasks.celery", "beat", "-l", "INFO"]
不,当我启动我的应用程序时,工作进程启动,但节拍没有启动.当我翻转这些命令时,将首先调用beat,然后启动beat,但不会启动工作进程.所以我的问题是:我如何将芹菜工人打到容器中一起打败?我已经梳理了许多文章/文档,但仍然无法弄清楚.
已编辑
我将Dockerfile.celery更改为以下内容:
ENTRYPOINT [ "/bin/sh" ]
CMD [ "./docker.celery.sh" ]
我的docker.celery.sh文件如下所示:
#!/bin/sh -ex
celery -A app.tasks.celery beat -l debug &
celery -A app.tasks.celery worker -l info &
但是,我收到错误代码celery_1退出,代码为0
编辑#2
我在docker.celery.sh文件的末尾添加了以下阻止命令,所有问题均已修复:
tail -f /dev/null
解决方法:
docker仅运行一个CMD,因此仅执行第一个CMD,解决方法是创建一个同时执行worker和beat的bash脚本,并使用docker CMD执行此脚本.
标签:docker,celery,flask,celerybeat,python 来源: https://codeday.me/bug/20191025/1927169.html