首页 > TAG信息列表 > celery-task

芹菜工人不填补并发插槽

我有一名工人,并发性为4.我看到在花中启动了4个过程,而且一切看起来都很好. 如果我在shell中执行此操作,那么我会看到4个工作程序执行任务,其余任务被保留,并且每次处理4个,直到队列为空. [my_task.apply_async() for i in xrange(10)] 但是,如果我逐行执行此操作,则只会积极处理

python-Celery:@shared_task和非标准的BROKER_URL

我有一个Celery 3.1.19设置,它使用包括虚拟主机的BROKER_URL. # in settings.py BROKER_URL = 'amqp://guest:guest@localhost:5672/yard' Celery正常启动,加载任务,并且我在@ app.task装饰器中定义的任务正常运行.我认为到此为止我的Rabbitmq和celery配置是正确的. 我用@shared_

python – Celery一遍又一遍地重新运行长时间运行的完成任务

我有一个python celery-redis队列处理上传和下载一次值得演出和数据. 很少上传需要几个小时.然而,一旦这样的任务完成,我正在目睹这种奇怪的芹菜行为,芹菜调度员再次通过再次发送给工人重新运行刚刚结束的任务(我正在运行一个单独的工人)并且它刚刚发生了2次任务! 有人可以帮助我知

python – 让Celery广播所有工作人员的返回结果

有没有办法在Celery Broadcast任务中获得每个工作人员的所有结果?我想监控所有工人的一切是否正常.还将感谢任务发送到的工作者列表.解决方法:不,这不容易. 但是您不必将自己限制在内置的amqp结果后端, 你可以用Kombu(http://kombu.readthedocs.org)发送你自己的结果,这是Celery使用

python – Celery – 通过命令行或HTTP请求激活任务

我的代码中有一个预定义的celery任务,比如my_proj.tasks.my_celery_task 我想通过命令行/ HTTP请求(而不是通过我的应用程序)激活任务. 我搜索了文件(看到花和卷曲选项),但没有一个真正好的例子,在那里调用预定义的任务.怎么做到这一点?解决方法:假设您已经使用Rabbitmq安装了Celery

如何将芹菜所有日志发送到自定义处理程序.在我的情况下python-logstash处理程序

在我的Celery应用程序中,我在控制台上获得了两种类型的日志,即celery应用程序日志和任务级别日志(内部任务我使用logger.INFO(str)语法进行日志记录) 我想将它们都发送到自定义处理程序(在我的例子中是python-logstash处理程序) 对于django日志我是成功的,通过在settings.py中设置