[pyar] ejecutar workers con celery
Ale
aperalta en machinalis.com
Mar Dic 16 16:08:04 ART 2014
2014-12-16 15:31 GMT-03:00 Javier Marcon <javiermarcon en gmail.com>:
>
> Hola, tengo una aplicación que tiene que tener varios workers que hagan
> trabajos en forma asincrónica y que retornen los resultados a mi
> aplicación. El tema es que por lo que encontré hasta ahora, todos los
> tutoriales permiten lanzar algunos workers que esten todos en la misma
> aplicación y mis workers van a ser aplicaciones secundarias (todas en
> Python, la mayoria en Tornado). Como puedo hacer para implementar los
> distintos workers en distintas aplicaciones y recibir todos los
> resultados en forma asincrónica (y realizar un proceso cuando recibí
> todas las respuestas)?
>
>
No entiendo la pregunta, pero...
Podes implemenatar distintas aplicaciones de celery para cada aplicación
tuya. Es decir vas a tener que ejecutar distintos celery -A app1:tasks.py
worker; celery -A app2:tasks.py worker etc... Si los ejecutas en un solo
nodo (computadora) deberás tener cuidado con las colas de mensaje, porque
todos los workers va a leer de la misma cola por defecto "celery" y vas a
tener problemas.
Cada app de celery es un modulo o un conjunto de modulos que tienen una
instancia de Celery con su respectiva configuración. Eso es lo que le decis
al worker que ejecute.
------------ próxima parte ------------
Se ha borrado un adjunto en formato HTML...
URL: <http://listas.python.org.ar/pipermail/pyar/attachments/20141216/39c6fe10/attachment.html>
More information about the pyar
mailing list