[pyar] ejecutar workers con celery

Javier Marcon javiermarcon en gmail.com
Mar Dic 16 17:12:36 ART 2014


El 16/12/14 a las 16:54, Ale escibió:
>
>>
>     Gracias, mi el tema que no tengo claro es como llamar dese un solo
>     lado de la aplicación a todos los qorkers que están corriendo en
>     las distintas aplicaciones porque son aplicaciones y no un archivo
>     a incluir, lo que en el tutorial de celery hace con como lo hago
>     para multiples aplicaciones:
>
>     from tasks import add
>     res = add.delay(4, 4)
>     # res2 = aplicacion2.tarea2.delay(1)
>     result1 = res.get(timeout=1)
>     # result2 = res2.get(timeout=1)
>
>
>
>
> Sigo sin entenderte, me hablas de "aplicación" y de "aplicaciones". En
> el momento que definiste add, la tuviste que decorar, eso registra la
> tarea en _una_ aplicación de Celery que supongo que está asociada a
> una aplicación tuya.
>
> Queres que una aplicación mande a muchos workers? Eso ya lo hace celery. 
>
> O queres que varios procesos corriendo vean el resultado de la
> ejecución de ese worker?
>
Gracias, yo tengo app1 que recibe datos y llama en paralelo
asincronicamente a app2, app3 y app4 y cuando app2, app3 y app4 terminan
de procesar cada uno los datos que recibieron de app1, le devuelven el
resultado a app1. Una vez que app1 recibe todos los resultados, muestra
el conjunto de resultados. Para eso quiero setear un worker en app2,
app3 y app4, llamado a cada uno de esos workers desde app1. El tema es
que no encuentro como coordinar todo usando celery y rabbitmq para que
sea escalable.

Gracias,

Javier.
------------ próxima parte ------------
Se ha borrado un adjunto en formato HTML...
URL: <http://listas.python.org.ar/pipermail/pyar/attachments/20141216/890ca61e/attachment.html>


More information about the pyar mailing list