[pyar] ejecutar workers con celery
Javier Marcon
javiermarcon en gmail.com
Mar Dic 16 17:12:36 ART 2014
El 16/12/14 a las 16:54, Ale escibió:
>
>>
> Gracias, mi el tema que no tengo claro es como llamar dese un solo
> lado de la aplicación a todos los qorkers que están corriendo en
> las distintas aplicaciones porque son aplicaciones y no un archivo
> a incluir, lo que en el tutorial de celery hace con como lo hago
> para multiples aplicaciones:
>
> from tasks import add
> res = add.delay(4, 4)
> # res2 = aplicacion2.tarea2.delay(1)
> result1 = res.get(timeout=1)
> # result2 = res2.get(timeout=1)
>
>
>
>
> Sigo sin entenderte, me hablas de "aplicación" y de "aplicaciones". En
> el momento que definiste add, la tuviste que decorar, eso registra la
> tarea en _una_ aplicación de Celery que supongo que está asociada a
> una aplicación tuya.
>
> Queres que una aplicación mande a muchos workers? Eso ya lo hace celery.
>
> O queres que varios procesos corriendo vean el resultado de la
> ejecución de ese worker?
>
Gracias, yo tengo app1 que recibe datos y llama en paralelo
asincronicamente a app2, app3 y app4 y cuando app2, app3 y app4 terminan
de procesar cada uno los datos que recibieron de app1, le devuelven el
resultado a app1. Una vez que app1 recibe todos los resultados, muestra
el conjunto de resultados. Para eso quiero setear un worker en app2,
app3 y app4, llamado a cada uno de esos workers desde app1. El tema es
que no encuentro como coordinar todo usando celery y rabbitmq para que
sea escalable.
Gracias,
Javier.
------------ próxima parte ------------
Se ha borrado un adjunto en formato HTML...
URL: <http://listas.python.org.ar/pipermail/pyar/attachments/20141216/890ca61e/attachment.html>
More information about the pyar
mailing list