gestión updates en sindicación masiva....

hola, ayer armé con 500 direcciones de feed's, xml', y otras cosas en un
spip. con unos scripts en bash hice carga masiva de secciones y en cada
sección puse un site: podcast o notícias.

han hecho alguna vez algo así?
en un día hay 15000 artículos sindicados.

lo monté en local, y para actualizar me hago ddos con curl --user:passwd
para actualizar con unos esqueletos sedna.

quiero 'lemas y url' en una base de datos y conectarlo a redes por api.

con spip además tengo GUI para visualizar un TL de lo que entra nuevo,
actualizar facil por formulario URL's que mutan, etc

la documentación de spip dice que #CRON solo se activa con la visita a
la página, por eso hago curl para actualizarlo.

una pregunta, ¿como actualizar con php?
miré por /exec, site... hay un lío en mi cabeza (no soy programador,
puedo hacer alguna ñapa, pero no sé leer el código, ni apenas a veces,
entender la estructura interna (ecrire) de spip)

un saludo.
--
###
http://info.nodo50.org/4137 | error al sistema
   ______________________________________
   a internet la llibertat no és gratuïta
    ====================================