aspirer un site spip, outils efficaces

salut,

J’ai besoin d’aspirer un site en 1.9 pour le mettre sur cd, j’ai tester httrack pour l’aspirer mais il ne copie rien, y a t_il des parametres particuliers a savoir ? J’ai les urls réecrirent en « propre2 » poutant.

Un retour d’expérience serait bienvenue :slight_smile:

++


Karim Belkacem
Graphiste - Web Designer - Ergonome
11, rue Neuve Sainte-Catherine
13007 Marseille
Gsm:(+33)6 818 375 63
Fixe:(+33)4 915 480 46

salut,

J'ai besoin d'aspirer un site en 1.9 pour le mettre sur cd, j'ai tester httrack pour l'aspirer mais il ne copie rien, y a t_il des parametres particuliers a savoir ? J'ai les urls réecrirent en "propre2" poutant.

Un retour d'expérience serait bienvenue :slight_smile:

L'aspiration dépend surtout de ton squelette, il faut des balises a avec un href correct pour que HTTRACK puisse tout parcourir.
Perso j'y suis déjà arrivé sans soucis, par contre j'aspire toujours le site en local pour éviter d'augmenter les stats du serveur de prod.

Bon courage

karim belkacem a écrit :

J'ai besoin d'aspirer un site en 1.9 pour le mettre sur cd, j'ai tester httrack pour l'aspirer mais il ne copie rien, y a t_il des parametres particuliers a savoir ? J'ai les urls réecrirent en "propre2" poutant.

httrack marche bien mais probablement
il faut affiner ton paramétrage de ce qu'il doit récupérer.

JLuc

salut, je suis en sous domaine pour monter le site c’est peut etre pour ca que ça bloque
je vais monter une version en local, et je test

je vous tiens au courant

++

Le 16/08/07, JLuc <jluc@no-log.org> a écrit :

karim belkacem a écrit :

J’ai besoin d’aspirer un site en 1.9 pour le mettre sur cd, j’ai tester
httrack pour l’aspirer mais il ne copie rien, y a t_il des parametres
particuliers a savoir ? J’ai les urls réecrirent en « propre2 » poutant.

httrack marche bien mais probablement
il faut affiner ton paramétrage de ce qu’il doit récupérer.

JLuc


liste spip
spip@rezo.net - désabonnement : spip-off@rezo.net
Infos et archives : http://listes.rezo.net/mailman/listinfo/spip
Documentation de SPIP : http://www.spip.net/
irc://irc.freenode.net/spip
FAQ : http://www.spip-contrib.net/spikini/FaQ


Karim Belkacem
Graphiste - Web Designer - Ergonome
11, rue Neuve Sainte-Catherine
13007 Marseille
Gsm:(+33)6 818 375 63
Fixe:(+33)4 915 480 46

karim belkacem a écrit :

salut, je suis en sous domaine pour monter le site c'est peut etre pour ca que ça bloque

je priviligierai plutôt le suffixe de tes pages.
avec propres2, je sais plus
mais si elles n'ont pas de suffixe
et que ton htttrack est pararamétré pour récupérer les htm*,
évidemment il va pas les trouver.
Ou un truc du genre
et il faut aussi indiquer la profondeur d'aspiration etc
as tu fait ces paramétrages ?
JLuc

je vais monter une version en local, et je test

je vous tiens au courant

++

Le 16/08/07, *JLuc* <jluc@no-log.org <mailto:jluc@no-log.org>> a écrit :

    karim belkacem a écrit :
     > J'ai besoin d'aspirer un site en 1.9 pour le mettre sur cd, j'ai
    tester
     > httrack pour l'aspirer mais il ne copie rien, y a t_il des parametres
     > particuliers a savoir ? J'ai les urls réecrirent en "propre2"
    poutant.

    httrack marche bien mais probablement
    il faut affiner ton paramétrage de ce qu'il doit récupérer.

    JLuc

    _______________________________________________
    liste spip
    spip@rezo.net <mailto:spip@rezo.net> - désabonnement :
    spip-off@rezo.net <mailto:spip-off@rezo.net>
    Infos et archives : http://listes.rezo.net/mailman/listinfo/spip
    Documentation de SPIP : http://www.spip.net/
    irc://irc.freenode.net/spip
    FAQ : http://www.spip-contrib.net/spikini/FaQ

--
Karim Belkacem
Graphiste - Web Designer - Ergonome
11, rue Neuve Sainte-Catherine
13007 Marseille
Gsm:(+33)6 818 375 63
Fixe:(+33)4 915 480 46

Bonjour,

J'ai le même besoin de temps en temps. Dans mon cas, httrack n'arrive
pas toujours à capturer toutes les pages. Mais je ne sais pas le
paramétrer (ceci expliquant peut-être cela...).

wget, par contre, ne m'a jamais posé de problème. Pour une capture, de
type mirroir :

wget -m -k -E --restrict-file-names=windows --header='Accept-Charset:
iso-8859-1' --header='Accept-Language: fr' http://localhost/ma_page.html

Eric

karim belkacem a écrit :

salut,

J'ai besoin d'aspirer un site en 1.9 pour le mettre sur cd, j'ai
tester httrack pour l'aspirer mais il ne copie rien, y a t_il des
parametres particuliers a savoir ? J'ai les urls réecrirent en
"propre2" poutant.

Un retour d'expérience serait bienvenue :slight_smile:

++

--
Karim Belkacem
Graphiste - Web Designer - Ergonome
11, rue Neuve Sainte-Catherine
13007 Marseille
Gsm:(+33)6 818 375 63
Fixe:(+33)4 915 480 46
------------------------------------------------------------------------

_______________________________________________
liste spip
spip@rezo.net - désabonnement : spip-off@rezo.net
Infos et archives : http://listes.rezo.net/mailman/listinfo/spip
Documentation de SPIP : http://www.spip.net/
irc://irc.freenode.net/spip
FAQ : http://www.spip-contrib.net/spikini/FaQ