Sauvegarde HTML

Bonjour à toutes et à tous,
Dans le grand nettoyage de fin d’année, je dois supprimer un site qui comporte une trentaine de pages, mais j’aimerais faire une sauvegarde HTML de ce dernier afin de pouvoir en garder une trace en local si besoin.
Savez-vous s’il existe un plugin permettant de faire cela, et sinon, connaitriez-vous un « aspirateur » de site gratuit et efficace ?
Vous remerciant par avance pour vos lumières, et vous souhaitant une bonne fin d’année !-)
Denis

Bonjour,

Sur OSX : SiteSucker for macOS

Bonjour,

sous linux :

Pour aspirer un site, se placer dans le dossier où l’on veut enregistrer la copie du site puis :

wget -r -k -E -np --no-check-certificate URL_DU_SITE

Bonne année également
Ulrich

···

Le 29/12/2024 à 14:38, Denis via Discuter de SPIP a écrit :

Denis inaden
Décembre 29

Bonjour à toutes et à tous,
Dans le grand nettoyage de fin d’année, je dois supprimer un site qui comporte une trentaine de pages, mais j’aimerais faire une sauvegarde HTML de ce dernier afin de pouvoir en garder une trace en local si besoin.
Savez-vous s’il existe un plugin permettant de faire cela, et sinon, connaitriez-vous un « aspirateur » de site gratuit et efficace ?
Vous remerciant par avance pour vos lumières, et vous souhaitant une bonne fin d’année !-)
Denis


Voir le sujet ou répondre à cet e-mail pour répondre.

Pour vous désabonner de ces e-mails, cliquez ici.

La solution de @Ulrich_Hermann est une bonne piste, sinon il existe aussi BoOz / spip_statique · GitLab et le classique Télécharger HTTrack Website Copier 3.49-2 - HTTrack Website Copier - Aspirateur de sites web libre (GNU GPL)

Merci à tous,
Je pense que je vais essayer la solution d’@Ulrich_Hermann dès demain.
Je vous tiens au courant.
C’est vraiment sympa d’avoir été aussi réactif en ce dimanche de fin d’année.
Un bon réveillon à tous.
Denis

Rebonjour,
Comme convenu, un petit retour d’expérience.
La solution d’Ulrich et celle de Graphie sur Mac donne le même résultat. Toutes les pages sont là, mais il y a des problèmes de liens qui restent externes (CSS, JS et images) et donc des images et fichiers qui ne sont pas rapatriés. Il est en rapatriant le cache, les CSS… possible par chercher-remplacer de tout remettre… mais c’est fastidieux.
Par contre HTTracker Website fonctionne très bien.
Encore merci à vous pour votre aide.
Bon derniers jours d’année !-)
Denis