[SPIP Zone] Futur plugin Bloqueur d'IP

Bonjour ,

Je préfère ouvrir un nouveau Thread pour ce plugin plutôt que de squatter celui de Pierre, ça ne se fait pas!

Bernard Blazin a écrit :

J'en reviens à mon petit plugin:
Si on considère qu'un robot spameur va chercher dans les pages d'un site les
formulaires. On peut penser qu'il va parcourir un grand nombre de pages en
un minimum de temps, non?

C'est d'ailleurs utilisé sur certains sites
quand l'internaute doit lire une licence ou des conditions d'acceptation
et si on clique immédiatement "Ok je suis d'accord avec les conditions"
ça affiche genre
"vous lisez trop vite pour un humain merci de faire attention à ce que à quoi vous vous engagez"...

JL

OK, donc on peut en conclure que si il y a un passage sur 25 pages par exemple et par minute avec la même ip, c'est soit un internaute fou soit un robot de spam, c'est bien ça ?
Mais est-ce que mon système ne risque pas d'empêcher le réferencement et la visite de robot comme Google par exemple?
(sinon à part deux ou trois réglages, le plugin fonctionne parfaitement)

Bernard

Bernard Blazin a écrit :

OK, donc on peut en conclure que si il y a un passage sur 25 pages par exemple et par minute avec la même ip, c'est soit un internaute fou soit un robot de spam, c'est bien ça ?
Mais est-ce que mon système ne risque pas d'empêcher le réferencement et la visite de robot comme Google par exemple?
(sinon à part deux ou trois réglages, le plugin fonctionne parfaitement)

oui.
si tu veux éviter cela, il faut whitelister les ip des googlebots
qui sont bien connues des référenceurs professionnels malhonnêtes
qui les utilisent pour présenter des contenus alléchants à google.
cf http://www.robots.darkseoteam.com/adresses-ip-googlebot.php
par exemple...
(et pareil pour les autres robots...)
JL

Bernard Blazin wrote:

Bonjour ,

Je préfère ouvrir un nouveau Thread pour ce plugin plutôt que de squatter celui de Pierre, ça ne se fait pas!

Bernard Blazin a écrit :

J'en reviens à mon petit plugin:
Si on considère qu'un robot spameur va chercher dans les pages d'un site les
formulaires. On peut penser qu'il va parcourir un grand nombre de pages en
un minimum de temps, non?

C'est d'ailleurs utilisé sur certains sites
quand l'internaute doit lire une licence ou des conditions d'acceptation
et si on clique immédiatement "Ok je suis d'accord avec les conditions"
ça affiche genre
"vous lisez trop vite pour un humain merci de faire attention à ce que à quoi vous vous engagez"...

JL

OK, donc on peut en conclure que si il y a un passage sur 25 pages par exemple et par minute avec la même ip, c'est soit un internaute fou soit un robot de spam, c'est bien ça ?
Mais est-ce que mon système ne risque pas d'empêcher le réferencement et la visite de robot comme Google par exemple?
(sinon à part deux ou trois réglages, le plugin fonctionne parfaitement)

Bernard

Je trouve l'idée intéressante mais cela risque de poser problème dans le cadre de visites d'utilisateurs "avancés" éventuellement souhaités, ainsi que pour tous ceux qui utilisent des proxy/cache. Or il se trouve que certains robots utilisent ces mêmes proxy. On peut les mettre dans une whitelist mais...

J'aurai plutôt vu la présence d'un lien vers une page satellite (donc invisible d'un internaute humain) dont l'unique fonction serait d'éliminer les robots et/ou "browsers" non désirés sur le système que vous décriviez.
Et peut être meme envisager l'association d'une session pour règler le problème des proxy.
Après il y a la solution inverse de créer des liens à base d'horribles javascripts que la majorités des robots ne sauront interpreter mais... beurk.

--
Chryjs - mailto:chryjs@free.fr

----- Original Message ----- From: "chryjs" <chryjs@free.fr>
Cc: <spip-zone@rezo.net>
Sent: Thursday, September 27, 2007 2:02 PM
Subject: Re: [SPIP Zone] Futur plugin Bloqueur d'IP

Bernard Blazin wrote:

Bonjour ,

Je préfère ouvrir un nouveau Thread pour ce plugin plutôt que de squatter
celui de Pierre, ça ne se fait pas!

Bernard Blazin a écrit :

J'en reviens à mon petit plugin:
Si on considère qu'un robot spameur va chercher dans les pages d'un site
les
formulaires. On peut penser qu'il va parcourir un grand nombre de pages en
un minimum de temps, non?

C'est d'ailleurs utilisé sur certains sites
quand l'internaute doit lire une licence ou des conditions d'acceptation
et si on clique immédiatement "Ok je suis d'accord avec les conditions"
ça affiche genre
"vous lisez trop vite pour un humain merci de faire attention à ce que à
quoi vous vous engagez"...

JL

OK, donc on peut en conclure que si il y a un passage sur 25 pages par
exemple et par minute avec la même ip, c'est soit un internaute fou soit un
robot de spam, c'est bien ça ?
Mais est-ce que mon système ne risque pas d'empêcher le réferencement et la
visite de robot comme Google par exemple?
(sinon à part deux ou trois réglages, le plugin fonctionne parfaitement)

Bernard

Je trouve l'idée intéressante mais cela risque de poser problème dans le
cadre de visites d'utilisateurs "avancés" éventuellement souhaités,
ainsi que pour tous ceux qui utilisent des proxy/cache. Or il se trouve
que certains robots utilisent ces mêmes proxy. On peut les mettre dans
une whitelist mais...

J'aurai plutôt vu la présence d'un lien vers une page satellite (donc
invisible d'un internaute humain) dont l'unique fonction serait
d'éliminer les robots et/ou "browsers" non désirés sur le système que
vous décriviez.
Et peut être meme envisager l'association d'une session pour règler le
problème des proxy.
Après il y a la solution inverse de créer des liens à base d'horribles
javascripts que la majorités des robots ne sauront interpreter mais...
beurk.

--
Chryjs - mailto:chryjs@free.fr
_______________________________________________
spip-zone@rezo.net - http://listes.rezo.net/mailman/listinfo/spip-zone

--
No virus found in this incoming message.
Checked by AVG Free Edition.
Version: 7.5.488 / Virus Database: 269.13.32/1032 - Release Date: 26/09/2007 20:20

Mince dérapage de clavier le premier mail est parti tout seul!!
Votre idée ressemble beaucoup à celle de Pierre et son pot de miel en fait. On attire le spameur vers une page qui n'est pas vraiment une page..
Certes, mon astuce n'est pas parfaite.
Par exemple comme vous le soulignez, je passe par le proxy free pour avoir accès à Easyphp hors localhost. Si je navigue, j'ai l'ip du proxy! Je pense que je ne suis pas le seul. Si il y a 25 connexions de cette ip (du proxy free) sur le site, l'ip sera bloquée interdisant de ce fait, les internautes passant derrière le proxy de se connecter sur le site.
C'est exactement ce que j'ai vu sur le site de wikipedia. J'ai voulu rajouter un contenu, mais l'ip de proxy. free est bloquée.

Néanmoins j'ai envie de poursuivre dans cette voie et de proposer ensuite ici à l'amélioration ce plugin..
Il me reste des bugs que je ne comprends pas dans les ouvertures de boite_info() qui m'affiche des balises curieuses, sur le back office.. Mais j'ai pris un peu de retard, il y a eu des changements depuis la 1.9 en matière de présentation??

Bernard

----- Original Message ----- From: "chryjs"
Cc:
Sent: Thursday, September 27, 2007 2:02 PM
Subject: Re: [SPIP Zone] Futur plugin Bloqueur d'IP

Bernard Blazin wrote:

Bonjour ,

Je préfère ouvrir un nouveau Thread pour ce plugin plutôt que de squatter
celui de Pierre, ça ne se fait pas!

Bernard Blazin a écrit :

J'en reviens à mon petit plugin:
Si on considère qu'un robot spameur va chercher dans les pages d'un site
les
formulaires. On peut penser qu'il va parcourir un grand nombre de pages en
un minimum de temps, non?

C'est d'ailleurs utilisé sur certains sites
quand l'internaute doit lire une licence ou des conditions d'acceptation
et si on clique immédiatement "Ok je suis d'accord avec les conditions"
ça affiche genre
"vous lisez trop vite pour un humain merci de faire attention à ce que à
quoi vous vous engagez"...

JL

OK, donc on peut en conclure que si il y a un passage sur 25 pages par
exemple et par minute avec la même ip, c'est soit un internaute fou soit un
robot de spam, c'est bien ça ?
Mais est-ce que mon système ne risque pas d'empêcher le réferencement et la
visite de robot comme Google par exemple?
(sinon à part deux ou trois réglages, le plugin fonctionne parfaitement)

Bernard

Je trouve l'idée intéressante mais cela risque de poser problème dans le
cadre de visites d'utilisateurs "avancés" éventuellement souhaités,
ainsi que pour tous ceux qui utilisent des proxy/cache. Or il se trouve
que certains robots utilisent ces mêmes proxy. On peut les mettre dans
une whitelist mais...

J'aurai plutôt vu la présence d'un lien vers une page satellite (donc
invisible d'un internaute humain) dont l'unique fonction serait
d'éliminer les robots et/ou "browsers" non désirés sur le système que
vous décriviez.
Et peut être meme envisager l'association d'une session pour règler le
problème des proxy.
Après il y a la solution inverse de créer des liens à base d'horribles
javascripts que la majorités des robots ne sauront interpreter mais...
beurk.

--
Chryjs -

--
No virus found in this incoming message.
Checked by AVG Free Edition.
Version: 7.5.488 / Virus Database: 269.13.32/1032 - Release Date: 26/09/2007 20:20

Au secours!

J'essaye en vain de passer ce code (à l'ancienne) dans une balise dynamique ( et ce depuis 3 jours). Ca fonctionne en local mais pas en prod
Si avez une idée, je bloque complètement sur le coup..
Ca me retourne des erreurs SQL!
$Vcpt = 0;
$Vdate = date("Y/m/d H:i" );
$Vua = $_SERVER["HTTP_USER_AGENT"];
$Vip = $_SERVER["REMOTE_ADDR"];
$Vve =$_SERVER["HTTP_REFERER"];
require('config.php');$dbic=mysql_connect($host,$user,$mdp);mysql_select_db($database);
if ($dbic <> 0)
{
     // supprime les vieilles IP
     mysql_query("DELETE FROM spip_ ip WHERE date <> '$Vdate'" );

     // chercher si le visiteur est interdit
     $res = mysql_query("SELECT spip_ip FROM ip_bl WHERE ip='$Vip'" );
     while(list($ip) = mysql_fetch_row($res))
     {
         // Visiteur trouvé dans les IP interdites
             mysql_free_result($res);
            mysql_close($dbic);
         die("IP interdite pour abus." );
     }
     mysql_free_result($res);

     // chercher si le visiteur est déjà passé
     $res = mysql_query("SELECT id, ip, date, cpt FROM spip_ip WHERE ip='$Vip'" );
     while(list($id, $ip, $date, $cpt) = mysql_fetch_row($res)) $Vcpt = $cpt;
     mysql_free_result($res);

     if ($Vcpt == 0) mysql_query("INSERT into spip_ip (id, ua, ip, date, cpt) values ('', '$Vua', '$Vip', '$Vdate', '1')" );
     else
     {
         // Visiteur ayant déjà chargé des pages dans la même minute ==> +1 sur le compteur
         mysql_query("UPDATE spip_ip SET cpt=cpt+1 WHERE ip='$Vip'" );

         // si limite atteinte (25 pages/min) ajouter dans la table des ip interdites.
         if ($Vcpt >= 25 )
         {
             mysql_query("INSERT into spip_ip_bl (id, ua, ip, date, cpt) values ('', '$Vua', '$Vip', '$Vdate', '$Vcpt')" );

             $msg = "HTTP_SERVER_VARS:\n" ;
                 while (list ($key, $val) = each ($HTTP_SERVER_VARS)) $msg .= "$key => $val\n";
                 $msg = addslashes($msg);
                 eval("\$msg = \"$msg\";" );
                 $msg = stripslashes($msg);
                 mail ("bernard.blazin@free.fr", "[IP Interdite] $Vip - $Vdate", $msg, "From: bernard.blazin@free.fr" );
         }
     }
    mysql_close($dbic);
}

Si vous savez quoi, merci de m'aiguiller

Bernard