gravurom a écrit:Que l'adresse soit écrite à l'aide de JavaScript ou de n'importe quel autre langage, elle apparaît toujours en clair lorsque la page est générée côté client.
Ben l'avantage, l'intéret d'utiliser du js pour camoufler les adresses, c'est justement que pour un robot collecteur d'adresses, il n'y a
pas de génération "coté client" vu qu'il n'interprete pas le javascript. Le robot fait son /GET et récupère le code html de la page et va ensuite traiter le texte brut. Il ne trouvera aucune adresse mail.
L'adresse se retrouve dans le code de la page uniquement pour le client chez qui le document.write aura été interpreté et veut dire quelque chose, c'est a dire chez celui qui active le js.
gowap a écrit:Qui aujourd'hui désactive le js pour surfer ?
moi ... et 10 % des utilisateurs selon certaines statistiques.
Chez les surfeurs avec browser en mode texte sur une console unix, ce sera 100% de gens qui n'ont pas le js d'activé.
Les chiffres....
Moi je peux donner ceux de GN. On tourne entre 1 et 1.1% de visites mensuelles qui sont faites sans javascript activé. le taux est constant (si ca se trouve c'est juste toi
)
Je ne rentre pas dans le débat, mais j'espère que cette daube ne deviendra pas une solution de référence.
Tu peux ouvrir un nouveau sujet si tu veux. Perso, j'aimerais bien savoir en quoi c'est une mauvaise chose (mis a part le fait que cela te "forcera" a activer js).
Une autre solution pour éviter le spam abusif sur les mails est d'interdire l'accès à certains robots avec un .htaccess.
Voila une solution a laquelle je ne crois personnellement pas des masses, pour la simple et bonne raison qu'aujourd'hui, n'importe quel robot collecteur qui se respecte va usurper l'identité d'un programme légitime (la plupart du temps un navigateur). Je ne dis pas qu'il n'en reste pas qui s'annoncent avec un user agent qui dit "coucou c'est moi le robot collecteur" mais alors ils sont vraiment controllés par de piètres spammeurs, ou bien qui ne vise que les sites de page perso ou les gens ne savent pas ce qu'est un htaccess et n'ont pas protégé l'accès.
Alors évidemment il doit bien y en rester des débiles comme ca qui ne se cachent meme pas, mais ca doit etre l'exception.
Concernant les aspirateurs c'est exactement la meme chose : ils permettent tous de spécifier pour qui ils doivent se faire passer (la je confesse que ca ne m'a pas empeché de mettre directement Httrack dans le killfile, meme s'il ne fait rien de mal). Mieux vaut dans ce cas la un systeme générique comme sur GN, qui bloque l'acces en fonction du nombre de page demandées par minute.
C'est d'autant plus vrai pour les aspirateurs