Aller au contenu

configuration htaccess


classe-a

Messages recommandés

Bonjour, je cherche à trouver un script pour configurer correctement le htaccess sur mon serveur.

Je suis allé faire un tour sur toulouse-renaissance.net, mais je n'ai pas trouvé mon bonheur.

J'ai un site en HTML assez lourd à protéger contre les aspirateurs et autres renifleurs d'adresses mail etc...

Au départ, j'avais pensé à un script qui recenserait le nombre de pages vues dans un certain délai et si ce nombre était trop important l'IP était automatiquement rejettée, mais il paraît qu'il faut pour faire cela un script en php et une base MySql ce dont je ne dispose malheureusement pas.. :mdr:

Me reste alors à configurer serieusement via htaccess et le fichier robots.txt, et là une question me turlupine (ce verbe me fait marrer :D )

Est-que les robots ou aspirateurs ont la possibilité de modifier ce que l'on appelle le User_Agent pour contourner l'interdiction ?

Comme précisé ici:

http://www.toulouse-renaissance.net/c_outi...aspirateurs.htm

http://www.toulouse-renaissance.net/c_outi...ess_verifie.htm

Lien vers le commentaire
Partager sur d’autres sites

hum, un simple deny for all d'un htaccess devrait faire l'affaire, sinon demande à ceux qui t'hebergent de te fournir un code plus compatible.

Si tu desires proteger ton site, alors le mets pas en ligne tout simplement, de toute façon il y'aura toujours une façon de contourner une protection. un simple clic droit sur ton site permettra d'editer le code source de ta page, un imprim ecran son contenu ....

Je ne vois pas l'interêt, dépose un copyright a la limite ...

:D

Lien vers le commentaire
Partager sur d’autres sites

C'est un site assez lourd (il n'est pas à moi :D ), la protection ne concerne pas la source, mais simplement le fait que des aspirateurs ne puissent altérer la limite de traffic autorisée par l'hébergeur.

De plus, certaines informations (notamment adresses mails) ce trouvent incorporées, j'ai pas envie de les voir récupérées par un éventuel robot avide de ce genre d'info pour t'envoyer spam et autres conneries du genre.

Je me tourne donc vers la configuration des fichiers .htaccess et robots.txt.

J'ai également trouvé sur toulouse-renaissance, un script permettant de supprimer les aspirateurs en se basant sur l'adresse IP (piège.cgi), malheureusement je ne dispose pas d'un répertoire sur le serveur spécifique à ce genre de script.

Lien vers le commentaire
Partager sur d’autres sites

Est-que les robots ou aspirateurs ont la possibilité de modifier ce que l'on appelle le User_Agent pour contourner l'interdiction ?

Oui sans aucun problème...

Une solution pratique et pas trop dure à mettre en oeuvre si t'as peur de te faire aspirer (hem...), c'est une image vide de 1px sur 1px avec un lien qui va bannir l'IP en question. (Mais vu que tu ne peux pas avoir de BDD ça va pas trop être possible dans ton cas)

Lien vers le commentaire
Partager sur d’autres sites

Oui sans aucun problème...

Une solution pratique et pas trop dure à mettre en oeuvre si t'as peur de te faire aspirer (hem...), c'est une image vide de 1px sur 1px avec un lien qui va bannir l'IP en question. (Mais vu que tu ne peux pas avoir de BDD ça va pas trop être possible dans ton cas)

Et si il utilisait un fichier qui contiendrait les adresse IP ?

si il y a beaucoup d'IP ca deviendra lourd mais ca peut fonctionner.

Lien vers le commentaire
Partager sur d’autres sites

Si tu ne veux pas qu'un robot puisse récupérer une adresse e-mail, le seul moyen c'est qu'elle n'apparaisse pas en clair sur ton site ! Fais des adresses e-mail en images .gif par exemple, le robot ne voit qu'une image et puis c'est tout ! Seulement l'utilisateur doit recopier manuellement l'adresse (pas de copier-coller possible) et bien entendu, pas possible de cliquer dessus pour envoyer le message !

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...