Snaky83 Posté(e) le 22 mai 2004 Partager Posté(e) le 22 mai 2004 Bonsoir tout le monde !! Voilà je vsouhaiterai proteger mes sites web du logiciel Intellitamper qui comme vous le savez sans doutes qu'il permet de voir le contenu d'un site et même d'aspirer els page web !!!! (Php ou non) Alors cje suis en quête contre ce prog et je demande votre aide a tous !! Lien vers le commentaire Partager sur d’autres sites More sharing options...
Angel Eyes Posté(e) le 23 mai 2004 Partager Posté(e) le 23 mai 2004 Bonsoir tout le monde !!Voilà je vsouhaiterai proteger mes sites web du logiciel Intellitamper qui comme vous le savez sans doutes qu'il permet de voir le contenu d'un site et même d'aspirer els page web !!!! (Php ou non) Alors cje suis en quête contre ce prog et je demande votre aide a tous !! personellement, j'utilise Custo pour pomper les sites Bon, plus sérieusement, ce genre de programme se faisant passer pour un browser et allant vérifier tous les liens dans les pages, ça va pas être facile je ne crois pas que ce soit possible, à part en distribuant les pages sur différents noms de sites (les aspirateurs se limitent en général à un site, l'utilisateur ne voulant pas se retrouver à charger tout le web) le mieux, c'est de limiter l'affichage de l'adresse des pages au nom du site (quel que soit la page, il indique alors http://www.pasaspirer.com/ ) et d'avoir tes pages/images sur un autre site (dont le nom est caché), ça bloquera déja le bidouilleur du dimanche, mais pas le type expérimenté ... Question : quel problème te cause un aspirateur web ? PS : ne me demande pas comment on fait, je n'en ai pas la moindre idée mais je sais que ça peut se faire Lien vers le commentaire Partager sur d’autres sites More sharing options...
Compte_supprime_2209 Posté(e) le 23 mai 2004 Partager Posté(e) le 23 mai 2004 [...] et même d'aspirer els page web !!!! (Php ou non) Oui, enfin d'aspirer le résultat final d'une page PHP, à savoir du HTML... Voilà je vsouhaiterai proteger mes sites web du logiciel Intellitamper qui comme vous le savez sans doutes qu'il permet de voir le contenu d'un site et même d'aspirer els page web !!!! Pourquoi tu veux faire ça? Je voudrai pas paraître extremiste, mais le web c'est avant tout un lieu public. Si j'ai envie de browser un site offline, et que le webmaster a crée un système pour m'en empêcher, la seule chose que ça engendrera, c'est que j'irai voir ailleurs.. (pareil pour ceux qui bloquent les cliques droits...) Le web est à tous, et c'est aussi un terrain de recherche, d'experience et de jeu... Quand y'a une mise en page ou un scrit qui semble sympa, j'aime bien voir le code source, histoire de voir comment s'est fait... enfin bon, tout ça c'est pareil quoi Mais bon, si t'éprouves réellement le besoin d'empêcher les utilisateurs d'aspirer ton site, tu peux te renseigner sur comment font certains pour éviter tous les robots en général... (notamment pour éviter les ramassages d'emails) L'idée la plus interessante, c'est de mettre un lien dans ton code source, qui n'est pas visible par les utilisateurs, mais qui sera ramassé par le robot (ou l'aspirateur de site). Ensuite, tu fais un petit script php pour la cible du lien, qui permet de bannir toutes ip qui accederait à cette page... (essaie de rediriger les bannis vers un petit texte explicatif, et puis un "si vous voulez être débanni, contactez-moi", ou bien mieux encore, faire un script qui permette de vérifier que la personne est humaine, et de la débannir automatiquement... et puis nommes le lien de façon à ce qu'on comprenne bien qu'il s'agit d'un piège, histoire que n'importe qui ne teste pas, par curiosité, après avoir regardé les sources) Tu pourras sûrement trouver des exemples sur Google, si tu n'arrives pas à integrer ce système... (en recherchant des infos pour bloquer les robots collecteurs d'emails) [Edit: oublie pas de rajouter un système pour pas bannir les robots des moteurs de recherche fait une white list avec les ip ou les dns des moteurs de recherche, et verifie regulièrement la liste des bannis, pour voir si y'a pas un moteur de recherche qui s'est fait piégé] Lien vers le commentaire Partager sur d’autres sites More sharing options...
FilouLeHibou Posté(e) le 23 mai 2004 Partager Posté(e) le 23 mai 2004 Sinon, si c'est vraiment une partie secrète, un .htaccess peut résoudre ça vu que les aspirateurs ne passent pas les .ht Mais ça cause que pour y accéder, tu dois te loguer à chaque fois. Lien vers le commentaire Partager sur d’autres sites More sharing options...
Snaky83 Posté(e) le 23 mai 2004 Auteur Partager Posté(e) le 23 mai 2004 nan me en fait c ke kan jai vu ke le truc il apsira les fichier en php ca ma fiaflipper lol me apapremn il capte rien du langauge php puiskil fou du javascritp de deans donc en fiat ca va fausse peur Lien vers le commentaire Partager sur d’autres sites More sharing options...
milohoffman Posté(e) le 23 mai 2004 Partager Posté(e) le 23 mai 2004 Meyaline --> certains sites vérouillent une partie de leurs fichiers car il faut payer pour y accéder Lien vers le commentaire Partager sur d’autres sites More sharing options...
Compte_supprime_2209 Posté(e) le 23 mai 2004 Partager Posté(e) le 23 mai 2004 certains sites vérouillent une partie de leurs fichiers car il faut payer pour y accéder C'est bien ça! Tout gratuit! Libre, quoi! *air jovial* Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.