Aller au contenu

explorateur de fichier avec web interface


durthu

Messages recommandés

Bonjour à tous,

j'ai un serveur sous Debian à la maison qui me sert de serveur de fichiers essentiellement. J'ai paramétré SAMBA et NFS pour les partages avec mes ordis sous Windows et GNU/Linux.

Je souhaite pouvoir avoir accès via internet sur mon serveur à une interface web. J'avais un NAS Synology avant et leur interface était bien fichue.

Pour l'instant, j'utilise un accès SSH et je débrouille avec la ligne de commande mais je ne serais pas seul à utiliser ce serveur.

Après quelques recherches, j'ai trouvé AjaXplorer qui n'a pas l'air trop mal. Connaissez vous d'autres explorateurs de fichiers ?

Je cherche aussi un gestionnaire de téléchargement HTTP pour ce serveur. Pour l'instant, le seul que j'ai trouvé est wget4web qui ne me satisfait pas totalement.

Merci d'avance.

Lien vers le commentaire
Partager sur d’autres sites

J'allais proposer PHP File Navigator, mais vu l'interface d'AjaXplorer, c'est pas la peine :D

Par contre, sans surprise, il faut un serveur web avec support de php pour pouvoir l'utiliser. Certaines facilités de configuration pour apache sont présentes (fichiers .htaccess déjà inclus).

Pour le gestionnaire de téléchargement, qu'attend-tu vraiment comme fonctionnalités ? Perso, au début de l'installation de mon serveur, j'ai utilisé un script fait maison qui sniffait un fichier pour y trouver un lien à télécharger, se le collait dans un fichier de travail, vidait le fichier, et lançait le téléchargement par wget. Mais j'ai abandonné parce que je n'arrivais pas à le faire évoluer/le corriger comme je voulais (typique de la méthode LA RACHE).

Wget4web semble atteindre à peu près le même objectif, en plus souple grâce à Perl (dont je connais trop peu de choses). Par contre, il est vrai que le design est très "geekesque" : le minimum syndical. Mais ça peut grandement s'améliorer.

Lien vers le commentaire
Partager sur d’autres sites

Wget4web semble atteindre à peu près le même objectif' date=' en plus souple grâce à Perl (dont je connais trop peu de choses). Par contre, il est vrai que le design est très "geekesque" : le minimum syndical. Mais ça peut grandement s'améliorer. [/quote']

Pour les téléchargement de liens http, je me sers de wget et je fais un copier coller du lien dans le terminal... j'ai pas trouvé beaucoup mieux pour l'instant.

Lien vers le commentaire
Partager sur d’autres sites

Sinon, lui faire exécuter le wget dans un screen, en lui passant le lien par un formulaire. C'est super crade comme solution, attention. Mais ça marche :transpi:

Sans doute trop facile et trop basique : le module Apache mod_autoindex

On parle de gestion de fichiers, sinon, les index, c'est très facile à avoir de base dans apache.

En plus pourri encore, t'as webmin et son navigateur de fichiers intégré :eeek2::francais:

PS : en quoi wget4web ne te convient-il pas ?

Lien vers le commentaire
Partager sur d’autres sites

Pour l'exploration de fichiers, pas possible d'installer tout simplement un serveur FTP, quitte à mettre une interface web "pour dépanner"?

Ou alors, si les clients sont des windows, tu peux simplement utiliser WinSCP qui propose une interface graphique pour SFTP/SCP (FTP over SSH)

Pour le téléchargement, il n'est pas possible de faire un simple formulaire PHP?

Vu que c'est un serveur Debian, pas forcément accessible depuis l'extérieur, laisser le allow_url_fopen activé, et faire une simple copie de fichiers? Pas très long à développer et souple à paramétrer avec des fichiers de config... Enfin, c'est mon côté développeur qui ressort :transpi:

Lien vers le commentaire
Partager sur d’autres sites

Sauf que dans le cas d'un téléchargement, si je ne m'abuse, le url_fopen sera encadré par le max_execution_time (pas sur du nom, je me réveille), donc si le dl prend plus de 30 secondes, il risque de lui couper la chique. Et augmenter le max_execution_time est pas forcément très sécure.

Mais je me trompe peut-être...

Lien vers le commentaire
Partager sur d’autres sites

Sauf que dans le cas d'un téléchargement, si je ne m'abuse, le url_fopen sera encadré par le max_execution_time (pas sur du nom, je me réveille), donc si le dl prend plus de 30 secondes, il risque de lui couper la chique. Et augmenter le max_execution_time est pas forcément très sécure.

Mais je me trompe peut-être...

J'avais pas pensé à ça, c'est mon côté boulet qui ressort :transpi:

Éventuellement, faire un exec sur un wget URL & ?

Par contre, il faudrait éviter que la page soit accessible depuis l'extérieur.

Et puis que des inconvénients par rapport à wget4web :-/

Lien vers le commentaire
Partager sur d’autres sites

A ton avis, pourquoi j'ai laissé tomber ? :transpi:

Restreindre l'accès au formulaire est enfantin, que ce soit avec Apache ou un autre serveur web (Apache étant peut-être plus souple grâce aux htaccess, mais plus lourd suivant les utilisations). Ce qui change après, c'est la façon de passer le lien, et éventuellement le contrôler.

Mais qu'est-ce qui ne plait pas dans wget4web ? (je repose la question, parce que ça m'a l'air vachement bien par rapport au truc pourri que j'avais pondu).

Lien vers le commentaire
Partager sur d’autres sites

Mais qu'est-ce qui ne plait pas dans wget4web ? (je repose la question, parce que ça m'a l'air vachement bien par rapport au truc pourri que j'avais pondu).

C'est juste que j'aurais voulu une interface un peu comme celle d'un NAS synology... je sais je rêve un peu :transpi:

Ça permet de suivre plusieurs téléchargement HTTP en même temps, les mettre en pause, ....

Lien vers le commentaire
Partager sur d’autres sites

En gros, il te faudrait les softs pour une seedbox perso :p

Pour la partie bittorrent, je pense que tu pourras trouver ton bonheur facilement (là comme ça je peux pas te donner de nom, vu que je n'utilise pas ce réseau). Pareil pour eMule. Aucune idée pour newsgroup. Pour de l'HTTP, c'est déjà plus délicat, même chose pour le FTP.

Et trouver tout ça integré dans la même interface, j'imagine même pas. En tout cas pas en open source à priori. Au pire, demande à Synology qu'il te lâche le code :D

Au niveau HTTP/FTP, je pense qu'il est possible d'y arriver en se basant sur wget, mais ça demande pas mal de code pour :

-gérer une liste de téléchargement;

-Afficher le statut des travaux en cours;

-mettre en pause/supprimer un dl en cours.

Et je parle en php. Sinon en Perl, faudrait reprendre le code de wget4web, et tout retravailler pour intégrer ça dans une belle interface moderne. Déjà refaire le design, ajouter un menu, etc, ça doit prendre du temps. Et ça je sais pas faire.

Sinon, j'ai commandé un bouquin pour apprendre Python, mais le temps que je le reçoive et que j'en fasse quelque chose, il va bien se passer quelques mois :transpi:

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...