Aller au contenu

Montage entre serveurs : SMB, NFS, iSCSI ?


Montage d'un stockage sur serveur  

9 membres ont voté

Vous n’avez pas la permission de voter dans ce sondage, ou de voir les résultats du sondage. Veuillez vous connecter ou vous inscrire pour voter dans ce sondage.

Messages recommandés

Bonjour les gens,

Je dispose de deux serveurs, tous deux sous debian Lenny 5.0.5

A est un serveur virtuel sous VMWare vSphere Hypervisor v4.1, plutôt orienté performance (pour l'anecdote il sera probablement finalement en 64-bit)

B est un serveur physique plutôt orienté stockage (sur du matériel 32-bit)

A et B sont sur deux VLANs distincts, cela passe donc par notre routeur

(il faudra traverser 1 switch, 1 routeur et 1 autre switch, en Gigabit Ethernet tout du long)

A recevra un site Web où il sera possible d'uploader des fichiers volumineux. Il y aura possiblement plusieurs utilisateurs, en connectés en LAN => les débits peuvent avoir de l'importance.

Il serait donc souhaitable que ces fichiers soient stockés sur B.

Je souhaite donc monter du stockage de B dans le système de fichiers de A.

J'envisage plusieurs techniques :

- Samba, j'ai testé ça marche,

- le bon vieux NFS, après tout ça existe encore. Je vois qu'il y a deux versions, incompatibles entre elles, la 3 et la 4 ? De base dans debian Lenny, quelle version peut--on trouver ?

- du iSCSI.

Au fond : l'espace sur B sera monté sur un seul serveur à la fois (accès unique).

En iSCSI, je devrai monter le tout dans un fichier (j'ai pas envi de modifier les volumes qui marchent très bien).

Sur iSCSI avec un peu de google j'ai trouvé un tuto pas mal du tout :

Using iSCSI on Debian Lenny (initiator and target)

Vous l'aurez compris, iSCSI me tente bien, mais au fond je me demande : pourquoi ? Le gain en perfo sera-t-il existant, sensible ?

Bonne journée !

Lien vers le commentaire
Partager sur d’autres sites

Le NFS v3 est dépassé maintenant, le v4 possède de très nombreux avantages.

Le iSCSI est pensé pour la virtualisation donc si c'est ce que tu veux faire il est probable que ce soit ça qui soit nécessaire.

Il faut bien que tu t'assures que les données sont réellement écrites sur le serveur de fichiers et pas dans le cache d'écriture il vaut mieux une partition (LVM ou non) plutôt qu'un fichier image.

Lien vers le commentaire
Partager sur d’autres sites

il vaut mieux une partition (LVM ou non) plutôt qu'un fichier image.

Parfois, c'est plus simple quand il n'y a qu'un seul fichier :cartonrouge: . L'utilisation de sparse images par exemple.

De toute façon, ta connexion internet va "brider" les flux, car même si tu as de la fibre, ce sera la vitesse des disques durs qui vont bloquer tout ça... :transpi:

Lien vers le commentaire
Partager sur d’autres sites

il y a AOE aussi :transpi:

Age Of Empires :transpi: ? Ah non :craint: , je connaissais pas ce protocole.

A mon avis le iSCSI est plus adapté et aussi il est pris en charge par plus d'OS.

En tout cas il faut aussi penser que ces protocoles transmettent les données en clair donc à moins d'être sur un réseau local bien blindé il vaut mieux mettre un système de cryptage.

Lien vers le commentaire
Partager sur d’autres sites

Entre NFS3 et NFS4 sous linux ya pas une grosse différence, tout ce qu'on attendait avait impatience sur la v4 n'a pas encore été implémenté.

Sinon je citerais un autre protocole, hyper à la mode vu qu'intégré dans pas mal de baie de stockage maintenant, il s'agit du FCoE.

+1 pour iSCSI, surtout que si t'as du matos serveur récent, le protocole peut être pris en charge matériellement par la carte reseau.

Lien vers le commentaire
Partager sur d’autres sites

Merci pour vos réponses.

Je serveur de stockage n'est pas très récent (je ne pense pas qu'il gère le iSCSI en matériel).

Pas trop de pb de sécurité, c'est du réseau local et on va filtrer comme il faut

Cela dit je me pose toujours la question : une liaison iSCSI sera-t-elle plus "performante" ?

Je vais aussi regarder du côté FCoE...

Lien vers le commentaire
Partager sur d’autres sites

Performance :

il faut trouver où se trouve le goulot dans ton architecture..

Si réseau gigabit , 100 Mo /s pour arrondir

disque dur : dépend si il y a du raid 5 / 1 / scsi / sata .... / voir si ça dépasse les 100 mo /s

temps d'accès :

là ca risque d'être un peu "lent", sur du cuivre. car en plus du temps d'accès disque, il faut l'aller + le retour par le réseau

Si cela peut t'aider, :p , mon architecture à la maison :

Serveur debian --> machine virtuelle debian avec iscsi software / SSD intel ( 200 mo /s en lecture ) --> 2 cartes réseau gigabit <--> 2 carte réseau gigabit --> PC de jeu sous seven 64 bits

J'ai 2 volumes iscsi ( 1 qui passe par chaque carte réseau ) un pour le C et un pour le D ou les applications sont installées.

J'avais le fait le test avec aTTO BENCHMARK, et le résulta que j'ai obtenu , c'est 100 mo /s environ.

c'était la caret réseau qui bloquait, et non pas le système de stockage ( SSD dans mon cas :bouletdujour: )

Lien vers le commentaire
Partager sur d’autres sites

Vous avez installé un Seven sur un volume iSCSI ?

Moi OUI :transpi: :transpi:

Toutes mes machines ( autres que le netbook et le serveur ) boot en PXE / GPXE , sur du NFS pour les linux, et iscsi pour les windows. :roule::mdr:

Comme ça toutes les machines utilise la puissance du ssd du serveur ( via le réseau )

http://www.etherboot.org/wiki/sanboot/win7

Si ça peut aider ( attention avec certains cd de Windows 7 ça ne marche pas !! :transpi: )

Lien vers le commentaire
Partager sur d’autres sites

Merci de l'info, c'est bon à savoir ;)

Dernière question : pas trop de latence vu que c'est en réseau ?

Comment dire... :roule:

WIndows est moi, on est pas forcément copain ( :transpi: ), donc bon windows c'est juste pour jouer. Sauf que je n'ai pas joué cette année, à cause de cette saloperie d'accident moto qui m'a cloué au lit et m'a enlevé l'envie :craint:

Donc :

Booter sur le réseau sur du iscsi/nfs, c'est pas très rapide :transpi: ( détection carte réseau, dhcp / boot loader ..... )

ensuite, comme je l'ai dit, au niveau débit c'est très bon, par contre si on fait de la lecture/écriture simultané, style une grosse archive compressé qui se trouve sur le disque iscsi et que l'on veut décompresser sur le disque iscsi lui même, alors là le réseau "sature" dans les 2 sens :ouioui:

Ce n'est forcément l'utilisation que je fais de ces PC là, car pour jouer, il y a beaucoup de lecture et peu d'écriture... :transpi:

Sinon mes machine diskless ont beaucoup de ram ( 4 Go) ( donc pas de swap activé ), du coup, les OS ( surtout Linux ) mettent tout en cache mémoire lors du lancement des applications. Un peu de lenteur lors du premier lancement de l'application et ensuite, ben c'est instantané :mdr:.

mais je pense qu'entre un disque "normal" et un ssd via le réseau, pas de grosse différence. :ouioui:

j'ai retrouver le graph pour le iscsi sur le lan avec le ssd à l'autre boot :incline:

atto_ssd_via_reseau_windows%20seven_iscsi.png

Il ne faut pas oublier que le SSD ( intel ) c'est du max 70 mo/s en écriture ( et qu'il fait bien d'autre chose en même temps dans le serveur, vu que le ssd héberge le serveur et aussi les 10 machines virtuelles :transpi: )

j'ai refais le test sur ma "deuxième" liaison , à savoir donc entre mes 2 cartes gigabit pci relié par un cable croisé ( le graph d'avant c'était entre 2 cartes intégrés aux cartes mère en pci express avec un switch gigabit au milieu )

atto_ssd_via_reseauwindows%20seven_iscsi2.png

voila le taux d'utilisation du réseau

activite_reseau.png

On arrive à environ 50 % , et non 100 % qui correspond a du full duplex donc lecture et écriture, mais la il écrit puis lit, mais pas les 2 en même temps :dd:

pour comparaison avec mon disque sata I 80 go ( maxtor ) ( fin du disque :transpi: , le plus lent donc .. )

atto_sata%2080go.png

pour les temps d'accès j'utilise des sparse images :transpi: , donc c'est pas posssible :craint:

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.

×
×
  • Créer...