Aller au contenu

La creation de mon NAS 24 baies pour pas si cher que ça.


Messages recommandés

Bonjour KernelCoffe,

Cela fais plusieurs semaines que j'ai ce projet entête, me concevoir un système de stockage homemade de gros volume à moindre cout.

Etant consultant IT, j'ai de gros besoin en espace de stockage.

Lors de mon étude afin de monter le projet, je suis arrivé au même conclusion et choix de produit que toi. Et aujourd'hui vraiment par hasard en consultant mes news, je tombe sur l'article en page d'accueil présentant ton concept.

Comme toi, j'ai également flashé sur les boitiers NorcoTech.

Malheureusement quand j'ai vu le montant du transport et des taxes mon enthousiasme est vite redescendu.

Pour le NorcoTech RPC-4224 sur l'e-shop de Norco je suis à 399$ pour le boitier et 430$ de transport (livraison en Belgique) et taxes O.O

Ma question est donc la suivante, où as-tu commandé ce boitier?

Merci d'avance, bien à toi

Va voir mon poste un peu plus haut.

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 136
  • Créé
  • Dernière réponse

Bonjour @ tous,

Avant toute chose félicitation pour cette réalisation.

Grace à toi, j'ai appris plein de choses. Cela fait quelques mois que je planche sur le même projet alors ton aventure tombe à pic.

J'avoue ne pas avoir une excellente connaissance dans le domaine du stockage. Aussi, je me permets de vous poser 2 questions qui devraient certainement interressé tout ceux qui sont dans la même démarche de toi/nous.

1 : Que faudrait il pour transformer ce super NAS HomeMade, en SAN ? qu'est ce qui doit être ajouté ? modifié ?

2 : Comme tu l'as laissé entendre, la conso du proc est trés correcte et le fonctionnement global est excellent... en fonctionnement normal.

Mais, si un des disques venait à rendre l'âme (en RAIDZ1, pire si 2 disques venaient à décéder pour un RAIDZ2), le proc en particulier et le fonctionnement global en général de cette machine s'en trouverait trés fortement impacté/dégradé. Ce qui conduirait à des perf alors particuliérement calamiteuses, au pire un acces impossible aux données. En effet, le proc serait entièrement accaparé par la reconstruction du disque.

Serait il alors possible, d'utiliser les resources des autres machines du réseau ou tout simplement d'un (des) autre(s) serveur(s) du réseau pour alors accellérer les calculs de la reconstruction du nouveau disque ? si oui comment ?

Merci

Lien vers le commentaire
Partager sur d’autres sites

Bonjour,

Après il faut avoir de la place chez soi pour mettre un gros boitier comme cela, est-ce que vous comptez mettre un onduleur ?

C'est dommage que des fabricants plus grand publique ne font pas des boitiers avec des baies disques hot-swap

Pas forcement, comme le serveur est silencieux, et que l'on n'a pas d'armoire, on peut facilement le planquer en hackant les tables IKEA dont curieusement la largeur fait *exactement* la largeur d'un serveur rackable, comme quoi.

Pour l'onduleur, c'est prévu, il faut juste que je le fasse, ne serais-ce que pour filtrer le courant.

Bonjour @ tous,

Avant toute chose félicitation pour cette réalisation.

Grâce à toi, j'ai appris plein de choses. Cela fait quelques mois que je planche sur le même projet alors ton aventure tombe à pic.

J'avoue ne pas avoir une excellente connaissance dans le domaine du stockage. Aussi, je me permets de vous poser 2 questions qui devraient certainement interressé tout ceux qui sont dans la même démarche de toi/nous.

1 : Que faudrait il pour transformer ce super NAS HomeMade, en SAN ? qu'est ce qui doit être ajouté ? modifié ?

2 : Comme tu l'as laissé entendre, la conso du proc est trés correcte et le fonctionnement global est excellent... en fonctionnement normal.

Mais, si un des disques venait à rendre l'âme (en RAIDZ1, pire si 2 disques venaient à décéder pour un RAIDZ2), le proc en particulier et le fonctionnement global en général de cette machine s'en trouverait trés fortement impacté/dégradé. Ce qui conduirait à des perf alors particuliérement calamiteuses, au pire un acces impossible aux données. En effet, le proc serait entièrement accaparé par la reconstruction du disque.

Serait il alors possible, d'utiliser les resources des autres machines du réseau ou tout simplement d'un (des) autre(s) serveur(s) du réseau pour alors accellérer les calculs de la reconstruction du nouveau disque ? si oui comment ?

Merci

1) Alors j'ai vite fait regarder les differences NAS/SAN et je suis tombe sur ce site qui explique comme construire son propre SAN avec des composants similaire a mon serveur avec quelques différences.

Puis cette video qui m'a confirme ce que j'avais compris -> La différence entre NAS et SAN réside dans le protocole réseau.

Je pense qu'un expert dans le domaine serai plus a même de répondre a cette question, mais on peut assumer que la grosse modification a faire serai d'installer une carte iSCSI dans le serveur.

2) Le blocage du systeme par un calcul trop intensif dépend du scheduller et sa capacité a donner une priorité sur un flux d'instruction.

Par exemple la reconstruction de volumes ZFS devrait avoir une priorité plus faible qu'un accès système et réseau afin justement de ne pas trop perturber l’accès aux autres volumes disponibles sur le serveur.

Le processeur que j'ai choisi n'est pas très puissant cependant, étant un XEON il possède des set d'instructions supplémentaire afin d’améliorer les performances sur ce type de calculs, Il devrait s'en sortir mieux qu'un processeur de base.

Cependant cela ne m'es pas encore arrive donc je n'ai pas de retour sur la question.

Dans la théorie tout est possible, déporter des calculs sur d'autre machines se fait très bien, genre avec distcc pour compiler, après je n'en ai pas encore entendu parler dans le cadre d'un NAS (ou SAN), le principe d'un calcul distribuée n'est pas fondamentalement complique.

- un master qui va assigner des bouts de calcul a des nodes

- des nodes qui attendent qu'on leur donne un bout de calcul a manger, chaque node doit contenir les algorithme de calcul.

Donc il suffirait (toujours en théorie) d'introduire un middleware qui va intercepter les calculs normalement fait par le système pour les distribuer a travers le réseau.

Encore une fois, si quelqu'un de plus cale que moi sur la question peut apporter une pierre a l’édifice.

Lien vers le commentaire
Partager sur d’autres sites

Salut, magnifique montage et surtout merci de nous faire partager cela :-)

Sinon j'ai une question:

Tu as 16Go de RAM dedans si j'ai bien suivi, mais combien de mémoires utilisées ?

Parce que je me suis monté un NAS avec Freenas aussi en début d'année, et je suis plus que limite en mémoire. Comme ça cela me donnerai une idée pour ugrader ma RAM.

Merci d'avance

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir,

Merci pour ta réponse, je suis aller voir les liens.

Je viens de relire tout le post et il y a un détail qui m'a interpellé que je n'avais pas vue avant.

Voici ce que Foetus dit :

Ce n'est pas un problème d'avoir peu de ports: Avec la LSI SAS 9211-8i HBA tu peux brancher 32 disques durs.

Tu crois que tu fais comment avec seulement 8 ports? :p

Il faut acheter des cartes expander avec les bons câbles

sur le site de LSI les spécifications de la carte SAS 9211-8i HBA n'a que 8 ports. Comment est il alors possible de brancher 32 disques durs ?

Qu'est ce qu'une carte "expander" et de quels cables s'agit il ?

Merci @ tous et désolé pour mon ignorance.


Salut, magnifique montage et surtout merci de nous faire partager cela :-)

Sinon j'ai une question:

Tu as 16Go de RAM dedans si j'ai bien suivi, mais combien de mémoires utilisées ?

Parce que je me suis monté un NAS avec Freenas aussi en début d'année, et je suis plus que limite en mémoire. Comme ça cela me donnerai une idée pour ugrader ma RAM.

Merci d'avance

Si je peux me permettre il me semble que dans les recommandations matériels de FREENAS il est demandé AU MINIMUM pour ZFS, si je fais pas d'erreur, je crois 4 ou 5 Go de base + 1 Go /To installé.

Sachant qu'il semblerait (retours sur forum) qu'il est trés vivement déconseillé d'utiliser plus de 80% espace disque installé. D'autre part il n'est pas recommandé de faire des grappes de plus de 9 disques.

Bonne soirée.

Lien vers le commentaire
Partager sur d’autres sites

2 : Comme tu l'as laissé entendre, la conso du proc est trés correcte et le fonctionnement global est excellent... en fonctionnement normal.

Mais, si un des disques venait à rendre l'âme (en RAIDZ1, pire si 2 disques venaient à décéder pour un RAIDZ2), le proc en particulier et le fonctionnement global en général de cette machine s'en trouverait trés fortement impacté/dégradé. Ce qui conduirait à des perf alors particuliérement calamiteuses, au pire un acces impossible aux données. En effet, le proc serait entièrement accaparé par la reconstruction du disque.

Serait il alors possible, d'utiliser les resources des autres machines du réseau ou tout simplement d'un (des) autre(s) serveur(s) du réseau pour alors accellérer les calculs de la reconstruction du nouveau disque ? si oui comment ?

Il suffit d'utiliser le matériel en mode hardware et non pass through.

Tu augment considérablement la sécurité :

- Automatisation de l'échange d'un disque par un spare

- Recréation de la parité bcp plus rapide

- Utilisation CPU proche de 0%

- L'ensemble des données sont tjrs accessible et ce manière plus que correct (temps d'accès et vitesse), en tout cas bcp plus qu'en mode software.

- Planification de patrol read (vérification des parités)

- Contrôleur raid avec batterie = sauvegarde des données même en cas de coupure impromptue, au prochain redémarrage la fin des données sera copié (pas d'erreur de donnée, ou grandement diminué)

Je pourrais continuer en cherchant mais j'ai la flemme :D

sur le site de LSI les spécifications de la carte SAS 9211-8i HBA n'a que 8 ports. Comment est il alors possible de brancher 32 disques durs ?

Qu'est ce qu'une carte "expander" et de quels cables s'agit il ?

Merci @ tous et désolé pour mon ignorance.

C'est un switch comme en réseau (grossièrement).

Ça donne :

|=> 4x slots

Carte raid => Expander ==|=> 4x slots

|=> 4x slots

|=> 4x slots

...

Lien vers le commentaire
Partager sur d’autres sites

Avec le RaidZ par contre, impossible d'ajouter un DD à la grappe créée comme on peut le faire pour du Raid5/6... Ca m'a refroidi d'y passer car je savais que je n'aurais pas tout les disques nécessaires dès le début.

Quant aux "LackRack", j'aurais vraiment la frousse... le boitier avec 24 DDs, ça pèse son poids la bête. Les exemples sur les photos, ce sont des trucs légers, à part le 3216 à la fin, avec 24 DD, c'est presque 8kg de plus... J'aurais vraiment trop peur de l'entendre se crasher par terre le NAS...

Lien vers le commentaire
Partager sur d’autres sites

Voici ce que Foetus dit :

Ce n'est pas un problème d'avoir peu de ports: Avec la LSI SAS 9211-8i HBA tu peux brancher 32 disques durs.

Tu crois que tu fais comment avec seulement 8 ports? :p

Il faut acheter des cartes expander avec les bons câbles

sur le site de LSI les spécifications de la carte SAS 9211-8i HBA n'a que 8 ports. Comment est il alors possible de brancher 32 disques durs ?

Qu'est ce qu'une carte "expander" et de quels cables s'agit il ?

Merci @ tous et désolé pour mon ignorance.

Regardes la réponse de Mastash :windu:

Mais en gros tu vas rajouter une carte file PCI-Express (dite carte expander) qui va permettre d'avoir plus de ports

Et peut être qu'il y a des solutions externes.

Si je ne dis pas de bêtises: sur une carte un port interne gère au plus 4 disques durs.

Et regardes ce lien: les câbles SAS c'est la foire :ane:

Lien vers le commentaire
Partager sur d’autres sites

Hello à tous,

Je travaille depuis un moment avec du ZFS et en particulier avec la distrib Nexenta (18 TB max utiles en gratuit) (jamais testé l'implémentation ZFS de Freenas).

Faire du raidz n'est pas super, autant faire du Raidz2, surtout avec des disques Sata!

Ce qui limite les perfs, ce sont les composants de ton système.

Pour ce qui est des cartes raid hardware:

Si les perfs te conviennent => reste en ZFS

Si ça ne te convient pas et que tu as un peu de $$ => change de CPU, mets plus de RAM, ajoute des ssd pour le cache.

Derrière option, passe en raid hardware avec des perfs horribles!

Les histoire de raid qui ne se reconstruisent pas tout seul et tout ce qui va avec, c'est pour les cartes qui ne gèrent pas le JBOD, sinon, c'est exactement comme avec une carte qui fait du raid hardware. (flash IBM en LSI fonctionne très bien)

Aucune solution ne te permettra d'avoir les perfs du Raidz2 avec une solution à bas cout.

Avec des disques SAS 10/15k, je ne dépasse pas des sous groupes de 7 disques, donc pour 14 disques, en deux groupes, tu as 5+5 utiles et 2+2 de spare + un hotspare global si tu veux te couvrir.

Lien vers le commentaire
Partager sur d’autres sites

Merci @ tous pour vos observations.

En fait, je suis parfaitement conscient que pour ce qui est de la reconstruction d'un disque, perf et fonctionnement général il vaut beaucoup mieux prévillégier un fonctionnement de la carte "RAID" en mode HarWare. En effet, tout est alors géré au niveau de carte et non plus au niveau du proc.

MAIS

Moi je cherche à réaliser un NAS avec également une bonne vingtaine de disques SATA, et en plus je serai tenté par un mode RAIDZ1 ou RAIDZ2. Du coup, il n'est pas possible de gerer autrement le NAS que par un mode software puisque ces cartes d'extentions ne gerent que les mode RAID traditionnel en harware et non le RAIDZ.

Donc pour moi ces cartes dites "RAID" ne seraient pour moi que des vulgaires prises multiples me permettant de brancher un grand nombre de disques SATA. Si j'ai bien les réponses précédentes je crois que cela s'appelle le mode Host Bus Advance.

C'est pour cette raison que je m'interresse de trés près a ce genre de carte, même si je vais les "sous employer" car le RAIDZ ne peut être géré que par logiciel, et c'est à mon grand regret.

Du coup, au vu de toutes ces précisions, savez vous si il existerait une solution pour répondre à mes préoccupations ?

Merci @ tous.

Pour Hpact,

Je pense trés sincérement que le RAIDZ est la solution pour un NAS.

J'étais comme toi pour ce qui est de la possibilité de n epas pouvoir agrandir la grappe comme je voulais ou facilement. Mais, à force de me documenter, j'ai compris qu'il fallait oublier ce que je connaissais sur l'organisation des disque et le système de fichier basique (ext, NTFS, FAT,....)

Pour le ZFS il faut raisonner autrement. Tu peux faire évoluer ton stockage par au moins 2 solutions :

1 Tu échange tes disques existant par des disuqe de plus grande capacité. En le faisant un par un pour laisser le temps au NAS de reconstruire le nouveau disque.

2 il te suffit tout simplement de recréer un nouveau POOL. si il est recommandé de ne pas dépasser 9 disques par grappes, tu peux en revanche avoir autant de grappe que tu veux. Je te rappele que le ZFS est considéré comme n'ayant aucune limite en terme de capacité de stockage.

Bonne journée.

Lien vers le commentaire
Partager sur d’autres sites

Je suis bien conscient des divers avantages du ZFS.

Mais de ce que j'ai compris du ZFS, constituer des pools pour ajouter des DDs, signifie qu'à chaque fois, on "perd" un disque (au moins) de parité, n'est-ce pas? Ca implique donc d'acheter les disques par lot de 3 ou plus. Ca commence à faire pas mal de perte d'espace disque. Actuellement, j'ai 11 DD en raid6 dont un spare, soit 8 DD utiles. En respectant les 9 DD par "raidZ" en ZFS, il me faudrait 2 RaidZ2 au sein d'un pool, j'aurais donc 4 DDs de parités (RaidZ2), plus 2 de spare (1 dans chaque pool), soit seulement 6 DDs utiles... Outch!

Sur un Raid5/6 mdadm, l'ajout d'un disque se fait sans problème.

Sans compter l'espace mémoire nécessaire: 1Go de Ram par To de raid. En idéalisant, 24 DD de 3To => 72To, il faut 80To de ram... Et si on veut faire de la déduplication c'est x5 sur la RAM!

Bref, ZFS, ça ne semble pas encore fait pour moi.

Lien vers le commentaire
Partager sur d’autres sites

Je suis bien conscient des divers avantages du ZFS.

Mais de ce que j'ai compris du ZFS, constituer des pools pour ajouter des DDs, signifie qu'à chaque fois, on "perd" un disque (au moins) de parité, n'est-ce pas? Ca implique donc d'acheter les disques par lot de 3 ou plus. Ca commence à faire pas mal de perte d'espace disque. Actuellement, j'ai 11 DD en raid6 dont un spare, soit 8 DD utiles. En respectant les 9 DD par "raidZ" en ZFS, il me faudrait 2 RaidZ2 au sein d'un pool, j'aurais donc 4 DDs de parités (RaidZ2), plus 2 de spare (1 dans chaque pool), soit seulement 6 DDs utiles... Outch!

Sur un Raid5/6 mdadm, l'ajout d'un disque se fait sans problème.

Sans compter l'espace mémoire nécessaire: 1Go de Ram par To de raid. En idéalisant, 24 DD de 3To => 72To, il faut 80To de ram... Et si on veut faire de la déduplication c'est x5 sur la RAM!

Bref, ZFS, ça ne semble pas encore fait pour moi.

Chaque disque de parité est une sécurité supplémentaire je dirais.

D'apres la doc oracle, ZFS a les meilleurs perf si on a un nombre en puissance de 2 + disque de parités, exemple :

RAIDZ : 3, 5, ou 9 disques

RAIDZ2 : 4, 6, ou 10 disques

RAIDZ3 : 5, 7, 11 disques

Actuellement j'ai deux RaidZ1 de 3 disques.

Lien vers le commentaire
Partager sur d’autres sites

Je suis bien conscient des divers avantages du ZFS.

Mais de ce que j'ai compris du ZFS, constituer des pools pour ajouter des DDs, signifie qu'à chaque fois, on "perd" un disque (au moins) de parité, n'est-ce pas? Ca implique donc d'acheter les disques par lot de 3 ou plus. Ca commence à faire pas mal de perte d'espace disque. Actuellement, j'ai 11 DD en raid6 dont un spare, soit 8 DD utiles. En respectant les 9 DD par "raidZ" en ZFS, il me faudrait 2 RaidZ2 au sein d'un pool, j'aurais donc 4 DDs de parités (RaidZ2), plus 2 de spare (1 dans chaque pool), soit seulement 6 DDs utiles... Outch!

Sur un Raid5/6 mdadm, l'ajout d'un disque se fait sans problème.

Sans compter l'espace mémoire nécessaire: 1Go de Ram par To de raid. En idéalisant, 24 DD de 3To => 72To, il faut 80To de ram... Et si on veut faire de la déduplication c'est x5 sur la RAM!

Bref, ZFS, ça ne semble pas encore fait pour moi.

Chaque disque de parité est une sécurité supplémentaire je dirais.

D'où les guillemets autour de "perd" ;)

Ce que je veux dire par là, c'est que si on veut ajouter 6To, il faut en acheter 9 ou 12, ce n'est pas le même budget. Car je n'imagine pas un minimum de sécurité sur de telles capacités (en plus du backup bien sûr).

Lien vers le commentaire
Partager sur d’autres sites

Bonsoir @ tous,

Le RAID classique et le RAIDZ ont chacun d'entre eux leurs défauts mais aussi leurs avantages. Et encore, nous n'avons pas parler du système de fichier BrtFS !!!

Il ne faut pas oublié aussi, que lorsque l'on a choisir entre l'un et l'autre, c'est aussi parce que l'on recherche une certaines sécurité de nos chers, trés chers données.

Lorsque qu'on opte pour du RAID classique il ya aussi le problème de la reconstructions. Si il s'agit d'un RAID pris en charge au niveau hardware, les perf sont excellentes MAIS si la carte RAID rend l'âme et qu'elle n'est plus fabriqué. Alors il sera impossible de récupérer ses données. En effet, il me semble que si la carte n'est pas remplacé par une autre rigoureusement identique, alors adieu la récup des données.

Ce problème n'existe pas lorsque le mode RAID est gérer de manière logiciel. D'autant plus pour le RAIDZ 1 2 3, puisqu'il existe aucune carte RAID qui fasse du RAIDZ, le RAIDZ est obligatoirement logiciel.

Mis à part cela, l'aspet sécuritaire aurait tendance à préconiser le RAIDZ, mais en contre partie il est vrai qu'il est plus gourmant en disques....

A chacun de se poser la/les bonne(s) question(s).

C'est un peu comme lorsque l'on veut se lancer dans la fabrication d'un NAS maison. Hors mis le coté matériel, il est une question pour lasquelle ont à souvent beaucoup de de mal à répondre.

Quel logiciel / OS utiliser ? OpenMediaVault ? FreeNas ? Nas4Free ? Openfiler ?

Bonne soirée @ tous.

Lien vers le commentaire
Partager sur d’autres sites

Alors j'ai longuement recherche le sujet et voila ce que j'en ai compris :

la carte LSI que j'utilise est capable d'utiliser deux mode de gestion pour les disques

-> IR "integrated RAID" qui est le mode habituel afin que la carte soit capable de gerer un mode raid hardware.

-> IT "intiator Targer" qui un mode ou la carte n'a aucune capacite RAID et ne sert que de HBA "host bus adapter", ce qui fait que les port sata dessus sont comme des ports de la carte mere, c'est en general le mode des cartes SATA bas de gamme.

Avec ZFS et mon système, on veut que le firmware de la carte soit en mode IT, puisque j'en ai strictement rien a secouer d'un raid matériel, mais pour cela il faut que je flash ma carte LSI, ce que je n'ai pas encore fait pour cause d'un cas aigu de flemme.

http://brycv.com/blog/2012/flashing-it-firmware-to-lsi-sas9211-8i/

Il faudrait que je repackage le tout avec le dernier firmware de la carte

Tu trouveras facilement des carte SAS IBM M1015 sur ebay a pas cher (notamment au States).

C'est meme moins cher de les commander la bas (malgre les eventuelles frais de douane), que de les acheter en europe.

Ensuite tu flash avec le bios IT et l'affaire et joué.

Sinon pour la gestion du nas il y a aussi : http://napp-it.org/manuals/to-go_en.html

Parait que cest plus stable que des freenas et consore.

J'ai un ami qui a eu un probleme de corruption de données avec FREENAS !

Pour ce qui me concerne, j'ai commencé a faire mumuse il y a quelques mois avec un "petit" NAS sur un HP Proliant Microserver

Pour l'instant ca tourne sous OpenIndiana + Napp-it

6 disques de 3 To (raidz2 + 1 spare)

Ideale pour un NAS de secours ;)

A présent, j'envisage de me lancer dans un gros projet comme toi. Pour l'insant je n'ai que des cartes SAS IBM M1015 (bios IT) et un boitier comme le tient :chinois:

Pour le reste, je dois faire le tour du net, et casser ma tire lire.

J'hesite encore entre un Xeon 2 core comme toi, ou avec 4 core

Pour ma part, je compte faire de la virtualisation via ESXi (limitation RAM 32Go pour la licence gratuite) pour y faire tourner plusieurs machine (dont le NAS).

Sinon pour ta config, je dis chapeau bas.

Le materiel est bien homogene (alim peut etre un peu juste si on prend en compte l'ajoute de quelques disque dans le futur)

En revanche, je trouve domage d'utiliser ton server que pour du stockage.

Le virtualiser te permettrait de pouvoir utiliser la machine pour d'autres serveurs supplementaires.

Lien vers le commentaire
Partager sur d’autres sites

Alors j'ai longuement recherche le sujet et voila ce que j'en ai compris :

la carte LSI que j'utilise est capable d'utiliser deux mode de gestion pour les disques

-> IR "integrated RAID" qui est le mode habituel afin que la carte soit capable de gerer un mode raid hardware.

-> IT "intiator Targer" qui un mode ou la carte n'a aucune capacite RAID et ne sert que de HBA "host bus adapter", ce qui fait que les port sata dessus sont comme des ports de la carte mere, c'est en general le mode des cartes SATA bas de gamme.

Avec ZFS et mon système, on veut que le firmware de la carte soit en mode IT, puisque j'en ai strictement rien a secouer d'un raid matériel, mais pour cela il faut que je flash ma carte LSI, ce que je n'ai pas encore fait pour cause d'un cas aigu de flemme.

http://brycv.com/blog/2012/flashing-it-firmware-to-lsi-sas9211-8i/

Il faudrait que je repackage le tout avec le dernier firmware de la carte

Tu trouveras facilement des carte SAS IBM M1015 sur ebay a pas cher (notamment au States).

C'est meme moins cher de les commander la bas (malgre les eventuelles frais de douane), que de les acheter en europe.

Ensuite tu flash avec le bios IT et l'affaire et joué.

Sinon pour la gestion du nas il y a aussi : http://napp-it.org/manuals/to-go_en.html

Parait que cest plus stable que des freenas et consore.

J'ai un ami qui a eu un probleme de corruption de données avec FREENAS !

Pour ce qui me concerne, j'ai commencé a faire mumuse il y a quelques mois avec un "petit" NAS sur un HP Proliant Microserver

Pour l'instant ca tourne sous OpenIndiana + Napp-it

6 disques de 3 To (raidz2 + 1 spare)

Ideale pour un NAS de secours ;)

A présent, j'envisage de me lancer dans un gros projet comme toi. Pour l'insant je n'ai que des cartes SAS IBM M1015 (bios IT) et un boitier comme le tient :chinois:

Pour le reste, je dois faire le tour du net, et casser ma tire lire.

J'hesite encore entre un Xeon 2 core comme toi, ou avec 4 core

Pour ma part, je compte faire de la virtualisation via ESXi (limitation RAM 32Go pour la licence gratuite) pour y faire tourner plusieurs machine (dont le NAS).

Sinon pour ta config, je dis chapeau bas.

Le materiel est bien homogene (alim peut etre un peu juste si on prend en compte l'ajoute de quelques disque dans le futur)

En revanche, je trouve domage d'utiliser ton server que pour du stockage.

Le virtualiser te permettrait de pouvoir utiliser la machine pour d'autres serveurs supplementaires.

J'ai eu un mal de chien a me procurer le Xeon 1220Lv2, qui n'est pas normalement disponible a la ventre puisqu'OEM uniquement, mais il a l'avantage de repondre parfaitement a mes besoins -> un TDP de 17w et est capable d'encaisser tout ce que je lui ai balance jusqu'a maintenant.

Pour l'alim, on m'a fait la remarque dans les commentaires de la news, en terme de wattages (env 200w tout au max) ca passe tranquille, tout depend de combiens le 12v et 5v est capable de fournir pour alimenter le tout :

Grosso modo mon alim fournit 20A sur le 5V + 38A sur le 12V (donnée extrait du site SeaSonic) et les WD consomme au maximum 8.4w [0.6A sur le 5v bus et 0.45a sur 12v] x24, donc on reste dans les marges de mon alim.

J'aurais pris des disques plus gourmand (non Green/Red), ça ne serai pas passe.

Pour la virtualisation, c'est un autre projet que j'ai dans mes cartons -> même idée, pas trop cher(encore dans la tranche 1000-1500$), puissant et silencieux comme pas deux (j'aime le silence).

Mais c'est pas urgent, donc ça viendra après que j'ai acheter un peu plus d’équipement a racker -> j'ai un onduleur et de la ram (pour monter a 32Go, comme ça, ça sera fait) qui devraient arriver d'ici mercredi et j'ai commence ma recherche pour un petit cabinet a serveur 15-16U (histoire d'avoir un peu de place) pas trop cher que je vais insonoriser du mieux que je peux.

Lien vers le commentaire
Partager sur d’autres sites

De mon EXP:

Ne jamais dépasser les 8 disques sur du raid hardware et des disques Sata, surtout en raid5. Avec une IBM DS-4700 et 8*1TB, ça met dans les 48h la reconstruction.

Tu as de fortes chances de péter un deuxième disque suite au bourrinage d'IOPS lié à la reconstruction.

C'est donc pareil en ZFS ou en hard, tu peux prendre le risque de mettre plus de disques dans une grappe unique, ou sinon découper en plusieurs grappes identiques.

Il n'y a donc pas de perte de volume spécialement liée au ZFS.

Ce que permet de faire le ZFS, c'est d'agréger ces grappes, mais il vaut mieux qu'elles soient identiques, sinon, tu limites aux perfs de la plus faible.

Pour ce qui est du temps de reconstruction, contrairement aux raids hard, ZFS ne reconstruit que les données présentes, ce qui dans le cas de disques pas trop remplis est plutôt rapide.

Tous les tests que j'ai pu faire avec du raid6 hardware, les perfs sont horribles, alors qu'avec du raidz2, je tape tranquille les 100.000 IOPS, le 10G en lecture et dans les 700MB en écriture sur un serveur 2U :iloveyou:

Je n'ai jamais vu ce genre de perfs avec des raid hard, sauf à remplir des baies de 42U et de faire un énorme chèque.

Bref, ZFS au pouvoir!!

@plusplus57: Pas testé napp-it, juste Nexenta, pour quoi avoir pris OpenIndiana plutôt que les autres distrib?

Je déconseille aussi Freenas + ZFS => ZFS = Solaris.

Freenas fait un portage de la techno qui est assez complexe, autant prendre à la source.

Lien vers le commentaire
Partager sur d’autres sites

Je déconseille aussi Freenas + ZFS => ZFS = Solaris.

Freenas fait un portage de la techno qui est assez complexe, autant prendre à la source.

Je dois avouer que je n'ai jamais vraiment porte Solaris dans mon cœur, entre mes séances de compilations cross-plateforme linux/solaris qui ressemblait plus a une scène des pire moments du débarquement et le jour ou Oracle a mis un doigt a la communauté open-source en tuant OpenSolaris.

Mais c'est surtout que j'ai pris ce que je connaissais, FreeBSD (et donc FreeNAS pour une distrib spe NAS). Enfin ça marche c'est ce qui est important pour moi ^^

Lien vers le commentaire
Partager sur d’autres sites

De mon EXP:

Ne jamais dépasser les 8 disques sur du raid hardware et des disques Sata, surtout en raid5. Avec une IBM DS-4700 et 8*1TB, ça met dans les 48h la reconstruction.

Je viens tout juste d'étendre mon raid6 logiciel de 9x3To à 10x3To (+1 spare en plus): 27h de reconstruction.

Lien vers le commentaire
Partager sur d’autres sites

Bonjour à vous tous.

Tout d'abord, toutes mes félicitations à Kernelcoffee, le NAS que tu as monté est magnifique.

Seulement, j'aurais tout de même quelques questions:

Comment comptes-tu rajouter des DD. Car, d'après mes maigres connaissances en Raid, on ne peut rajouter un DD dans un RaidZ. Il faut du coup créer un nouveau volume. Un peu gênant du coup si tu as prévu augmenter en fonction de tes économies (un disque par ci, par là).

Lien vers le commentaire
Partager sur d’autres sites

Bonjour à vous tous.

Tout d'abord, toutes mes félicitations à Kernelcoffee, le NAS que tu as monté est magnifique.

Seulement, j'aurais tout de même quelques questions:

Comment comptes-tu rajouter des DD. Car, d'après mes maigres connaissances en Raid, on ne peut rajouter un DD dans un RaidZ. Il faut du coup créer un nouveau volume. Un peu gênant du coup si tu as prévu augmenter en fonction de tes économies (un disque par ci, par là).

Pour l'instant je crée un volume supplémentaire. (j'ai rajoute 3 disques pour avoir un 2e Raidz1 sur 2 volumes).

Sinon j’achète les disques en avance en prévision (genre un ou deux par mois) du prochain raid. (patience !)

On ne peut pas rajouter des disques a un raidz seulement les remplacer par des modèles plus gros afin d'augmenter la taille volume, mais on peut rajouter des raidz a un zpool. enfin ca c'est ce qui est marque sur la notice, faut que je mette ça en pratique.

Lien vers le commentaire
Partager sur d’autres sites

 

De mon EXP:

Ne jamais dépasser les 8 disques sur du raid hardware et des disques Sata, surtout en raid5. Avec une IBM DS-4700 et 8*1TB, ça met dans les 48h la reconstruction.

Je viens tout juste d'étendre mon raid6 logiciel de 9x3To à 10x3To (+1 spare en plus): 27h de reconstruction.

 

Intéressant! En fait, je n'ai jamais pu tester sur une baie qui n'est pas en production, donc avec un temps de reconstruction ralenti.

Tu peux préciser ce que tu as niveau hardware?

[Désolé pour le HS]

Lien vers le commentaire
Partager sur d’autres sites

Une petit question bassement matériel à KernelCoffee.

Si j'ai bien compris tu habite aux states.

Est-ce que tu peux nous donner quelques sites internet de chez toi qui vendent à l'internationnal des disques dur pas trop chers ?

Histoire, non pas d'échapper à la TVA (quoique...) mais à la taxe sur la copie privé.

En effet, nous autres professionnels qui utilisons des ordinateurs pour le travail avont aussi besoin de capacité de stockage toujours plus important. Par exemple, moi je dirige une socièté dans le domaine de la domotique et nous en sommes déjà à environ 15To sur 18To installés de donnée. J'ai besoin rapidement d'augmenter notre capacité de stockage.

Mais, bien que le remboursement de la taxe sur copie privé soit prévu, il est impossible d'en bénéficier, car ils se retranchent troujours derrière des problèmes, juridicaux-fiscale-administratif. Bref, c'est impossible. Nous sommes donc tout simplement volé par les ayants droits.

Je parle en tout connaissance de cause car j'ai déposer un dossier de demande.

Si je me trompe pas et d'après mes souvenirs, il me semble que pour un disque dur interne 1To c'est une 40aine d'Euros......

Merci @ toi.

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...