Avygeil Posted October 13, 2009 Share Posted October 13, 2009 Bonjour à tous ! Sur un serveur de fichier, sous XUbuntu 9.04, j'ai créé un array avec MDADM de 8 disques sata, le système est sur un disque IDE à part. J'ai créé l'array en RAID 5 avec donc les devices sd[abcdefgh], formaté monté et tout marchait bien. Ce matin je verifie le /dev/sda avec 'mdadm --examine /dev/sda' et il me sort un truc déconcertant : /dev/sda: Magic : a92b4efc Version : 00.90.00 UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop) Creation Time : Fri Oct 2 10:02:11 2009 Raid Level : raid5 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB) Array Size : 10255969472 (9780.85 GiB 10502.11 GB) Raid Devices : 8 Total Devices : 7 Preferred Minor : 0 Update Time : Tue Oct 13 09:56:37 2009 State : active Active Devices : 7 Working Devices : 7 Failed Devices : 1 Spare Devices : 0 Checksum : 5bbcd2da - correct Events : 112097 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 0 8 0 0 active sync /dev/sda 0 0 8 0 0 active sync /dev/sda 1 1 8 16 1 active sync /dev/sdb 2 2 8 32 2 active sync /dev/sdc 3 3 8 48 3 active sync /dev/sdd 4 4 8 64 4 active sync /dev/sde 5 5 8 80 5 active sync /dev/sdf 6 6 8 96 6 active sync /dev/sdg 7 7 0 0 7 faulty removed Donc un array avec que 7 devices, et un faulty. J'en déduis que le devices /dev/sdh est HS, je l'examine : /dev/sdh: Magic : a92b4efc Version : 00.90.00 UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop) Creation Time : Fri Oct 2 10:02:11 2009 Raid Level : raid5 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB) Array Size : 10255969472 (9780.85 GiB 10502.11 GB) Raid Devices : 8 Total Devices : 8 Preferred Minor : 0 Update Time : Fri Oct 2 10:57:35 2009 State : clean Active Devices : 7 Working Devices : 8 Failed Devices : 1 Spare Devices : 1 Checksum : 5bacabd5 - correct Events : 6 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 8 8 112 8 spare /dev/sdh 0 0 8 0 0 active sync /dev/sda 1 1 8 16 1 active sync /dev/sdb 2 2 8 32 2 active sync /dev/sdc 3 3 8 48 3 active sync /dev/sdd 4 4 8 64 4 active sync /dev/sde 5 5 8 80 5 active sync /dev/sdf 6 6 8 96 6 active sync /dev/sdg 7 7 0 0 7 faulty removed 8 8 8 112 8 spare /dev/sdh Là il me trouve une array avec 8 disques et un faulty, je ne sais plus où donner de la tête. Donc : c'est MDADM qui gère le RAID 5 comme ça ou ya bien un soucis quelque part ? Problème annexe, l'array est monté sur un rep partagé sous SAMBA, mais les postes clients (Win XP) y accèdent assez lentement (réseau 1 Gb/s pourtant) et il n'est pas possible de connecter un lecteur réseau sur ce partage, uniquement de le voir sous le voisinage réseau. Une solution ? [partage] path = /partage guest ok = no public = yes browseable = yes writable = yes Link to comment Share on other sites More sharing options...
keneda212 Posted October 13, 2009 Share Posted October 13, 2009 Salut il te dit quoi dans le fichier /proc/mdstat (cat /proc/mdstat par exemple) ? Link to comment Share on other sites More sharing options...
Avygeil Posted October 13, 2009 Author Share Posted October 13, 2009 Je te recopies la ligne de /proc/mdstat : md_d0 : active raid5 sda[0] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] xxxx blocks level 5, 64K chunk, alorithm 2 [8/7] [UUUUUUU_] unused devices : <none> Link to comment Share on other sites More sharing options...
keneda212 Posted October 13, 2009 Share Posted October 13, 2009 je pense qu'effectivement le sdh est hs, et que du coup quand tu tentes d'accéder aux données, c'est lent car ils faut les régénérer avec la parité (quoi qu'apparemment c'est le disque h le spare qui est hs) par contre, effectivement le comportement de mdadm avec le disque HS est assez étrange. Bon dans un sens j'ai jamais fait de raid5 avec, donc je peux pas vraiment dire si c 'est normal (deux trois trucs lus ici : http://forum.debian-fr.org/viewtopic.php?f...15&start=0) Link to comment Share on other sites More sharing options...
Avygeil Posted October 13, 2009 Author Share Posted October 13, 2009 Ben que j'examine le sdh, il me le détecte comme un spare (bizarre d'ailleurs je l'avais pas spécifié à la construction du RAID), il ajoute juste une ligne sans disque avec un 'faulty removed'. Link to comment Share on other sites More sharing options...
fabien29200 Posted October 13, 2009 Share Posted October 13, 2009 Il y a obligatoirement un spare dans un RAID5. Link to comment Share on other sites More sharing options...
Avygeil Posted October 13, 2009 Author Share Posted October 13, 2009 Euhhhhh t'es bien sûr ? Dans tous les systèmes RAID redondants comme le 5, 6, n ou même 3 et 4, les disques de spare ont toujorus été facultatifs. Après ptet que MDADM attribue de lui même un disque comme en spare, mais explicitement dans la commande de création de l'array il faut spécifier s'il y a des disques de spare. Link to comment Share on other sites More sharing options...
fabien29200 Posted October 13, 2009 Share Posted October 13, 2009 Tu as raison j'ai confondu disque de parité et disque de spare En attendant, mdadm te donne tes informations plutôt incohérentes. Link to comment Share on other sites More sharing options...
RaphAstronome Posted October 24, 2009 Share Posted October 24, 2009 Si il y a un disque en moins normalement il devrait afficher : State : clean, degraded Mis à part ça le diagnostic semble assez simple : il y a un disque qui à été sorti du RAID pour une raison ou une autre et qui est de nouveau disponible en réserve (capricieux ce disque). Je souligne qu'il n'a plus de redondance donc si un autre disque tombe, ça va faire mal. Pour ma part j'ai eu un RAID1 qui à lâché, le disque de répondait plus du tout. Je l'ai sorti du RAID (option -f) et je l'ai remis (option -a) après avoir vérifié les câbles. Après mon message était un peu différant et la config est plus modeste donc je ne peux pas être formel dans ton cas. Remarque : sache qu'un reboot peut dans certains cas entrainer un problème sur les autres disques surtout lorsqu'il y en a plein et qu'ils tournent tout le temps. Link to comment Share on other sites More sharing options...
Recommended Posts
Archived
This topic is now archived and is closed to further replies.