October 13, 200916 yr Bonjour à tous ! Sur un serveur de fichier, sous XUbuntu 9.04, j'ai créé un array avec MDADM de 8 disques sata, le système est sur un disque IDE à part. J'ai créé l'array en RAID 5 avec donc les devices sd[abcdefgh], formaté monté et tout marchait bien. Ce matin je verifie le /dev/sda avec 'mdadm --examine /dev/sda' et il me sort un truc déconcertant : /dev/sda: Magic : a92b4efc Version : 00.90.00 UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop) Creation Time : Fri Oct 2 10:02:11 2009 Raid Level : raid5 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB) Array Size : 10255969472 (9780.85 GiB 10502.11 GB) Raid Devices : 8 Total Devices : 7 Preferred Minor : 0 Update Time : Tue Oct 13 09:56:37 2009 State : active Active Devices : 7 Working Devices : 7 Failed Devices : 1 Spare Devices : 0 Checksum : 5bbcd2da - correct Events : 112097 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 0 8 0 0 active sync /dev/sda 0 0 8 0 0 active sync /dev/sda 1 1 8 16 1 active sync /dev/sdb 2 2 8 32 2 active sync /dev/sdc 3 3 8 48 3 active sync /dev/sdd 4 4 8 64 4 active sync /dev/sde 5 5 8 80 5 active sync /dev/sdf 6 6 8 96 6 active sync /dev/sdg 7 7 0 0 7 faulty removed Donc un array avec que 7 devices, et un faulty. J'en déduis que le devices /dev/sdh est HS, je l'examine : /dev/sdh: Magic : a92b4efc Version : 00.90.00 UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop) Creation Time : Fri Oct 2 10:02:11 2009 Raid Level : raid5 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB) Array Size : 10255969472 (9780.85 GiB 10502.11 GB) Raid Devices : 8 Total Devices : 8 Preferred Minor : 0 Update Time : Fri Oct 2 10:57:35 2009 State : clean Active Devices : 7 Working Devices : 8 Failed Devices : 1 Spare Devices : 1 Checksum : 5bacabd5 - correct Events : 6 Layout : left-symmetric Chunk Size : 64K Number Major Minor RaidDevice State this 8 8 112 8 spare /dev/sdh 0 0 8 0 0 active sync /dev/sda 1 1 8 16 1 active sync /dev/sdb 2 2 8 32 2 active sync /dev/sdc 3 3 8 48 3 active sync /dev/sdd 4 4 8 64 4 active sync /dev/sde 5 5 8 80 5 active sync /dev/sdf 6 6 8 96 6 active sync /dev/sdg 7 7 0 0 7 faulty removed 8 8 8 112 8 spare /dev/sdh Là il me trouve une array avec 8 disques et un faulty, je ne sais plus où donner de la tête. Donc : c'est MDADM qui gère le RAID 5 comme ça ou ya bien un soucis quelque part ? Problème annexe, l'array est monté sur un rep partagé sous SAMBA, mais les postes clients (Win XP) y accèdent assez lentement (réseau 1 Gb/s pourtant) et il n'est pas possible de connecter un lecteur réseau sur ce partage, uniquement de le voir sous le voisinage réseau. Une solution ? [partage] path = /partage guest ok = no public = yes browseable = yes writable = yes
October 13, 200916 yr Salut il te dit quoi dans le fichier /proc/mdstat (cat /proc/mdstat par exemple) ?
October 13, 200916 yr Author Je te recopies la ligne de /proc/mdstat : md_d0 : active raid5 sda[0] sdg[6] sdf[5] sde[4] sdd[3] sdc[2] sdb[1] xxxx blocks level 5, 64K chunk, alorithm 2 [8/7] [UUUUUUU_] unused devices : <none>
October 13, 200916 yr je pense qu'effectivement le sdh est hs, et que du coup quand tu tentes d'accéder aux données, c'est lent car ils faut les régénérer avec la parité (quoi qu'apparemment c'est le disque h le spare qui est hs) par contre, effectivement le comportement de mdadm avec le disque HS est assez étrange. Bon dans un sens j'ai jamais fait de raid5 avec, donc je peux pas vraiment dire si c 'est normal (deux trois trucs lus ici : http://forum.debian-fr.org/viewtopic.php?f...15&start=0)
October 13, 200916 yr Author Ben que j'examine le sdh, il me le détecte comme un spare (bizarre d'ailleurs je l'avais pas spécifié à la construction du RAID), il ajoute juste une ligne sans disque avec un 'faulty removed'.
October 13, 200916 yr Author Euhhhhh t'es bien sûr ? Dans tous les systèmes RAID redondants comme le 5, 6, n ou même 3 et 4, les disques de spare ont toujorus été facultatifs. Après ptet que MDADM attribue de lui même un disque comme en spare, mais explicitement dans la commande de création de l'array il faut spécifier s'il y a des disques de spare.
October 13, 200916 yr Tu as raison j'ai confondu disque de parité et disque de spare En attendant, mdadm te donne tes informations plutôt incohérentes.
October 24, 200916 yr Si il y a un disque en moins normalement il devrait afficher : State : clean, degraded Mis à part ça le diagnostic semble assez simple : il y a un disque qui à été sorti du RAID pour une raison ou une autre et qui est de nouveau disponible en réserve (capricieux ce disque). Je souligne qu'il n'a plus de redondance donc si un autre disque tombe, ça va faire mal. Pour ma part j'ai eu un RAID1 qui à lâché, le disque de répondait plus du tout. Je l'ai sorti du RAID (option -f) et je l'ai remis (option -a) après avoir vérifié les câbles. Après mon message était un peu différant et la config est plus modeste donc je ne peux pas être formel dans ton cas. Remarque : sache qu'un reboot peut dans certains cas entrainer un problème sur les autres disques surtout lorsqu'il y en a plein et qu'ils tournent tout le temps.
Archived
This topic is now archived and is closed to further replies.