Jump to content

question sur MDADM et accessoirement sur SAMBA


Avygeil

Recommended Posts

Bonjour à tous !

Sur un serveur de fichier, sous XUbuntu 9.04, j'ai créé un array avec MDADM de 8 disques sata, le système est sur un disque IDE à part.

J'ai créé l'array en RAID 5 avec donc les devices sd[abcdefgh], formaté monté et tout marchait bien.

Ce matin je verifie le /dev/sda avec 'mdadm --examine /dev/sda' et il me sort un truc déconcertant :

/dev/sda:
	  Magic : a92b4efc
	Version : 00.90.00
	   UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop)
 Creation Time : Fri Oct  2 10:02:11 2009
 Raid Level : raid5
 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB)
 Array Size : 10255969472 (9780.85 GiB 10502.11 GB)
  Raid Devices : 8
 Total Devices : 7
Preferred Minor : 0

Update Time : Tue Oct 13 09:56:37 2009
	  State : active
Active Devices : 7
Working Devices : 7
Failed Devices : 1
 Spare Devices : 0
   Checksum : 5bbcd2da - correct
	 Events : 112097

	 Layout : left-symmetric
 Chunk Size : 64K

  Number   Major   Minor   RaidDevice State
this	 0	   8		0		0	  active sync   /dev/sda

  0	 0	   8		0		0	  active sync   /dev/sda
  1	 1	   8	   16		1	  active sync   /dev/sdb
  2	 2	   8	   32		2	  active sync   /dev/sdc
  3	 3	   8	   48		3	  active sync   /dev/sdd
  4	 4	   8	   64		4	  active sync   /dev/sde
  5	 5	   8	   80		5	  active sync   /dev/sdf
  6	 6	   8	   96		6	  active sync   /dev/sdg
  7	 7	   0		0		7	  faulty removed

Donc un array avec que 7 devices, et un faulty. J'en déduis que le devices /dev/sdh est HS, je l'examine :

/dev/sdh:
	  Magic : a92b4efc
	Version : 00.90.00
	   UUID : 73d5d6d9:c395152b:7c02f74c:1232c4b2 (local to host eve-desktop)
 Creation Time : Fri Oct  2 10:02:11 2009
 Raid Level : raid5
 Used Dev Size : 1465138496 (1397.26 GiB 1500.30 GB)
 Array Size : 10255969472 (9780.85 GiB 10502.11 GB)
  Raid Devices : 8
 Total Devices : 8
Preferred Minor : 0

Update Time : Fri Oct  2 10:57:35 2009
	  State : clean
Active Devices : 7
Working Devices : 8
Failed Devices : 1
 Spare Devices : 1
   Checksum : 5bacabd5 - correct
	 Events : 6

	 Layout : left-symmetric
 Chunk Size : 64K

  Number   Major   Minor   RaidDevice State
this	 8	   8	  112		8	  spare   /dev/sdh

  0	 0	   8		0		0	  active sync   /dev/sda
  1	 1	   8	   16		1	  active sync   /dev/sdb
  2	 2	   8	   32		2	  active sync   /dev/sdc
  3	 3	   8	   48		3	  active sync   /dev/sdd
  4	 4	   8	   64		4	  active sync   /dev/sde
  5	 5	   8	   80		5	  active sync   /dev/sdf
  6	 6	   8	   96		6	  active sync   /dev/sdg
  7	 7	   0		0		7	  faulty removed
  8	 8	   8	  112		8	  spare   /dev/sdh

Là il me trouve une array avec 8 disques et un faulty, je ne sais plus où donner de la tête.

Donc : c'est MDADM qui gère le RAID 5 comme ça ou ya bien un soucis quelque part ?

Problème annexe, l'array est monté sur un rep partagé sous SAMBA, mais les postes clients (Win XP) y accèdent assez lentement (réseau 1 Gb/s pourtant) et il n'est pas possible de connecter un lecteur réseau sur ce partage, uniquement de le voir sous le voisinage réseau. Une solution ?

[partage]
path = /partage
guest ok = no
public = yes
browseable = yes
writable = yes

Link to post
Share on other sites

je pense qu'effectivement le sdh est hs, et que du coup quand tu tentes d'accéder aux données, c'est lent car ils faut les régénérer avec la parité (quoi qu'apparemment c'est le disque h le spare qui est hs)

par contre, effectivement le comportement de mdadm avec le disque HS est assez étrange. Bon dans un sens j'ai jamais fait de raid5 avec, donc je peux pas vraiment dire si c 'est normal :transpi:

(deux trois trucs lus ici : http://forum.debian-fr.org/viewtopic.php?f...15&start=0)

Link to post
Share on other sites

Euhhhhh t'es bien sûr ?

Dans tous les systèmes RAID redondants comme le 5, 6, n ou même 3 et 4, les disques de spare ont toujorus été facultatifs.

Après ptet que MDADM attribue de lui même un disque comme en spare, mais explicitement dans la commande de création de l'array il faut spécifier s'il y a des disques de spare.

Link to post
Share on other sites
  • 2 weeks later...

Si il y a un disque en moins normalement il devrait afficher :

State : clean, degraded

Mis à part ça le diagnostic semble assez simple : il y a un disque qui à été sorti du RAID pour une raison ou une autre et qui est de nouveau disponible en réserve (capricieux ce disque).

Je souligne qu'il n'a plus de redondance donc si un autre disque tombe, ça va faire mal.

Pour ma part j'ai eu un RAID1 qui à lâché, le disque de répondait plus du tout.

Je l'ai sorti du RAID (option -f) et je l'ai remis (option -a) après avoir vérifié les câbles.

Après mon message était un peu différant et la config est plus modeste donc je ne peux pas être formel dans ton cas.

Remarque : sache qu'un reboot peut dans certains cas entrainer un problème sur les autres disques surtout lorsqu'il y en a plein et qu'ils tournent tout le temps.

Link to post
Share on other sites

Archived

This topic is now archived and is closed to further replies.

×
×
  • Create New...