Aller au contenu

[HELP] Raid 5 soft down


al_bebert

Messages recommandés

Bonjour à tous !

voila je possède un NAS sous openmediavault, j'ai un raid 5 soft (mdadm) de 4 disque 1 To plein à craquer.

hier j'ai voulu augmenter le raid par l'ajout d'un 5ème disque de 1To

sauf que l'opération de rebuild à planter (le nouveau disque a planter apparement)

je me retrouve avec un raid non fonctionnel car il manque 2 disk sur 5.. ils sont pourtant bien connectés et reconus par le système.

si il y a des experts de mdadm dans le coin...

Merci d'avance

Lien vers le commentaire
Partager sur d’autres sites

  • Réponses 67
  • Créé
  • Dernière réponse

je bosse dessu la j'ai réussit à remonter le raid avec un assume-clean

j'ai pu monter ma partition et voir mes donner.

sauf que 2 minutes après sdc est reparty en fault resync a 20Ko/s...

root@openmediavault:~# cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]

md127 : active raid5 sde[0] sdb[3] sdc[2](F) sdf[1]

2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/3] [uU_U_]

[=========>...........] reshape = 48.6% (475262976/976761344) finish=285201.3min speed=29K/sec

j'ai regarder les event le sda (disque ajouter au raid) était à la ramasse j'ai donc delete les superblock pour essayer de le remettre ds la grape sans succes le disque est donc hors de combat pour le raid ...

la le sync me vautre ma machine le cat proc répond plus ... (celui que je donnest est à l'instant t + 2minutes)

je me tate a faire un dd de sdc vers sda (à mon avis sdc est HS) pour ensuite réintégrer sda dans le raid et delete sdc

j'ai bon ou pas ?

Lien vers le commentaire
Partager sur d’autres sites

root@openmediavault:~# mdadm -D /dev/md127

/dev/md127:

Version : 1.2

Creation Time : Sat Jun 2 07:59:38 2012

Raid Level : raid5

Array Size : 2930284032 (2794.54 GiB 3000.61 GB)

Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)

Raid Devices : 5

Total Devices : 5

Persistence : Superblock is persistent

Update Time : Fri Nov 2 11:36:01 2012

State : clean, degraded

Active Devices : 4

Working Devices : 5

Failed Devices : 0

Spare Devices : 1

Layout : left-symmetric

Chunk Size : 512K

Delta Devices : 1, (4->5)

Name : openmediavault:RAID (local to host openmediavault)

UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3

Events : 32268

Number Major Minor RaidDevice State

0 8 64 0 active sync /dev/sde

1 8 80 1 active sync /dev/sdf

2 8 48 2 active sync /dev/sdd

3 8 32 3 active sync /dev/sdc

4 0 0 4 removed

5 8 0 - spare /dev/sda

question : comment delete le sdd et comment delete le "removed" ?

Lien vers le commentaire
Partager sur d’autres sites

root@openmediavault:~# mdadm -D /dev/md127

/dev/md127:

Version : 1.2

Creation Time : Sat Jun 2 07:59:38 2012

Raid Level : raid5

Array Size : 2930284032 (2794.54 GiB 3000.61 GB)

Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)

Raid Devices : 5

Total Devices : 5

Persistence : Superblock is persistent

Update Time : Fri Nov 2 15:09:25 2012

State : clean, degraded

Active Devices : 4

Working Devices : 5

Failed Devices : 0

Spare Devices : 1

Layout : left-symmetric

Chunk Size : 512K

Delta Devices : 1, (4->5)

Name : openmediavault:RAID (local to host openmediavault)

UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3

Events : 32306

Number Major Minor RaidDevice State

0 8 80 0 active sync /dev/sdf

1 8 96 1 active sync /dev/sdg

2 8 64 2 active sync /dev/sde

3 8 48 3 active sync /dev/sdd

4 0 0 4 removed

5 8 16 - spare /dev/sdb

root@openmediavault:~# mdadm --fail /dev/md127 /dev/sde

mdadm: set /dev/sde faulty in /dev/md127

root@openmediavault:~# mdadm -D /dev/md127

/dev/md127:

Version : 1.2

Creation Time : Sat Jun 2 07:59:38 2012

Raid Level : raid5

Array Size : 2930284032 (2794.54 GiB 3000.61 GB)

Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)

Raid Devices : 5

Total Devices : 5

Persistence : Superblock is persistent

Update Time : Fri Nov 2 18:51:47 2012

State : clean, FAILED

Active Devices : 3

Working Devices : 4

Failed Devices : 1

Spare Devices : 1

Layout : left-symmetric

Chunk Size : 512K

Delta Devices : 1, (4->5)

Name : openmediavault:RAID (local to host openmediavault)

UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3

Events : 32308

Number Major Minor RaidDevice State

0 8 80 0 active sync /dev/sdf

1 8 96 1 active sync /dev/sdg

2 8 64 2 faulty spare rebuilding /dev/sde

3 8 48 3 active sync /dev/sdd

4 0 0 4 removed

5 8 16 - spare /dev/sdb

root@openmediavault:~# cat /proc/mdstat

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [ra id10]

md127 : active raid5 sdf[0] sdb[5](S) sdd[3] sde[2](F) sdg[1]

2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/3] [uU_U_]

unused devices: <none>

le spare ne prend pas le relai :/

Lien vers le commentaire
Partager sur d’autres sites

Il faut retirer ton disque pour que le spare prenne le relai : "mdadm --remove /dev/md127 /dev/sde" J'ai dis une connerie, le spare prends le relais dès qu'il y a un disque de déclaré défectueux.

Hôte moi un doute par contre : lorsque tu montes md127, tu as toujours accès à tes données ? Et le sdb est bien ton nouveau disque dur ?

Lien vers le commentaire
Partager sur d’autres sites

Alors

j'ai plus accès à mes données car le raid tombe dès que je monte la partition (le disk HS)

le sdb est bien le nouveau disque.

le soucis c'est que quand le disk HS tombe il part en resync mais bloque a 48.6% le spare ne prend pas le relai

et je ne sais pas pourquoi :/

peut être à cause de "removed" que je n'arrive pas à suprimer

j'ai tenter un --fail /dev/sdd il tombe bien en fail /resync

mais le --remove /dev/sdd me dit que le disk est busy..

je commence à m'aracher les cheveux :(

Lien vers le commentaire
Partager sur d’autres sites

Tu ne peux pas supprimer removed car ça veut simplement dire qu'il manque un disque. C'est bien sde qui est HS ?

Si c'est ça ce que tu peux faire c'est :

# mdadm --stop /dev/md127# mdadm --assemble /dev/md127 /dev/sdf /dev/sdd /dev/sdg /dev/sdd

Et essayer de monter md127 comme ça. Normalement ça marche, sinon t'es dans la m**de.

Lien vers le commentaire
Partager sur d’autres sites

je peux pas monter le raid si j'ai pas 4 disques... il considère mon raid comme si il y avait 5 disques ...

pour le disque HS je peux pas te répondre en /dev/sdx car ça change à chaque reboot...

question pour déterminer qu'un disque appartient a la grape est spare ou pas il se base sur quoi ? le numéro de série ?

car je voulais tenter de faire un dd du disque HS sur le disque vide (qui est spare actuellement) et le monter à la place du disque HS

Lien vers le commentaire
Partager sur d’autres sites

Essaye déjà de débrancher le disque défectueux physiquement et d'assembler la grappe avec les disques restants. Parce que si le disque est foutu est que tu fait un dd, tu vas perdre les données sur les deux disques. Et là, c'est fini.

Sinon ce que tu peux tenter c'est faire une recherche de secteurs défectueux avec loformat pour tenter de réparer le disque sans perdre de données.

Si tout ça a échoué seulement tu pourras tenter un ddrescue pour copier ce qui peut l'être sur le nouveau disque.

Lien vers le commentaire
Partager sur d’autres sites

au pire des cas de toute façon je peux passer ddrescue après.. le dd n'est qu'une copie du disque.. (je refuse d'alterer mon disque moitier mort ^^)

à la limite si j'arrivais a monter le raid et la partition pour récup les photos une partie de la musique.. le reste un bon listage des fichiers me suffirat (et de nombreuse heures de téléchargement..^^)

Lien vers le commentaire
Partager sur d’autres sites

Disons que plus tu vas le faire tourner, plus tu vas avoir de chance qu'il rende l'âme complétement donc il aurait mieux fallut faire ddrescue tout de suite (c'est aussi une copie de disque - mais un peu plus poussée). Mais après comme c'est parti et bien maintenant il vaut mieux le laisser faire.

Si ça se trouve aussi c'est juste un secteur défectueux qui pose problème, dans ce cas il suffit de faire un analyse et c'est bon (d'où ma proposition de loformat).

Il n'y a plus qu'à croiser les doigts pour que ça marche.

Lien vers le commentaire
Partager sur d’autres sites

oui il est toujours la

root@openmediavault:/media/a0c2e321-a902-4e7b-9509-be7053b3a50a/DATA01# mdadm -D /dev/md127

/dev/md127:

Version : 1.2

Creation Time : Sat Jun 2 07:59:38 2012

Raid Level : raid5

Array Size : 3907045376 (3726.05 GiB 4000.81 GB)

Used Dev Size : 976761344 (931.51 GiB 1000.20 GB)

Raid Devices : 5

Total Devices : 4

Persistence : Superblock is persistent

Update Time : Sun Nov 4 10:36:28 2012

State : clean, degraded

Active Devices : 4

Working Devices : 4

Failed Devices : 0

Spare Devices : 0

Layout : left-symmetric

Chunk Size : 512K

Name : openmediavault:RAID (local to host openmediavault)

UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3

Events : 40354

Number Major Minor RaidDevice State

0 8 64 0 active sync /dev/sde

1 8 32 1 active sync /dev/sdc

2 8 16 2 active sync /dev/sdb

3 8 80 3 active sync /dev/sdf

4 0 0 4 removed

Lien vers le commentaire
Partager sur d’autres sites

root@openmediavault:~# df -h

Filesystem Size Used Avail Use% Mounted on

/dev/sdb1 73G 939M 68G 2% /

tmpfs 975M 0 975M 0% /lib/init/rw

udev 970M 168K 969M 1% /dev

tmpfs 975M 0 975M 0% /dev/shm

tmpfs 975M 0 975M 0% /tmp

/dev/sda1 187G 33G 145G 19% /media/eaab5aa2-9211-435b-8ac9-76e9a1719346

/dev/md127 2.7T 2.6T 12G 100% /media/a0c2e321-a902-4e7b-9509-be7053b3a50a

par "c'est bon" je voulais dire j'ai accès à mes données ^^ je sais que le raid est bancal

Lien vers le commentaire
Partager sur d’autres sites

Archivé

Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.


×
×
  • Créer...