al_bebert Posté(e) le 2 novembre 2012 Partager Posté(e) le 2 novembre 2012 Bonjour à tous ! voila je possède un NAS sous openmediavault, j'ai un raid 5 soft (mdadm) de 4 disque 1 To plein à craquer. hier j'ai voulu augmenter le raid par l'ajout d'un 5ème disque de 1To sauf que l'opération de rebuild à planter (le nouveau disque a planter apparement) je me retrouve avec un raid non fonctionnel car il manque 2 disk sur 5.. ils sont pourtant bien connectés et reconus par le système. si il y a des experts de mdadm dans le coin... Merci d'avance Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 2 novembre 2012 Partager Posté(e) le 2 novembre 2012 On peut avoir un "cat /proc/mdstat" ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 2 novembre 2012 Auteur Partager Posté(e) le 2 novembre 2012 je bosse dessu la j'ai réussit à remonter le raid avec un assume-clean j'ai pu monter ma partition et voir mes donner. sauf que 2 minutes après sdc est reparty en fault resync a 20Ko/s... root@openmediavault:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] md127 : active raid5 sde[0] sdb[3] sdc[2](F) sdf[1] 2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/3] [uU_U_] [=========>...........] reshape = 48.6% (475262976/976761344) finish=285201.3min speed=29K/sec j'ai regarder les event le sda (disque ajouter au raid) était à la ramasse j'ai donc delete les superblock pour essayer de le remettre ds la grape sans succes le disque est donc hors de combat pour le raid ... la le sync me vautre ma machine le cat proc répond plus ... (celui que je donnest est à l'instant t + 2minutes) je me tate a faire un dd de sdc vers sda (à mon avis sdc est HS) pour ensuite réintégrer sda dans le raid et delete sdc j'ai bon ou pas ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 2 novembre 2012 Partager Posté(e) le 2 novembre 2012 Je serais toi je mettrais le sda en spare et j'enlèverais sdc de la grappe. Je pense que le RAID va se reconstruire. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 2 novembre 2012 Auteur Partager Posté(e) le 2 novembre 2012 ok faut que je retrouve les commande mais la toutes mes intérogation mdadm ne répondent plus :/ Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 2 novembre 2012 Auteur Partager Posté(e) le 2 novembre 2012 root@openmediavault:~# mdadm -D /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sat Jun 2 07:59:38 2012 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent Update Time : Fri Nov 2 11:36:01 2012 State : clean, degraded Active Devices : 4 Working Devices : 5 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Delta Devices : 1, (4->5) Name : openmediavault:RAID (local to host openmediavault) UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3 Events : 32268 Number Major Minor RaidDevice State 0 8 64 0 active sync /dev/sde 1 8 80 1 active sync /dev/sdf 2 8 48 2 active sync /dev/sdd 3 8 32 3 active sync /dev/sdc 4 0 0 4 removed 5 8 0 - spare /dev/sda question : comment delete le sdd et comment delete le "removed" ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 2 novembre 2012 Auteur Partager Posté(e) le 2 novembre 2012 root@openmediavault:~# mdadm -D /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sat Jun 2 07:59:38 2012 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent Update Time : Fri Nov 2 15:09:25 2012 State : clean, degraded Active Devices : 4 Working Devices : 5 Failed Devices : 0 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Delta Devices : 1, (4->5) Name : openmediavault:RAID (local to host openmediavault) UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3 Events : 32306 Number Major Minor RaidDevice State 0 8 80 0 active sync /dev/sdf 1 8 96 1 active sync /dev/sdg 2 8 64 2 active sync /dev/sde 3 8 48 3 active sync /dev/sdd 4 0 0 4 removed 5 8 16 - spare /dev/sdb root@openmediavault:~# mdadm --fail /dev/md127 /dev/sde mdadm: set /dev/sde faulty in /dev/md127 root@openmediavault:~# mdadm -D /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sat Jun 2 07:59:38 2012 Raid Level : raid5 Array Size : 2930284032 (2794.54 GiB 3000.61 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 5 Total Devices : 5 Persistence : Superblock is persistent Update Time : Fri Nov 2 18:51:47 2012 State : clean, FAILED Active Devices : 3 Working Devices : 4 Failed Devices : 1 Spare Devices : 1 Layout : left-symmetric Chunk Size : 512K Delta Devices : 1, (4->5) Name : openmediavault:RAID (local to host openmediavault) UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3 Events : 32308 Number Major Minor RaidDevice State 0 8 80 0 active sync /dev/sdf 1 8 96 1 active sync /dev/sdg 2 8 64 2 faulty spare rebuilding /dev/sde 3 8 48 3 active sync /dev/sdd 4 0 0 4 removed 5 8 16 - spare /dev/sdb root@openmediavault:~# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [ra id10] md127 : active raid5 sdf[0] sdb[5](S) sdd[3] sde[2](F) sdg[1] 2930284032 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/3] [uU_U_] unused devices: <none> le spare ne prend pas le relai :/ Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 2 novembre 2012 Partager Posté(e) le 2 novembre 2012 Il faut retirer ton disque pour que le spare prenne le relai : "mdadm --remove /dev/md127 /dev/sde" J'ai dis une connerie, le spare prends le relais dès qu'il y a un disque de déclaré défectueux. Hôte moi un doute par contre : lorsque tu montes md127, tu as toujours accès à tes données ? Et le sdb est bien ton nouveau disque dur ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 Alors j'ai plus accès à mes données car le raid tombe dès que je monte la partition (le disk HS) le sdb est bien le nouveau disque. le soucis c'est que quand le disk HS tombe il part en resync mais bloque a 48.6% le spare ne prend pas le relai et je ne sais pas pourquoi :/ peut être à cause de "removed" que je n'arrive pas à suprimer j'ai tenter un --fail /dev/sdd il tombe bien en fail /resync mais le --remove /dev/sdd me dit que le disk est busy.. je commence à m'aracher les cheveux :( Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 3 novembre 2012 Partager Posté(e) le 3 novembre 2012 Tu ne peux pas supprimer removed car ça veut simplement dire qu'il manque un disque. C'est bien sde qui est HS ? Si c'est ça ce que tu peux faire c'est : # mdadm --stop /dev/md127# mdadm --assemble /dev/md127 /dev/sdf /dev/sdd /dev/sdg /dev/sdd Et essayer de monter md127 comme ça. Normalement ça marche, sinon t'es dans la m**de. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 je peux pas monter le raid si j'ai pas 4 disques... il considère mon raid comme si il y avait 5 disques ... pour le disque HS je peux pas te répondre en /dev/sdx car ça change à chaque reboot... question pour déterminer qu'un disque appartient a la grape est spare ou pas il se base sur quoi ? le numéro de série ? car je voulais tenter de faire un dd du disque HS sur le disque vide (qui est spare actuellement) et le monter à la place du disque HS Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 3 novembre 2012 Partager Posté(e) le 3 novembre 2012 Essaye déjà de débrancher le disque défectueux physiquement et d'assembler la grappe avec les disques restants. Parce que si le disque est foutu est que tu fait un dd, tu vas perdre les données sur les deux disques. Et là, c'est fini. Sinon ce que tu peux tenter c'est faire une recherche de secteurs défectueux avec loformat pour tenter de réparer le disque sans perdre de données. Si tout ça a échoué seulement tu pourras tenter un ddrescue pour copier ce qui peut l'être sur le nouveau disque. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 le dd est déja en cour ... de toute façon le nouveau disque était vide... j'attend la fin pour voir ce que ça donne Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 3 novembre 2012 Partager Posté(e) le 3 novembre 2012 Ah oui c'est vrai tu as effacé le superblock, désolé j'avais oublié. Bon bah tu vas voir mais un ddrescue aurais eu plus de chance de réussir. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 au pire des cas de toute façon je peux passer ddrescue après.. le dd n'est qu'une copie du disque.. (je refuse d'alterer mon disque moitier mort ^^) à la limite si j'arrivais a monter le raid et la partition pour récup les photos une partie de la musique.. le reste un bon listage des fichiers me suffirat (et de nombreuse heures de téléchargement..^^) Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 3 novembre 2012 Partager Posté(e) le 3 novembre 2012 Disons que plus tu vas le faire tourner, plus tu vas avoir de chance qu'il rende l'âme complétement donc il aurait mieux fallut faire ddrescue tout de suite (c'est aussi une copie de disque - mais un peu plus poussée). Mais après comme c'est parti et bien maintenant il vaut mieux le laisser faire. Si ça se trouve aussi c'est juste un secteur défectueux qui pose problème, dans ce cas il suffit de faire un analyse et c'est bon (d'où ma proposition de loformat). Il n'y a plus qu'à croiser les doigts pour que ça marche. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 ouaip le truc chiant c'est que des opération comme ça, c'est long.... très long... j'imagine même pas avec des disque de 3To... pour l'analyse vu les erreur smart que j'ai eu j'ai de gros doute mais je tenterais Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 3 novembre 2012 Partager Posté(e) le 3 novembre 2012 Il aurait aussi fallut optimiser le dd en testant différentes tailles de block. Mais comme j'ai dis, maintenant que c'est lancé... Pour info prévoit une bonne journée (oui, 24h). Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 3 novembre 2012 Auteur Partager Posté(e) le 3 novembre 2012 le dd à fonctionner :) bon dans OMV il m'indique que le raid est en rebuild le -D me dit que tout est clean ... mais j'ai un rsync de mes photos en cour sur un disque de backup :) Merci de ton aide dudul88 !!! Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 4 novembre 2012 Partager Posté(e) le 4 novembre 2012 Le "removed" est-il toujours là ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 4 novembre 2012 Auteur Partager Posté(e) le 4 novembre 2012 oui il est toujours la root@openmediavault:/media/a0c2e321-a902-4e7b-9509-be7053b3a50a/DATA01# mdadm -D /dev/md127 /dev/md127: Version : 1.2 Creation Time : Sat Jun 2 07:59:38 2012 Raid Level : raid5 Array Size : 3907045376 (3726.05 GiB 4000.81 GB) Used Dev Size : 976761344 (931.51 GiB 1000.20 GB) Raid Devices : 5 Total Devices : 4 Persistence : Superblock is persistent Update Time : Sun Nov 4 10:36:28 2012 State : clean, degraded Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 512K Name : openmediavault:RAID (local to host openmediavault) UUID : 04c071c4:310aad7a:a9c332e4:c9e7b1d3 Events : 40354 Number Major Minor RaidDevice State 0 8 64 0 active sync /dev/sde 1 8 32 1 active sync /dev/sdc 2 8 16 2 active sync /dev/sdb 3 8 80 3 active sync /dev/sdf 4 0 0 4 removed Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 4 novembre 2012 Partager Posté(e) le 4 novembre 2012 Alors ce n'est pas bon, il faut réduire le RAID à 4 disque. Lorsque la partition RAID est montée que dit df -h ? Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 4 novembre 2012 Auteur Partager Posté(e) le 4 novembre 2012 root@openmediavault:~# df -h Filesystem Size Used Avail Use% Mounted on /dev/sdb1 73G 939M 68G 2% / tmpfs 975M 0 975M 0% /lib/init/rw udev 970M 168K 969M 1% /dev tmpfs 975M 0 975M 0% /dev/shm tmpfs 975M 0 975M 0% /tmp /dev/sda1 187G 33G 145G 19% /media/eaab5aa2-9211-435b-8ac9-76e9a1719346 /dev/md127 2.7T 2.6T 12G 100% /media/a0c2e321-a902-4e7b-9509-be7053b3a50a par "c'est bon" je voulais dire j'ai accès à mes données ^^ je sais que le raid est bancal Lien vers le commentaire Partager sur d’autres sites More sharing options...
dudul88 Posté(e) le 4 novembre 2012 Partager Posté(e) le 4 novembre 2012 Ok, tu sauras le redimensionner ? Ce n'est pas évident et il risque d'y avoir des pertes de donnée. Lien vers le commentaire Partager sur d’autres sites More sharing options...
al_bebert Posté(e) le 4 novembre 2012 Auteur Partager Posté(e) le 4 novembre 2012 fonction grow -n 4 je pense ? je vais pas faire ça tout de suite, je vais renvoyé mon seagate en SAV avant je pense Lien vers le commentaire Partager sur d’autres sites More sharing options...
Messages recommandés
Archivé
Ce sujet est désormais archivé et ne peut plus recevoir de nouvelles réponses.