Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
Par avance merci de votre aide.
Etienne
Le 29/08/2024 à 12:28, p2ssvp@gmail.com a écrit :
Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
La configuration de ton RAID n'a pas été enregistrée, dans le fichier "/etc/mdadm/mdadm.conf", tu devrais avoir une ligne : ARRAY /dev/md/0 metadata=1.2 UUID=...
Utilises les options --query et/ou --examine sur tes disques pour voir si les superbloc ont bien été enregistrés. Dans ce cas tu pourras récupérer ton RAID.
Par avance merci de votre aide.
Etienne
Liste de diffusion du %(real_name)s http://www.frsag.org/
Merci pour les réponses.
Je n'ai pas l'impression que les superblocs aient été enregistrés.
# mdadm --query /dev/sd[a-d] /dev/sda: is not an md array /dev/sdb: is not an md array /dev/sdc: is not an md array
# mdadm --examine /dev/sd[a-d] /dev/sda: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdb: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdc: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdd: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee)
L'assemblage ne fonctionne pas non plus :
# mdadm --assemble /dev/md0 /dev/sd[a-d] mdadm: Cannot assemble mbr metadata on /dev/sda mdadm: /dev/sda has no superblock - assembly aborted
Je n'arrive pas à comprendre, c'est comme si le raid n'avait jamais existé. Comment est-ce possible sur un simple redémarrage ? Pourquoi les superblocs sont absents ?
Le jeu. 29 août 2024 à 14:06, Frédéric MASSOT via FRsAG frsag@frsag.org a écrit :
Le 29/08/2024 à 12:28, p2ssvp@gmail.com a écrit :
Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
La configuration de ton RAID n'a pas été enregistrée, dans le fichier "/etc/mdadm/mdadm.conf", tu devrais avoir une ligne : ARRAY /dev/md/0 metadata=1.2 UUID=...
Utilises les options --query et/ou --examine sur tes disques pour voir si les superbloc ont bien été enregistrés. Dans ce cas tu pourras récupérer ton RAID.
Par avance merci de votre aide.
Etienne
Liste de diffusion du %(real_name)s http://www.frsag.org/
--
| FRÉDÉRIC MASSOT | | https://www.juliana-multimedia.com | | mailto:frederic@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===========================Debian=GNU/Linux===
Liste de diffusion du %(real_name)s http://www.frsag.org/
Tu trouves la création de ton raid dans ton bash_history ? On sait jamais que ce soit pas la même machine.
Le jeu. 29 août 2024 à 14:48, p2ssvp@gmail.com a écrit :
Merci pour les réponses.
Je n'ai pas l'impression que les superblocs aient été enregistrés.
# mdadm --query /dev/sd[a-d] /dev/sda: is not an md array /dev/sdb: is not an md array /dev/sdc: is not an md array
# mdadm --examine /dev/sd[a-d] /dev/sda: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdb: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdc: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee) /dev/sdd: MBR Magic : aa55 Partition[0] : 4294967295 sectors at 1 (type ee)
L'assemblage ne fonctionne pas non plus :
# mdadm --assemble /dev/md0 /dev/sd[a-d] mdadm: Cannot assemble mbr metadata on /dev/sda mdadm: /dev/sda has no superblock - assembly aborted
Je n'arrive pas à comprendre, c'est comme si le raid n'avait jamais existé. Comment est-ce possible sur un simple redémarrage ? Pourquoi les superblocs sont absents ?
Le jeu. 29 août 2024 à 14:06, Frédéric MASSOT via FRsAG frsag@frsag.org a écrit :
Le 29/08/2024 à 12:28, p2ssvp@gmail.com a écrit :
Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to
scan,
using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
La configuration de ton RAID n'a pas été enregistrée, dans le fichier "/etc/mdadm/mdadm.conf", tu devrais avoir une ligne : ARRAY /dev/md/0 metadata=1.2 UUID=...
Utilises les options --query et/ou --examine sur tes disques pour voir si les superbloc ont bien été enregistrés. Dans ce cas tu pourras récupérer ton RAID.
Par avance merci de votre aide.
Etienne
Liste de diffusion du %(real_name)s http://www.frsag.org/
--
| FRÉDÉRIC MASSOT | | https://www.juliana-multimedia.com | | mailto:frederic@juliana-multimedia.com | | +33.(0)2.97.54.77.94 +33.(0)6.67.19.95.69 | ===========================Debian=GNU/Linux===
Liste de diffusion du %(real_name)s http://www.frsag.org/
Liste de diffusion du %(real_name)s http://www.frsag.org/
Hello
commence par réassembler le raid
mdadm --assemble /dev/md0 --level=10 /dev/sd[a-d]
ensuite, tu as loupé 2 choses. après ta création, tu n'a pas mis les infos dans le mdadm.com mdadm --detail --scan >> /etc/mdadm/mdadm.conf et tu n'a pas update l'initramfs après avoir créé le RAID : update-initramfs -u
cheers
Le 29/08/2024 à 12:28, p2ssvp@gmail.com a écrit :
Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
Par avance merci de votre aide.
Etienne
Liste de diffusion du %(real_name)s http://www.frsag.org/
Le 29/08/2024 à 12:28, p2ssvp@gmail.com a écrit :
Bonjour,
Sur une debian 10, j'ai créé un raid sur 4 disques avec la commande suivante : mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[a-d]
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
J'ai semble-t-il perdu mon raid après un reboot.
# cat /proc/mdstat Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none>
# mdadm --detail --scan ne retourne rien
# mdadm --detail /dev/md0 mdadm: cannot open /dev/md0: No such file or directory
# mdadm --assemble /dev/md0 mdadm: /dev/md0 not identified in config file.
# cat /etc/mdadm/mdadm.conf # mdadm.conf # # !NB! Run update-initramfs -u after updating this file. # !NB! This will ensure that initramfs has an uptodate copy. # # Please refer to mdadm.conf(5) for information about this file. # # by default (built-in), scan all partitions (/proc/partitions) and all # containers for MD superblocks. alternatively, specify devices to scan, using # wildcards if desired. #DEVICE partitions containers # automatically tag new arrays as belonging to the local system HOMEHOST <system> # instruct the monitoring daemon where to send mail alerts MAILADDR root # definitions of existing MD arrays # This configuration was auto-generated on Thu, 30 Apr 2020 00:02:35 +0000 by mkconf
Qu'est ce que j'ai loupé ?
Par avance merci de votre aide.
Etienne
Liste de diffusion du %(real_name)s http://www.frsag.org/
Hello,
On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote:
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
Tu peux développer ?
"Kevin Decherf" kevin@kdecherf.com wrote on 29/08/2024 at 14:32:15+0200:
Hello,
On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote:
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
Tu peux développer ?
Quand tu utilises le disque entier, tu soumets ta capacité de changement au fait que le disque de remplacement ait *exactement* le même nombre d'octets de capacité.
Avec des partitions, tu peux gérer en cas de remplacement si tu as un problème d'exactitude du genre. Avec des blocs entiers tu dois refaire le raid, et donc en extraire les données avant.
Si tu veux des détails, je suis sûr qu'une petite recherche en ligne contiendra une formulation plus verbeuse et complète.
Bonjour,
On Thu, Aug 29, 2024 at 02:51:35PM +0200, Pierre-Elliott Bécue wrote:
"Kevin Decherf" kevin@kdecherf.com wrote on 29/08/2024 at 14:32:15+0200:
On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote:
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
Tu peux développer ?
Quand tu utilises le disque entier, tu soumets ta capacité de changement au fait que le disque de remplacement ait *exactement* le même nombre d'octets de capacité.
Pas tout à fait, exactement ou plus.
Sylvain
Sylvain Rochet gradator@gradator.net wrote on 29/08/2024 at 14:56:41+0200:
Bonjour,
On Thu, Aug 29, 2024 at 02:51:35PM +0200, Pierre-Elliott Bécue wrote:
"Kevin Decherf" kevin@kdecherf.com wrote on 29/08/2024 at 14:32:15+0200:
On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote:
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
Tu peux développer ?
Quand tu utilises le disque entier, tu soumets ta capacité de changement au fait que le disque de remplacement ait *exactement* le même nombre d'octets de capacité.
Pas tout à fait, exactement ou plus.
En fait cet "exactement" était un "au moins". Aucune idée de comment j'ai screw ma formulation.
Le 29/08/2024 à 14:32, Kevin Decherf a écrit :
Hello,
On Thu, Aug 29, 2024, at 14:27, Frédéric MASSOT via FRsAG wrote:
Autre chose, il est conseillé d'utiliser une partition (même si elle utilise le disque entier) plutôt que le disque. Ça facilite le changement de disque.
Tu peux développer ?
Quand on change un disque, ce n'est pas nécessairement par le même modèle, ni par la même marque. La taille ne sera pas exactement la même.
Avec une partition, tu définie explicitement la taille du nouvel élément que tu vas ajouter. La partition ajoutée aura la même taille que les autres de la grappe RAID.
Avec les SSD, la partition permet de faire de l'overprovisioning.
Il y a un fil de discussion assez ancien qui parle de certain problème d'utiliser un disque entier, dont des cartes mères qui font sauter les superbloc s'il n'y a pas de partition :
https://unix.stackexchange.com/questions/320103/whats-the-difference-between...
J'ai finalement pu récupérer mes données en récréant le raid avec l'option --assume-clean :
mdadm --create /dev/md0 --assume-clean --level=10 --raid-devices=4 /dev/sd[a-d]
Il semble que mon problème soit lié à l'utilisation du disque entier plutôt que d'une partition, le raid est perdu au redémarrage de la machine :
# https://superuser.com/questions/1492938/mdadm-raid-underlaying-an-lvm-gone-a... The problem whenever I reboot, the RAID gets lost. There is no single trace left of the arrays. yes, I did edit /etc/mdadm/mdadm.conf yes, I issued update-initramfs -u the only way to bring back my data is by recreating the arrays after every reboot: mdadm --create /dev/md0 --assume-clean --level=raid1 --verbose --raid-devices=2 /dev/sda /dev/sde notice the --assume-clean switches The LVM recreates itself imediately and can be mounted. No data is lost.
Merci à tous pour vos réponses !
Etienne