staging.inyokaproject.org

MDADM md0 verschwunden nach Neustart/Update

Status: Gelöst | Ubuntu-Version: Ubuntu 20.04 (Focal Fossa)
Antworten |

Just-in-time

Anmeldungsdatum:
5. Dezember 2020

Beiträge: Zähle...

Guten Tag Community,

ich hab seit heute ein Problemchen auf meine Ubuntu Server. Nämlich habe ich ein update durchgeführt und danach einen Neustart.

Auf dem Server habe ich mit MDADM einen Software RAID5 angelegt auf 3x 2TB WD NAS Festplatten. (sda,sdb,sdc) Ubuntu selber läuft auf einer nvme ssd.

Die Anleitung dafür habe ich aus dem Wiki genommen - https://wiki.ubuntuusers.de/Software-RAID/

Auf dem RAID hab ich dann noch einen Samba Share gemacht und dies hat alles wunderbar funktioniert und co.

Jetzt aber wieder zu meinem Problem: Nach einem Neustart war md0 nicht mehr vorhanden in /dev, welches ich mit mdadm erstellt habe und über Samba kann man natürlich auch nicht mehr darauf zugreifen.

cat /proc/mdstat gab ursprünglich das RAID5 Array aus wie erwartet aber jetzt ist es leer:

1
2
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
unused devices: <none>

Folgende Befehle könnten noch Aufschluss geben was ich bereits durch recherchieren gefunden habe:

1
2
sudo mdadm --assemble --scan
mdadm: No arrays found in config file or automatically
1
2
3
udo mdadm --assemble /dev/md0 /dev/sda /dev/sdb /dev/sdc
mdadm: Cannot assemble mbr metadata on /dev/sda
mdadm: /dev/sda has no superblock - assembly aborted
1
2
sudo mdadm --assemble /dev/sda /dev/sdb /dev/sdc
mdadm: device /dev/sda exists but is not an md array.
 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
sudo parted -l
Model: ATA WDC WD20EFRX-68E (scsi)
Disk /dev/sda: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start  End  Size  File system  Name  Flags


Model: ATA WDC WD20EFRX-68E (scsi)
Disk /dev/sdb: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start  End  Size  File system  Name  Flags


Model: ATA WDC WD20EFRX-68E (scsi)
Disk /dev/sdc: 2000GB
Sector size (logical/physical): 512B/4096B
Partition Table: gpt
Disk Flags:

Number  Start  End  Size  File system  Name  Flags


Model: Linux device-mapper (linear) (dm)
Disk /dev/mapper/ubuntu--vg-ubuntu--lv: 124GB
Sector size (logical/physical): 512B/512B
Partition Table: loop
Disk Flags:

Number  Start  End    Size   File system  Flags
 1      0.00B  124GB  124GB  ext4


Model: KINGSTON SA2000M8250G (nvme)
Disk /dev/nvme0n1: 250GB
Sector size (logical/physical): 512B/512B
Partition Table: gpt
Disk Flags:

Number  Start   End    Size   File system  Name  Flags
 1      1049kB  538MB  537MB  fat32              boot, esp
 2      538MB   249GB  248GB

So hab ich das Array angelegt

1
2
3
sudo mdadm --create /dev/md0 --auto md --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc
sudo mdadm -D /dev/md0 | grep "Chunk Size"
sudo mkfs.ext4 -b 4096 -E stride=128,stripe-width=384 /dev/md0

und noch in fstab gemounted

In meiner mdadm.conf ist soweit kein Array eingetragen.

Ich hab natürlich schon im Internet recherchiert dazu, konnte aber bisher keinen Beitrag finden der genau auf mein Problem zutrifft. Ich bin noch recht neu was Linux angeht, versuche aber mein bestes. Den Server mit den Festplatten habe ich jetzt 2 Wochen laufen gehabt mit dem Raid und schon fleißig Daten aufgespielt, die ich jetzt sehr ungern verlieren würde, darum bin ich sehr vorsichtig was Befehle angeht wie mdadm --create. Denn auf Beiträgen wie https://askubuntu.com/questions/860643/raid-array-doesnt-reassemble-after-reboot habe ich gelesen das man mit dem create sein Array neu erstellen kann und seine Daten nicht verliert, aber auf anderen Seiten hat man gewarnt das create immer mit Datenverlust zusammen hängt.

Vielleicht hatte einer schon Mal so ein Problem oder kann mich auf einen Beitrag leiten der mir helfen könnte. Vielen, vielen Dank schon Mal im vorraus. Ich hoffe ich habe die nötigsten Infos bereit gestellt.

Grüße, Justin

Doc_Symbiosis

Avatar von Doc_Symbiosis

Anmeldungsdatum:
11. Oktober 2006

Beiträge: 4453

Was zeigt denn folgendes?

sudo /usr/share/mdadm/mkconf

Oder heisst es vielleicht einfach nicht mehr md0, sondern md?, also irgendwie anders?

Just-in-time

(Themenstarter)

Anmeldungsdatum:
5. Dezember 2020

Beiträge: 3

Danke erstmal für die Anwort.

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
sudo /usr/share/mdadm/mkconf
# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This configuration was auto-generated on Sat, 05 Dec 2020 22:25:43 +0100 by mkconf

Ich hab auch schon gelesen das es vielleicht anders benannt sein könnte und hab danach geschaut. Leider wurde es nicht einfach anders benannt. Hier was bei /dev angezeigt wird:

1
2
3
4
5
6
7
8
9
autofs         cpu_dma_latency  fuse       initctl       loop2   mem        port    sda       stderr  tty13  tty21  tty3   tty38  tty46  tty54  tty62   ttyS12  ttyS20  ttyS29  ttyS9      vcs1   vcsa3  vcsu5
block          cuse             hpet       input         loop3   mqueue     ppp     sdb       stdin   tty14  tty22  tty30  tty39  tty47  tty55  tty63   ttyS13  ttyS21  ttyS3   ttyprintk  vcs2   vcsa4  vcsu6
bsg            disk             hugepages  kmsg          loop4   net        psaux   sdc       stdout  tty15  tty23  tty31  tty4   tty48  tty56  tty7    ttyS14  ttyS22  ttyS30  ubuntu-vg  vcs3   vcsa5  vfio
btrfs-control  dm-0             hwrng      kvm           loop5   null       ptmx    sg0       tty     tty16  tty24  tty32  tty40  tty49  tty57  tty8    ttyS15  ttyS23  ttyS31  udmabuf    vcs4   vcsa6  vga_arbiter
bus            dri              i2c-0      lightnvm      loop6   nvme0      pts     sg1       tty0    tty17  tty25  tty33  tty41  tty5   tty58  tty9    ttyS16  ttyS24  ttyS4   uhid       vcs5   vcsu   vhci
char           drm_dp_aux0      i2c-1      log           loop7   nvme0n1    random  sg2       tty1    tty18  tty26  tty34  tty42  tty50  tty59  ttyS0   ttyS17  ttyS25  ttyS5   uinput     vcs6   vcsu1  vhost-net
console        ecryptfs         i2c-2      loop-control  mapper  nvme0n1p1  rfkill  shm       tty10   tty19  tty27  tty35  tty43  tty51  tty6   ttyS1   ttyS18  ttyS26  ttyS6   urandom    vcsa   vcsu2  vhost-vsock
core           fd               i2c-3      loop0         mcelog  nvme0n1p2  rtc     snapshot  tty11   tty2   tty28  tty36  tty44  tty52  tty60  ttyS10  ttyS19  ttyS27  ttyS7   userio     vcsa1  vcsu3  zero
cpu            full             i2c-4      loop1         mei0    nvram      rtc0    snd       tty12   tty20  tty29  tty37  tty45  tty53  tty61  ttyS11  ttyS2   ttyS28  ttyS8   vcs        vcsa2  vcsu4  zfs

Just-in-time

(Themenstarter)

Anmeldungsdatum:
5. Dezember 2020

Beiträge: 3

Für Andere die auf das selbe Problem gestoßen sind wie ich. Der Befehl:

1
sudo mdadm --create /dev/md0 --assume-clean --verbose --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc

stellt das Array wieder her und das ohne Datenverlust. Natürlich muss man es noch so anpassen wie man selber sein Array erstellt hat. Danach muss man es wieder mounten und der Share ist wieder online.

Dies ist keine Dauerhafte Lösung und man muss es nach jedem Neustart machen, aber es ist etwas.

Damit schließe ich den Thread.

alterpinguin

Anmeldungsdatum:
24. Mai 2014

Beiträge: 786

bitte! Hast Du mal das mkconf laufen lassen nachdem das raid-Array wieder zusammengebaut wurde und sauber funktionierte?

Wenn Du keinen gültigen Eintrag für das raid (normalerweise in /etc/mdadm/mdadm.conf) hast, dann dürfte es natürlich Probleme bei einem Neustart geben, denn woher soll das System wissen ob ein raid da ist?

Nachtrag: was sagt denn das /proc/mdstat nachdem das raid wieder zusammengebaut wurde (cat /proc/mdstat)?

Antworten |