Guten Tag Community,
ich hab seit heute ein Problemchen auf meine Ubuntu Server. Nämlich habe ich ein update durchgeführt und danach einen Neustart.
Auf dem Server habe ich mit MDADM einen Software RAID5 angelegt auf 3x 2TB WD NAS Festplatten. (sda,sdb,sdc) Ubuntu selber läuft auf einer nvme ssd.
Die Anleitung dafür habe ich aus dem Wiki genommen - https://wiki.ubuntuusers.de/Software-RAID/
Auf dem RAID hab ich dann noch einen Samba Share gemacht und dies hat alles wunderbar funktioniert und co.
Jetzt aber wieder zu meinem Problem: Nach einem Neustart war md0 nicht mehr vorhanden in /dev, welches ich mit mdadm erstellt habe und über Samba kann man natürlich auch nicht mehr darauf zugreifen.
cat /proc/mdstat gab ursprünglich das RAID5 Array aus wie erwartet aber jetzt ist es leer:
1 2 | Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] unused devices: <none> |
Folgende Befehle könnten noch Aufschluss geben was ich bereits durch recherchieren gefunden habe:
1 2 | sudo mdadm --assemble --scan mdadm: No arrays found in config file or automatically |
1 2 3 | udo mdadm --assemble /dev/md0 /dev/sda /dev/sdb /dev/sdc mdadm: Cannot assemble mbr metadata on /dev/sda mdadm: /dev/sda has no superblock - assembly aborted |
1 2 | sudo mdadm --assemble /dev/sda /dev/sdb /dev/sdc mdadm: device /dev/sda exists but is not an md array. |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 | sudo parted -l Model: ATA WDC WD20EFRX-68E (scsi) Disk /dev/sda: 2000GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags Model: ATA WDC WD20EFRX-68E (scsi) Disk /dev/sdb: 2000GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags Model: ATA WDC WD20EFRX-68E (scsi) Disk /dev/sdc: 2000GB Sector size (logical/physical): 512B/4096B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags Model: Linux device-mapper (linear) (dm) Disk /dev/mapper/ubuntu--vg-ubuntu--lv: 124GB Sector size (logical/physical): 512B/512B Partition Table: loop Disk Flags: Number Start End Size File system Flags 1 0.00B 124GB 124GB ext4 Model: KINGSTON SA2000M8250G (nvme) Disk /dev/nvme0n1: 250GB Sector size (logical/physical): 512B/512B Partition Table: gpt Disk Flags: Number Start End Size File system Name Flags 1 1049kB 538MB 537MB fat32 boot, esp 2 538MB 249GB 248GB |
So hab ich das Array angelegt
1 2 3 | sudo mdadm --create /dev/md0 --auto md --level=5 --raid-devices=3 /dev/sda /dev/sdb /dev/sdc sudo mdadm -D /dev/md0 | grep "Chunk Size" sudo mkfs.ext4 -b 4096 -E stride=128,stripe-width=384 /dev/md0 |
und noch in fstab gemounted
In meiner mdadm.conf ist soweit kein Array eingetragen.
Ich hab natürlich schon im Internet recherchiert dazu, konnte aber bisher keinen Beitrag finden der genau auf mein Problem zutrifft. Ich bin noch recht neu was Linux angeht, versuche aber mein bestes. Den Server mit den Festplatten habe ich jetzt 2 Wochen laufen gehabt mit dem Raid und schon fleißig Daten aufgespielt, die ich jetzt sehr ungern verlieren würde, darum bin ich sehr vorsichtig was Befehle angeht wie mdadm --create. Denn auf Beiträgen wie https://askubuntu.com/questions/860643/raid-array-doesnt-reassemble-after-reboot habe ich gelesen das man mit dem create sein Array neu erstellen kann und seine Daten nicht verliert, aber auf anderen Seiten hat man gewarnt das create immer mit Datenverlust zusammen hängt.
Vielleicht hatte einer schon Mal so ein Problem oder kann mich auf einen Beitrag leiten der mir helfen könnte. Vielen, vielen Dank schon Mal im vorraus. Ich hoffe ich habe die nötigsten Infos bereit gestellt.
Grüße, Justin