Hallo,
ich hoffe ich habe den richtigen Bereich im Forum erwischt ☺
Innerhalb einer Dual-Boot-Umgebung mit Windows 10 und Ubuntu 18.04 benutze ich ein Intel Fake RAID.
Nach dem Booten von Ubuntu bekomme ich immer folgende Meldung von mdadm:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 | A Fail event had been detected on md device /dev/md126. It could be related to component device /dev/sda. Faithfully yours, etc. P.S. The /proc/mdstat file currently contains the following: Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md126 : inactive sdb[0] 976759808 blocks super external:/md127/0 md127 : inactive sdb[1](S) sda[0](S) 5552 blocks super external:imsm unused devices: <none> |
aber wenn ich
1 | sudo mdadm --detail /dev/md126 ausführe |
scheint alles in Ordnung zu sein:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 | /dev/md126: Container : /dev/md/imsm0, member 0 Raid Level : raid1 Array Size : 976759808 (931.51 GiB 1000.20 GB) Used Dev Size : 976759808 (931.51 GiB 1000.20 GB) Raid Devices : 2 Total Devices : 2 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Consistency Policy : resync UUID : 428d9481:fb2c6f1f:92db8ae5:b2a40d98 Number Major Minor RaidDevice State 1 8 0 0 active sync /dev/sda 0 8 16 1 active sync /dev/sdb |
Wenn ich die Datei /prod/mdstat öffne, ist mda126 auch wieder aktiv und hat sda und sdb zugeordnet bekommen:
1 2 3 4 5 6 7 8 | Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] md126 : active raid1 sda[1] sdb[0] 976759808 blocks super external:/md127/0 [2/2] [UU] md127 : inactive sdb[1](S) sda[0](S) 5552 blocks super external:imsm unused devices: <none> |
Für mich sieht es also so aus, wenn md126 kurz nach dem Booten in einem inaktiven Zustand ist und nach einiger Zeit aktiv wird. Oder kann jemand anderes den Fehler anders interpretieren?
MfG cust0mfirmware