Raid 5 verschwunden

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Raid 5 verschwunden

      Hallo zusammen,

      auf meinem OMV 3 Server ist auf einmal mein Raid 5 verschwunden.

      Bitte um Hilfe !

      Folgende Meldungen bekomme ich

      "dmesg"

      Quellcode

      1. [ 2.129638] md: md0 stopped.
      2. [ 2.133802] md: bind<sdb>
      3. [ 2.133932] md: bind<sdc>
      4. [ 2.134067] md: bind<sde>
      5. [ 2.134496] md: bind<sdd>
      6. [ 2.134516] md: kicking non-fresh sdc from array!
      7. [ 2.134519] md: unbind<sdc>
      8. [ 2.146018] md: export_rdev(sdc)
      9. [ 2.146037] md: kicking non-fresh sdb from array!
      10. [ 2.146041] md: unbind<sdb>
      11. [ 2.161967] md: export_rdev(sdb)
      12. [ 2.229941] raid6: sse2x1 gen() 5067 MB/s
      13. [ 2.297940] raid6: sse2x1 xor() 5231 MB/s
      14. [ 2.365941] raid6: sse2x2 gen() 8914 MB/s
      15. [ 2.433936] raid6: sse2x2 xor() 6320 MB/s
      16. [ 2.501934] raid6: sse2x4 gen() 10382 MB/s
      17. [ 2.569933] raid6: sse2x4 xor() 7735 MB/s
      18. [ 2.569934] raid6: using algorithm sse2x4 gen() 10382 MB/s
      19. [ 2.569934] raid6: .... xor() 7735 MB/s, rmw enabled
      20. [ 2.569935] raid6: using ssse3x2 recovery algorithm
      21. [ 2.570097] xor: measuring software checksum speed
      22. [ 2.609928] prefetch64-sse: 14545.000 MB/sec
      23. [ 2.649927] generic_sse: 13249.000 MB/sec
      24. [ 2.649928] xor: using function: prefetch64-sse (14545.000 MB/sec)
      25. [ 2.650221] async_tx: api initialized (async)
      26. [ 2.651905] md: raid6 personality registered for level 6
      27. [ 2.651906] md: raid5 personality registered for level 5
      28. [ 2.651906] md: raid4 personality registered for level 4
      29. [ 2.652165] md/raid:md0: device sdd operational as raid disk 2
      30. [ 2.652166] md/raid:md0: device sde operational as raid disk 3
      31. [ 2.652465] md/raid:md0: allocated 4374kB
      32. [ 2.652526] md/raid:md0: not enough operational devices (2/4 failed)
      33. [ 2.652567] RAID conf printout:
      34. [ 2.652568] --- level:5 rd:4 wd:2
      35. [ 2.652569] disk 2, o:1, dev:sdd
      36. [ 2.652570] disk 3, o:1, dev:sde
      37. [ 2.652770] md/raid:md0: failed to run raid set.
      38. [ 2.652798] md: pers->run() failed ...
      39. [ 2.653011] md: md0 stopped.
      40. [ 2.653015] md: unbind<sdd>
      41. [ 2.670026] md: export_rdev(sdd)
      42. [ 2.670033] md: unbind<sde>
      43. [ 2.685965] md: export_rdev(sde)
      44. [ 2.690891] device-mapper: uevent: version 1.0.3
      45. [ 2.690965] device-mapper: ioctl: 4.35.0-ioctl (2016-06-23) initialised: dm-devel@redhat.com
      46. [ 2.701012] Btrfs loaded, crc32c=crc32c-intel
      47. [ 2.714058] clocksource: Switched to clocksource tsc
      48. [ 2.739502] PM: Starting manual resume from disk
      49. [ 2.739506] PM: Hibernation image partition 8:5 present
      50. [ 2.739506] PM: Looking for hibernation image.
      51. [ 2.739883] PM: Image not found (code -22)
      52. [ 2.739884] PM: Hibernation image not present or could not be loaded.
      53. [ 2.814060] EXT4-fs (sda1): mounted filesystem with ordered data mode. Opts: (null)
      54. [ 2.960130] systemd[1]: systemd 215 running in system mode. (+PAM +AUDIT +SELINUX +IMA +SYSVINIT +LIBCRYPTSETUP +GCRYPT +ACL +XZ -SECCOMP -APPARMOR)
      55. [ 2.960281] systemd[1]: Detected architecture 'x86-64'.
      56. [ 2.985458] systemd[1]: Inserted module 'autofs4'
      57. [ 2.989329] systemd[1]: Set hostname to <homeserver>.
      58. [ 2.989370] systemd[1]: Initializing machine ID from random generator.
      59. [ 2.989425] systemd[1]: Installed transient /etc/machine-id file.
      60. [ 3.165352] systemd[1]: Cannot add dependency job for unit display-manager.service, ignoring: Unit display-manager.service failed to load: No such file or directory.
      61. [ 3.165799] systemd[1]: Starting Forward Password Requests to Wall Directory Watch.
      62. [ 3.165869] systemd[1]: Started Forward Password Requests to Wall Directory Watch.
      63. [ 3.165882] systemd[1]: Starting Remote File Systems (Pre).
      64. [ 3.242971] fuse init (API version 7.26)
      65. [ 3.283525] systemd-udevd[213]: starting version 215
      66. [ 3.329472] random: crng init done
      67. [ 3.426693] md: md0 stopped.
      68. [ 3.427540] md: bind<sdb>
      69. [ 3.427630] md: bind<sdc>
      70. [ 3.427716] md: bind<sde>
      71. [ 3.427804] md: bind<sdd>
      72. [ 3.427824] md: md0 stopped.
      73. [ 3.427826] md: unbind<sdd>
      74. [ 3.445926] md: export_rdev(sdd)
      75. [ 3.445938] md: unbind<sde>
      76. [ 3.457960] md: export_rdev(sde)
      77. [ 3.457969] md: unbind<sdc>
      78. [ 3.485914] md: export_rdev(sdc)
      79. [ 3.485941] md: unbind<sdb>
      80. [ 3.501923] md: export_rdev(sdb)
      Alles anzeigen



      "cat /etc/mdadm/mdadm.conf"


      Quellcode

      1. # mdadm.conf
      2. #
      3. # Please refer to mdadm.conf(5) for information about this file.
      4. #
      5. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      6. # alternatively, specify devices to scan, using wildcards if desired.
      7. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      8. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      9. # used if no RAID devices are configured.
      10. DEVICE partitions
      11. # auto-create devices with Debian standard permissions
      12. CREATE owner=root group=disk mode=0660 auto=yes
      13. # automatically tag new arrays as belonging to the local system
      Alles anzeigen
      "sudo mdadm --detail /dev/md0"




      Quellcode

      1. root@homeserver:~# sudo mdadm --detail /dev/md0
      2. mdadm: cannot open /dev/md0: No such file or directory
      3. root@homeserver:~# sudo mdadm --detail /dev/md126
      4. mdadm: cannot open /dev/md126: No such file or directory
      5. root@homeserver:~# sudo mdadm --detail /dev/md127
      6. mdadm: cannot open /dev/md127: No such file or directory
      "blkid"


      Quellcode

      1. root@homeserver:~# blkid
      2. /dev/sdb: UUID="ec889e6c-715c-be3c-f2e4-270a35589e41" UUID_SUB="88f13530-78f6-0230-3c1b-8a625c7eee22" LABEL="homeserver:home" TYPE="linux_raid_member"
      3. /dev/sdf1: LABEL="daten" UUID="2017d85b-4951-447b-adf6-7b8e3f1a7db0" TYPE="ext4" PARTUUID="b58dd17e-2e35-4b9a-bc80-088887546cf6"
      4. /dev/sde: UUID="ec889e6c-715c-be3c-f2e4-270a35589e41" UUID_SUB="d45cd0cf-0cc8-602f-b9d8-75fb14d475a9" LABEL="homeserver:home" TYPE="linux_raid_member"
      5. /dev/sdc: UUID="ec889e6c-715c-be3c-f2e4-270a35589e41" UUID_SUB="2a1deaf1-2c94-433f-d20e-7c81c44f6c55" LABEL="homeserver:home" TYPE="linux_raid_member"
      6. /dev/sdd: UUID="ec889e6c-715c-be3c-f2e4-270a35589e41" UUID_SUB="218422b5-b62f-6f42-e871-404f6aea75e4" LABEL="homeserver:home" TYPE="linux_raid_member"
      7. /dev/sda1: UUID="9168cc7e-6208-403e-8678-69578e545d88" TYPE="ext4" PARTUUID="2aa39dd3-01"
      8. /dev/sda5: UUID="e0bd45a8-d1db-4fb4-8b5e-865dccf09e6a" TYPE="swap" PARTUUID="2aa39dd3-05"
      "sudo mdadm --examine --scan"


      Quellcode

      1. root@homeserver:~# sudo mdadm --examine --scan
      2. ARRAY /dev/md/home metadata=1.2 UUID=ec889e6c:715cbe3c:f2e4270a:35589e41 name=homeserver:home

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Plato ()

    • irgend etwas ist mit 2 deiner Festplatten passiert:
      [ 2.134516] md: kicking non-fresh sdc from array!
      [ 2.134519] md: unbind<sdc>
      [ 2.146018] md: export_rdev(sdc)
      [ 2.146037] md: kicking non-fresh sdb from array!
      [ 2.146041] md: unbind<sdb>
      [ 2.161967] md: export_rdev(sdb)

      ich vermute mal, dass dein System hart ausgeschalten wurde, dieser Thread im OMV Forum behandelt das Problem und gibt eine Lösung an.
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Was muss ich denn in die Konsole eingeben ?
      Möchte ungern meine ganzen Daten verlieren, ansonsten habe ich die Scheidungspapiere auf dem Tisch.... :)

      mdadm --stop /dev/md127
      mdadm --assemble /dev/md127 /dev/sd[bcdef] --verbose --force

      Anstatt der der 127 muss ich 0 eingeben ?
      Sonst noch etwas ändern ?

      Danke
    • du hast leider den ersten Kapitalfehler eines RAID Benutzers gemacht. ein RAID ist kein Backup, dieses sollte immer vollkommen unabhängig von RAID gemacht werden. Essentielle Daten eventuell sogar auf mehrere Backups. Frag da mal bei @Joogie an, der kann davon schon ein Lied singen.

      meiner Meinung ist der Befehl mit /dev/md0 korrekt und sollte so funktionieren. Der Befehl selbst ist nicht destruktiv, sondern sagt Linux nur, wie das RAID aussehen soll. Ich selber habe kein RAID in Betrieb, also wenn du willst, warte halt noch ein bischen, bis die echten Spezialisten anrücken.
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • ärgerlich war das zu meinen anfangszeiten schon, 100 filme weg, die hab ich bis heute noch nicht wieder zusammen ;)
      Seitdem, nie wieder ohne Backup, spart ärger und zeit..
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges