RAID1 verschwunden und nicht mehr anwählbar - brauche Hilfe zur Datenrettung

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • RAID1 verschwunden und nicht mehr anwählbar - brauche Hilfe zur Datenrettung

      Hallo zusammen,

      ich habe ein vermutlich gröberes Problem mit OMV.
      Mein RAID1 (2x WD Red) ist in OMV einfach verschwunden und nicht mehr anwählbar. Dem entsprechend kann ich auf die Daten nicht mehr zugreifen ;(

      Ich erhielt folgende drei E-Mails von OMV mit dem Betreff "Degraded Array event"

      1. eMail

      md127 : active raid1 sda[1]

      3906887360 blocks super 1.2 [2/1] [_U]


      2. eMail

      md126 : active raid1 sda[0]

      3906887360 blocks super 1.2 [2/1] [U_]



      md127 : active (auto-read-only) raid1 sdb[1]

      3906887360 blocks super 1.2 [2/1] [_U]

      3. eMail

      md126 : active raid1 sda[0]

      3906887360 blocks super 1.2 [2/1] [U_]



      md127 : active (auto-read-only) raid1 sdb[1]

      3906887360 blocks super 1.2 [2/1] [_U]


      Ich habe bereits viel im Internet gestöbert und habe im OMV Forum viel davon gelesen. Es ist kein Einzelfall aber es gibt auch keine pauschale Lösung.
      Im OMV Forum fragen die Experten bei diesen Problemen immer folgende Infos aus der Konsole ab:

      Quellcode

      1. root@OMVNAS:~# cat /proc/mdstat
      2. Personalities :
      3. unused devices: <none>

      Quellcode

      1. root@OMVNAS:~# blkid
      2. /dev/sda: UUID="f033912a-7317-e41c-15ea-0f271eebce94" UUID_SUB="8e5e547a-f758-c610-e2d2-731950aa6c9b" LABEL="OMVNASRaid" TYPE="linux_raid_member"
      3. /dev/sdb: UUID="f033912a-7317-e41c-15ea-0f271eebce94" UUID_SUB="391c4e9c-19c3-9dc9-52cd-99b56bb679db" LABEL="OMVNASRaid" TYPE="linux_raid_member"
      4. /dev/sdc1: UUID="d92ed370-b645-48e8-81c8-513dc4fe203d" TYPE="ext4"
      5. /dev/sdc5: UUID="3ef7a04b-f9c7-4c6a-a3e9-725396380be8" TYPE="swap"

      Quellcode

      1. root@OMVNAS:~# fdisk -l
      2. Disk /dev/sda: 4000.8 GB, 4000787030016 bytes
      3. 255 heads, 63 sectors/track, 486401 cylinders, total 7814037168 sectors
      4. Units = sectors of 1 * 512 = 512 bytes
      5. Sector size (logical/physical): 512 bytes / 4096 bytes
      6. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      7. Disk identifier: 0x00000000
      8. Disk /dev/sda doesn't contain a valid partition table
      9. Disk /dev/sdb: 4000.8 GB, 4000787030016 bytes
      10. 255 heads, 63 sectors/track, 486401 cylinders, total 7814037168 sectors
      11. Units = sectors of 1 * 512 = 512 bytes
      12. Sector size (logical/physical): 512 bytes / 4096 bytes
      13. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      14. Disk identifier: 0x00000000
      15. Disk /dev/sdb doesn't contain a valid partition table
      16. Disk /dev/sdc: 7988 MB, 7988051968 bytes
      17. 246 heads, 62 sectors/track, 1022 cylinders, total 15601664 sectors
      18. Units = sectors of 1 * 512 = 512 bytes
      19. Sector size (logical/physical): 512 bytes / 512 bytes
      20. I/O size (minimum/optimal): 512 bytes / 512 bytes
      21. Disk identifier: 0x0003a108
      22. Device Boot Start End Blocks Id System
      23. /dev/sdc1 * 2048 14862335 7430144 83 Linux
      24. /dev/sdc2 14864382 15599615 367617 5 Extended
      25. /dev/sdc5 14864384 15599615 367616 82 Linux swap / Solaris
      Alles anzeigen

      Ich brauch jetzt Hilfe weil ich nicht weiss wie ich meine Daten retten kann. Ich habe kein Problem damit ein neues RAID zu erstellen und anschliessend die Daten neu aufzuspielen. Dafür müsste ich jedoch die Daten zuerst retten und ich habe wirklich keinen Schimmer, wie ich das bewerkstelligen kann.

      Hat jemand eine Idee?

      Vielen Dank im Voraus.
    • Da du anscheinend der Console mächtig bist, sollte es machbar sein ;)

      1. was sagt dein "dmesg" beim Laden des RAID? (Bootmessages mittels Kommando "dmesg" anzeigen lassen und hier die relevanten Zeilen posten)
      2. wie sieht deine Konfig aus? (cat /etc/mdadm/mdadm.conf)
      3. das Kommando "sudo mdadm --detail /dev/md0" hier posten (ggf. die "0" gegen 127 und/oder 126 ersetzen)

      Wahrscheinlichster Fall: siehe wiki.ubuntuusers.de/Software-RAID unter Punkt "mdadm.conf aktualisieren":
      "Je nach Konfiguration kommt es zu Fehlern in der mdadm.conf. Daher ist es sinnvoll diese zu überprüfen. Typische Fehler sind, wenn das RAID-System nicht wie im Beispiel als md0 sondern als md127 nach einem Neustart angezeigt wird. Das System kommt mit der Option "-name" in der mdadm.conf nicht klar. Diese Option auskommentieren und System neu starten."

      Und natürlich muss man die Ursachen untersuchen: alle Kabel prüfen (inkl. Strom) und die SMART-Werte checken (ggf. Logdateien durchsuchen)


      Sc0rp
    • Hallo,

      vielen Dank für die prompte Antwort!

      zu. 1. "dmeg" = welchen Abschnitt davon soll ich posten? (Sorry, bin Anfänger und nicht sonderlich erfahren)

      zu 2.

      Quellcode

      1. root@OMVNAS:~# cat /etc/mdadm/mdadm.conf
      2. # mdadm.conf
      3. #
      4. # Please refer to mdadm.conf(5) for information about this file.
      5. #
      6. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      7. # alternatively, specify devices to scan, using wildcards if desired.
      8. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      9. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      10. # used if no RAID devices are configured.DEVICE partitions
      11. # auto-create devices with Debian standard permissionsCREATE owner=root group=disk mode=0660 auto=yes
      12. # automatically tag new arrays as belonging to the local systemHOMEHOST <system>
      13. # definitions of existing MD arrays
      14. ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      15. ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      16. # instruct the monitoring daemon where to send mail alerts
      17. MAILADDR xxxx.xxxx@gmx.com
      18. MAILFROM root
      Alles anzeigen


      zu 3: (hier wird es langsam unheimlich...)

      Quellcode

      1. root@OMVNAS:~# sudo mdadm --detail /dev/md0
      2. mdadm: cannot open /dev/md0: No such file or directory

      Quellcode

      1. root@OMVNAS:~# sudo mdadm --detail /dev/md127
      2. mdadm: cannot open /dev/md127: No such file or directory

      Quellcode

      1. root@OMVNAS:~# sudo mdadm --detail /dev/md126
      2. mdadm: cannot open /dev/md126: No such file or directory

      Betreffend der Fehlerursache: Ich hatte das Gehäuse geöffnet um den Gehäuselüfter auszutauschen. Also System komplett heruntergefahren, Lüfter getauscht und dann wieder hochgefahren. Ca. seit diesem Zeitpunkt ist das RAID verschwunden. Zwischenzeitlich habe ich auch noch mal alle Verbindungen überprüft. Scheint alles i.O. zu sein.

      Vielen Dank für die Unterstützung!
    • "dmesg" ... einfach auf der Konsole eingeben / ENTER drücken und dann rauschen massig Zeilen vorbei - das ist das komplette Bootlog. Da schneidest du alle Zeilen aus, wo "md" und "/dev/sd[a-z]*" drinne steht (also alle Zeilen, die sich auf Laufwerke beziehen)

      Zum Zweiten hat es deine mdadm.conf anscheinend zerhackt :P, ALSO:
      - zuerst Sicherheitskopie von /etc/mdadm/mdadm.conf anfertigen ("sudo cp /etc/mdadm/mdadm.conf ~/mdadm.conf-BACKUP-20160104")

      diese beiden Zeilen sehen falsch aus:

      Boernie schrieb:

      ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      Das sollte nur eine Zeile sein, und ggf. sollten dort auch deine beiden Festplatten stehen ... aber der Reihe nach:

      Poste zur Sicherheit nochmal den Output von "sudo mdadm --examine --scan"
      Dann schauen wir mal, wie wir das reparieren ;)

      Sc0rp
    • Mal ein gedanke, bitte berichtigen Scorp, kann der gute nicht einfach eine Platte abstecken, eine Live Cd mit z.b. Ubuntu laden, und die PLatte mounten und damit die daten einfach herunterziehen?

      Sein Raid1 spiegelt doch die 2 PLatten im Prinzip nur, somit sollte das ohne große consolentipperei möglich sein.
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • So, den Backup Befehl ("sudo cp /etc/mdadm/mdadm.conf ~/mdadm.conf-BACKUP-20160105") habe ich eingegeben. Ist es normal, dass man dazu keine Rückmeldung bekommt?

      Den Output von dmesg habe ich per Notepad++ auf die Begriffe "dev/" und "md" durchsucht mit nur einem Treffer (zusätzlich habe ich alles durchgelesen, es gibt wirklich nicht mehr Einträge mit "md" oder "dev/")

      Quellcode

      1. [ 7.271138] Adding 367612k swap on /dev/sdc5. Priority:-1 extents:1 across:367612k

      sudo mdadm --examine --scan spuckt folgendes aus:



      Quellcode

      1. root@OMVNAS:~# sudo mdadm --examine --scan
      2. ARRAY /dev/md/OMNASsRaid metadata=1.2 UUID=f033912a:7317e41c:15ea0f27:1eeb
      3. ce94 name=ONVNASsRaid


      Kann ich noch irgendwelche Infos zur Aufklärung liefern?
      Danke!


      PS: Ich habe hier noch ein Netbook mit Ubuntu als Betriebssystem. Kann ich damit vielleicht noch was anstellen in Form von Joogies Tip? Aber ich glaube Ohne Raid sind die Daten wohl nicht verfügbar oder?
    • Ein Raid 1 ist nur eine spiegelung beider platten, nicht mehr.
      Es ist nur ein Gedanke, wart mal auf scorp.
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • 1. Einzelne Platte könnte er mounten, wenn er nicht in seinem System wäre :p
      2. Ist "nur" seine Konfiguration kaputt, das RAID sollte intakt sein.
      3. Plan B wäre eine Platte auszubauen und woanders einzubauen

      ... Aber bis dahin reparieren wir einfach mal die Konfiguration. ...

      @Boernie: es ist normal, das nach dem Kopiervorgang keine Meldung kommt ;)

      Ich schau mal, ob ich eine RAID1 Konfiguration finde, die wir adaptieren können, das wäre am Sichersten.

      Sc0rp
    • Wenn du etwas zum basteln brauchst, hab hier noch 3 oder 4 kleine 400gb/500gb wd blacks rumfliegen, die eh nur einstauben.
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • Mit SATA-Anschlüssen? Könnte man ein Test-NAS aufsetzen ... den Rest habe ich (fertig, auf'm Bench).

      Aber hierfür sollte eine VM ausreichen - hab schon sehr lange nicht mehr in der mdadm.conf per Hand editiert, da möchte ich das so sicher wie möglich machen ... nicht das dann alle Daten weg sind.

      Sc0rp
    • Die ide teile sind schon lange in der schrottpresse^^, ich schau mal am WE
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • Boernie schrieb:

      ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      So, habe fertig ;)

      ich habe in meiner VM mal ein RAID1 angelegt und mal geschaut wie das aussieht.
      Hier DEINE Konfig, wie sie sein müsste:

      Quellcode

      1. # mdadm.conf
      2. #
      3. # Please refer to mdadm.conf(5) for information about this file.
      4. #
      5. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      6. # alternatively, specify devices to scan, using wildcards if desired.
      7. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      8. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      9. # used if no RAID devices are configured.
      10. DEVICE partitions
      11. # auto-create devices with Debian standard permissions
      12. CREATE owner=root group=disk mode=0660 auto=yes
      13. # automatically tag new arrays as belonging to the local system
      14. HOMEHOST <system>
      15. # definitions of existing MD arrays
      16. ARRAY /dev/md0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      17. # instruct the monitoring daemon where to send mail alerts
      18. MAILADDR xxxx.xxxx@gmx.com
      19. MAILFROM root
      Alles anzeigen
      Bitte passe den Tag "name=" ggf. an und ersetze deine eMail-Adresse ;)

      Sc0rp

      ps: der Editor auf der Console heisst "nano", der Befehl also "nano /etc/mdadm/mdadm.conf" (wenn du dich als root angemeldet hast)

      EDIT: nach der Änderung musst du neu starten ...
    • Super! Vielen Dank!

      Werde mich da gleich morgen dransetzen.

      Eins habe ich daurch die Aktion auf jeden Fall gelernt: Ein Raid ist keine Datensicherung :whistling:
      Ich war wirklich in dem Irrglauben, dass wenn eine Platte mal ausfällt, ich die andere einfach an ein Linux System dranhänge und die Daten noch vorhanden sind.
      Wenn ich das Raid dank Deiner Hilfe wieder hinbekomme, werde ich mich als erstes um ein regelmässiges Backup von OMV und dem Raid kümmern

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Boernie ()

    • Habe das schöne Wetter heute erstmal genutz um Brennholz zu machen und habe ich mich deshalb erst am Nachmittag wieder mit dem OMV beschäftige. Deshalb antworte ich erst so spät.

      Ich wollte gerade loslegen mit der Konfiguration zu starten, habe zwischenzeitlich aber folgenden Beitrag aus dem englischsprachigen OMV Forum bekommen mit folgendem Tip:

      Quellcode

      1. mdadm --assemble /dev/md127 /dev/sd[ab] --verbose --force
      2. mount /dev/md127
      Habe es einfach mal ausprobiert und bin überrascht. Das Raid ist tatsächlich wieder vorhanden ?(
      Jetzt bin ich wirklich verwirrt und ich frage mich natürlich: wie kann so etwas passieren und was kann ich tun um Wiederholfehler zu vermieden?

      Zunächst aber erstmal ein großes Dankeschön an 'Sc0rp':
      Ich bin Dir sehr dankbar für Deine Unterstützung! So einen Support habe ich bisher wirklich noch nicht erlebt! Ich hoffe sehr, ich habe irgendwann einmal die Möglichkeit mich dafür zu revanchieren!
    • Re,
      wie oben schon geschrieben, schreibt OMV in die Systemdateien (mdadm.conf) den Tag "name=" mit rein, der ist zwar in dem md-Treiber enthalten, aber "Wheezy" hat ein Problem damit - vermutlich ein Bug.

      Die Fragen, die offen geblieben sind:
      - bleibt dein RAID1 auch nach dem Neustart?
      - wie sieht deine "/etc/mdadm/mdadm.conf" jetzt aus? (Bitte posten - als Referenz für später od. Andere)
      - was steht in OMV nun drin (unter RAID)?

      Sc0rp
    • So, habe jetzt im Zuge eines Updates auf OMV 2.1 einen kompletten Neustart gemacht - und siehe da: Raid ist wieder weg :rolleyes:

      Also habe ich es wie folgt wiederholt:

      Quellcode

      1. mdadm --assemble /dev/md127 /dev/sd[ab] --verbose --force
      2. mount /dev/md127


      "etc/mdadm/mdadm.conf" sieht jetzt eigentlich wieder aus wie ganz zu Anfangs erwähnt:

      Quellcode

      1. root@OMVNAS:~# cat /etc/mdadm/mdadm.conf
      2. # mdadm.conf
      3. #
      4. # Please refer to mdadm.conf(5) for information about this file.
      5. #
      6. # by default, scan all partitions (/proc/partitions) for MD superblocks.
      7. # alternatively, specify devices to scan, using wildcards if desired.
      8. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
      9. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
      10. # used if no RAID devices are configured.
      11. DEVICE partitions
      12. # auto-create devices with Debian standard permissionsCREATE owner=root group=disk mode=0660 auto=yes
      13. # automatically tag new arrays as belonging to the local systemHOMEHOST <system>
      14. # definitions of existing MD arrays
      15. ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      16. ARRAY /dev/md/OMVNASsRaid_0 metadata=1.2 name=OMVNASsRaid UUID=f033912a:7317e41c:15ea0f27:1eebce94
      17. # instruct the monitoring daemon where to send mail alerts
      18. MAILADDR xxxxxx@gmx.com
      19. MAILFROM root
      Alles anzeigen

      Im OMV selbst wir das Raid wie folgt dargestellt:

      Quellcode

      1. Version : 1.2
      2. Creation Time : Sun Mar 8 17:36:30 2015
      3. Raid Level : raid1
      4. Array Size : 3906887360 (3725.90 GiB 4000.65 GB)
      5. Used Dev Size : 3906887360 (3725.90 GiB 4000.65 GB)
      6. Raid Devices : 2
      7. Total Devices : 1
      8. Persistence : Superblock is persistent
      9. Update Time : Mon Jan 11 18:58:34 2016
      10. State : clean, degraded Active
      11. Devices : 1
      12. Working Devices : 1
      13. Failed Devices : 0
      14. Spare Devices : 0
      15. Name : OMVNASsRaid
      16. UUID : f033912a:7317e41c:15ea0f27:1eebce94
      17. Events : 6268
      18. Number Major Minor RaidDevice State
      19. 0 8 0 0 active sync /dev/sda
      20. 1 0 0 1 removed
      Alles anzeigen
      Ich gehe mal davon aus, dass nach einem Neustart das Raid wieder verschwunden sein wird und das ist ja kein akzeptabler Zustand.

      Sollte ich jetzt einfach Deine zuvor beschriebene Konfig aufsetzen oder etwas anderes versuchen?
      Die Daten habe ich zwischenzeitlich gesichert. Ich bin also Risikobereit! :rolleyes:
    • Das war zu erwarten :( ...
      Mit deinem Befehl setzt du ja auch nur ein (etwaig) vorhandenes RAID (brutal, weil "--force") zusammen, die Konfiguration repariert du damit nicht.

      Meine obige Config nehmen, dann Reboot und hoffen. Evtl. musst du die UUID noch ändern, das solltest du aber nach dem Reboot sehen.

      Viel Glück!

      Sc0rp