Raid 5 während Erweiterung (4->6 HDD) abgebrochen und nicht mehr verfügbar

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Raid 5 während Erweiterung (4->6 HDD) abgebrochen und nicht mehr verfügbar

      Hallo Community,

      bei der Erweiterung meines RAID 5 von 4 auf 6 HDD ist während dem reshape das System abgeschmiert und es wurde ein Neustart erforderlich.
      Danach passierte nichts weiter und das RAID 5 wird nicht mehr angezeigt.
      Wie kann ich den reshape-Vorgang fortsetzen und das Raid wiederherstellen?
      Ich bin für jegliche Tipps dankbar.

      Support-Information – Degraded Array Info
      Personalities : [raid6] [raid5] [raid4]
      md127 : inactive sdb[0] sda[5] sdc[3] sdd[2] sde[1]
      29301957560 blocks super 1.2
      unused devices: <none>
      /dev/sdb: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="9ff77b6a-1ab0-67f7-584f-a0e1cef0d6af" LABEL="NAS:NAS" TYPE="linux_raid_member"
      /dev/sdc: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="c199b73d-272e-0590-9c4b-63c95052f803" LABEL="NAS:NAS" TYPE="linux_raid_member"
      /dev/sdd: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="3f9ecb13-6799-642d-56ba-fff97659723c" LABEL="NAS:NAS" TYPE="linux_raid_member"
      /dev/sda: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="b9cc6568-af2d-9e5a-3da8-3c075855f962" LABEL="NAS:NAS" TYPE="linux_raid_member"
      /dev/sde: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="b1f37539-560e-a21b-3a17-36c6d7a72538" LABEL="NAS:NAS" TYPE="linux_raid_member"
      /dev/sdg1: UUID="805b7ada-3d03-4ed7-b9af-3321e8224585" TYPE="ext4"
      /dev/sdg5: UUID="7fc5d6e5-77f2-4bd5-a39e-66f7929e8655" TYPE="swap"
      Disk /dev/sdc: 6001.2 GB, 6001175126016 bytes
      255 heads, 63 sectors/track, 729601 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Disk /dev/sda: 6001.2 GB, 6001175126016 bytes
      255 heads, 63 sectors/track, 729601 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Disk /dev/sdb: 6001.2 GB, 6001175126016 bytes
      255 heads, 63 sectors/track, 729601 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Disk /dev/sdd: 6001.2 GB, 6001175126016 bytes
      255 heads, 63 sectors/track, 729601 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Disk /dev/sde: 6001.2 GB, 6001175126016 bytes
      255 heads, 63 sectors/track, 729601 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Disk /dev/sdf: 6001.2 GB, 6001175126016 bytes
      256 heads, 63 sectors/track, 726751 cylinders, total 11721045168 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 4096 bytes
      I/O size (minimum/optimal): 4096 bytes / 4096 bytes
      Disk identifier: 0x00000000
      Device Boot Start End Blocks Id System
      /dev/sdf1 1 4294967295 2147483647+ ee GPT
      Partition 1 does not start on physical sector boundary.
      Disk /dev/sdg: 60.0 GB, 60022480896 bytes
      255 heads, 63 sectors/track, 7297 cylinders, total 117231408 sectors
      Units = sectors of 1 * 512 = 512 bytes
      Sector size (logical/physical): 512 bytes / 512 bytes
      I/O size (minimum/optimal): 512 bytes / 512 bytes
      Disk identifier: 0x0001673a
      Device Boot Start End Blocks Id System
      /dev/sdg1 * 2048 112383999 56190976 83 Linux
      /dev/sdg2 112386046 117229567 2421761 5 Extended
      /dev/sdg5 112386048 117229567 2421760 82 Linux swap / Solaris
      Bilder
      • OMV_4.png

        12,07 kB, 614×162, 5 mal angesehen
      • OMV_3.png

        28,24 kB, 629×236, 8 mal angesehen
      • OMV_2.png

        19,5 kB, 911×137, 5 mal angesehen
      • OMV_1.png

        14,8 kB, 395×199, 5 mal angesehen
    • Re,

      Andre schrieb:

      bei der Erweiterung meines RAID 5 von 4 auf 6 HDD ist während dem reshape das System abgeschmiert und es wurde ein Neustart erforderlich.
      Wie ist denn das passiert? Und welchen "Befehl" hast du zur Erweiterung benutzt / wie hast du das gestartet?

      Andre schrieb:

      Danach passierte nichts weiter und das RAID 5 wird nicht mehr angezeigt.
      Wie hast du festgestellt "das nix weiter passiert" ?

      Andre schrieb:

      Wie kann ich den reshape-Vorgang fortsetzen und das Raid wiederherstellen?
      Via Konsole ...

      Also, deine Ausgabe ist schwer leserlich ... daher setzte doch mal bitte folgende Befehle auf der Konsole ab, um uns einen Überblick zu verschaffen:
      cat /proc/mdstat
      mdadm -D /dev/md127
      (bitte benutze beim Posten das "Code" Makro)

      ACHTUNG: bevor wir anfangen zu reparieren, gilt es erstmal den Systemzustand genau zu analysieren, d.h. zuerst Mal kommen nur Abfragebefehle ...

      Sc0rp
    • Sc0rp schrieb:

      Re,

      Andre schrieb:

      bei der Erweiterung meines RAID 5 von 4 auf 6 HDD ist während dem reshape das System abgeschmiert und es wurde ein Neustart erforderlich.
      Wie ist denn das passiert? Und welchen "Befehl" hast du zur Erweiterung benutzt / wie hast du das gestartet?

      Andre schrieb:

      Danach passierte nichts weiter und das RAID 5 wird nicht mehr angezeigt.
      Wie hast du festgestellt "das nix weiter passiert" ?

      Andre schrieb:

      Wie kann ich den reshape-Vorgang fortsetzen und das Raid wiederherstellen?
      Via Konsole ...
      Also, deine Ausgabe ist schwer leserlich ... daher setzte doch mal bitte folgende Befehle auf der Konsole ab, um uns einen Überblick zu verschaffen:
      cat /proc/mdstat
      mdadm -D /dev/md127
      (bitte benutze beim Posten das "Code" Makro)

      ACHTUNG: bevor wir anfangen zu reparieren, gilt es erstmal den Systemzustand genau zu analysieren, d.h. zuerst Mal kommen nur Abfragebefehle ...

      Sc0rp
      Hallo Sc0rp,

      zunächst schon mal Vielen Dank für deine schnelle Antwort.

      Ich betreibe das System schon etwas länger, hab dieses aber lediglich nach Anleitung aufgebaut. Bin also absoluter Anfänger.

      Bezüglich deiner Fragen:
      Ich hatte den reshape-Vorgang über die WebGui gestartet. Zwei neue HDD eingebaut, diese wurden angezeigt, und über die RAID Verwaltung "vergrößern" angewählt.
      Dies wurde nachmittags gestartet und am nächsten Morgen war das NAS im Standby.
      Nach dem Wecken des NAS wurde das RAID nicht mehr angezeigt

      Die Ergebnisse der Konsole kann ich leider erst heute Abend mitteilen, bin nicht zuhause.
      Was meinst du mit "benutze beim Posten das "Code" Makro"?

      Andre

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Andre ()

    • Re,

      unwahrscheinlich ... hab z.H. viel zu tun, muss mal schauen, ob ich das hinbekomme.

      Liefere erstmal die Befehle, bewahre Ruhe und dann schauen wir weiter. Und bitte soweit wie möglich "schreibende" Befehle vermeiden ...
      Wahrscheinlich gibt es dann noch weitere (Analyse-) Befehle - ist ja nur erstmal ein grober Überblick ... hier noch ein paar Standardbefehle:
      blkid (zeigt die Zuordnung der UUIDs)
      cat /proc/partitions (zeigt sämtliche erkannte Partitionen an)

      Und dann machen wir mit den mdadm Befehlen weiter ...

      Sc0rp
    • Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Wed Mar 15 18:48:38 2017 from ritze-pc
      10. root@NAS:~# cat /proc/mdstat
      11. Personalities : [raid6] [raid5] [raid4]
      12. md127 : inactive sdb[0] sda[5] sdc[3] sdd[2] sde[1]
      13. 29301957560 blocks super 1.2
      14. unused devices: <none>
      15. root@NAS:~#
      Alles anzeigen

      Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Wed Mar 15 18:51:53 2017 from ritze-pc
      10. root@NAS:~# mdadm -D /dev/md127
      11. /dev/md127:
      12. Version : 1.2
      13. Creation Time : Fri Oct 9 21:34:47 2015
      14. Raid Level : raid5
      15. Used Dev Size : -1
      16. Raid Devices : 6
      17. Total Devices : 5
      18. Persistence : Superblock is persistent
      19. Update Time : Mon Mar 13 05:51:03 2017
      20. State : active, degraded, Not Started
      21. Active Devices : 5
      22. Working Devices : 5
      23. Failed Devices : 0
      24. Spare Devices : 0
      25. Layout : left-symmetric
      26. Chunk Size : 512K
      27. Delta Devices : 2, (4->6)
      28. Name : NAS:NAS (local to host NAS)
      29. UUID : 08db838c:1e88b7a8:fc136e44:07cc5cb1
      30. Events : 1974
      31. Number Major Minor RaidDevice State
      32. 0 8 16 0 active sync /dev/sdb
      33. 1 8 64 1 active sync /dev/sde
      34. 2 8 48 2 active sync /dev/sdd
      35. 3 8 32 3 active sync /dev/sdc
      36. 5 8 0 4 active sync /dev/sda
      37. 5 0 0 5 removed
      38. root@NAS:~#
      Alles anzeigen

      Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Wed Mar 15 18:53:57 2017 from ritze-pc
      10. root@NAS:~# blkid
      11. /dev/sdb: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="9ff77b6a-1ab0-67f7-584f-a0e1cef0d6af" LABEL="NAS:NAS" TYPE="linux_raid_member"
      12. /dev/sdc: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="c199b73d-272e-0590-9c4b-63c95052f803" LABEL="NAS:NAS" TYPE="linux_raid_member"
      13. /dev/sdd: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="3f9ecb13-6799-642d-56ba-fff97659723c" LABEL="NAS:NAS" TYPE="linux_raid_member"
      14. /dev/sda: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="b9cc6568-af2d-9e5a-3da8-3c075855f962" LABEL="NAS:NAS" TYPE="linux_raid_member"
      15. /dev/sde: UUID="08db838c-1e88-b7a8-fc13-6e4407cc5cb1" UUID_SUB="b1f37539-560e-a21b-3a17-36c6d7a72538" LABEL="NAS:NAS" TYPE="linux_raid_member"
      16. /dev/sdg1: UUID="805b7ada-3d03-4ed7-b9af-3321e8224585" TYPE="ext4"
      17. /dev/sdg5: UUID="7fc5d6e5-77f2-4bd5-a39e-66f7929e8655" TYPE="swap"
      18. root@NAS:~#
      Alles anzeigen

      Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Wed Mar 15 18:56:16 2017 from ritze-pc
      10. root@NAS:~# cat /proc/partitions
      11. major minor #blocks name
      12. 8 16 5860522584 sdb
      13. 8 0 5860522584 sda
      14. 8 32 5860522584 sdc
      15. 8 48 5860522584 sdd
      16. 8 64 5860522584 sde
      17. 8 80 5860522584 sdf
      18. 8 81 5860521543 sdf1
      19. 8 96 58615704 sdg
      20. 8 97 56190976 sdg1
      21. 8 98 1 sdg2
      22. 8 101 2421760 sdg5
      23. root@NAS:~#
      Alles anzeigen
    • Re,

      Perfekt!

      Also dein RAID startet nicht mehr automatisch, weil die Platte "sdf" aus Sicht des Systems anscheinend total "kaputt" ist: es werden Partitonen erkannt, die nicht vorhanden sind (sieht man am Unterschied zw. cat /proc/partitions und blkid) und der RAID-Verbund kann mit diesem Zustand nix anfangen ... daher hat mdadm den Status auf "Inactive" gesetzt.

      Trotz aller Widrigkeiten, sieht dein RAID-Verbund aber gut aus - der Status "harmoniert" mit den anderen Ausgaben, und mdadm hat den Status einfach "eingefroren" und beklagt keinerlei "zerstörerischen" Fehler ...

      D.h., die weiteren Schritte werden sein:
      1) Klärung des Status der Platte "sdf" (wo kommt die Platte her?)
      2) Löschen der Startsektoren der Platte "sdf"
      3) Hinzufügen von "sdf" zum RAID-Verbund (inkl. Statusabfrage)
      4) (Re-) Aktivieren des Verbundes (inkl. Statusabfrage)
      5) ggf. Restart der RAID-Size-Migration (sollte aber automatisch wieder anlaufen)

      Wir machen das Schritt für Schritt und kontrollieren nach jedem Schritt immer den Zustand ... aber erstmal:
      1) wo kommt die Platte her? Was hat die vorher gemacht? Können etwaige Daten gelöscht werden?

      Sc0rp
    • Hallo Sc0rp,

      danke für deine ausführliche Erklärung.

      Zu Punkt 1)
      Die Platte "sdf" sowie dann wohl auch die Platte "sde" habe ich nachträglich zur Erweiterung angeschlossen. Beides sind WD60EFRX-Platten, wobei eine davon für kurze Zeit in meinem Windows-PC lief und auch gelöscht werden kann.
      Die andere Platte wurde neu gekauft.

      Andre
    • Re,

      okay, das deckt sich auch mit dem Partitionslayout ... "sdf" ist demnach die alte Windows-Platte.

      Anmerkung zwischendurch: du setzt keinen Backport-Kernel ein - warum?

      Kommen wir also zu 2) Platte "nullen":
      dd if=/dev/zero of=/dev/sdf bs=4096 count=10 (überschreibt die ersten 10 4KiB-Blöcke mit Nullen -> Partitions- und Bootinformationen gelöscht)
      Prüfen mit:
      cat /proc/partitions

      Dann kommen wir zum RAID und adden die Platte:
      mdadm /dev/md127 --add /dev/sdf (fügt die fehlende Platte dem RAID-Verbund als "HotSpare" hinzu)
      Achtung: hier bitte die Ausgabe des Befehls posten ... falls es eine gibt, ansonsten:
      mdadm -D /dev/md127
      cat /proc/mdstat

      Sc0rp
    • okay, vielen Dank.

      Ich kann die Befehle leider erst heute Abend absetzen und werde dann erneut auf dich zurückkommen :)

      Bezüglich der Backport-Kernel hatte ich mal einen Testbericht gelesen, aber weiter keine Gedanken gemacht.
      Sollten wir mein RAID wieder zum Laufen bringen, können wir uns dies aber gern mal anschauen :D

      Kann mich immer wieder nur für deine super Unterstützung bedanken :thumbsup:
    • Der Backportkernel ist deutlich aktueller, aktuelle Treiber, was auch den Stromverbrauch senkt ;)
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Wed Mar 15 18:57:43 2017 from ritze-pc
      10. root@NAS:~# dd if=/dev/zero of=/dev/sdf bs=4096 count=10
      11. 10+0 Datensätze ein
      12. 10+0 Datensätze aus
      13. 40960 Bytes (41 kB) kopiert, 0,48467 s, 84,5 kB/s
      14. root@NAS:~# cat /proc/partitions
      15. major minor #blocks name
      16. 8 48 5860522584 sdd
      17. 8 32 5860522584 sdc
      18. 8 16 5860522584 sdb
      19. 8 0 5860522584 sda
      20. 8 80 5860522584 sdf
      21. 8 81 5860521543 sdf1
      22. 8 96 58615704 sdg
      23. 8 97 56190976 sdg1
      24. 8 98 1 sdg2
      25. 8 101 2421760 sdg5
      26. 8 64 5860522584 sde
      27. root@NAS:~# mdadm /dev/md127 --add /dev/sdf
      28. mdadm: add new device failed for /dev/sdf as 6: Invalid argument
      29. root@NAS:~#
      Alles anzeigen
    • da hat ein Befehl gefehlt. Du hast zwar die Partitions auf /dev/sdf platt gemacht (auf der Disk), aber Linux hat sie noch im Cache.
      am einfachsten einen schnellen Reboot und dann wird das ganze wieder von der Festplatte gelesen (und dann sollte /dev/sdf1 Geschichte sein).
      SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
      MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
    • Nach Neustart und erneuter Eingabe gab es diese Meldung

      Quellcode

      1. login as: root
      2. root@192.168.2.113's password:
      3. Linux NAS 3.2.0-4-amd64 #1 SMP Debian 3.2.73-2+deb7u1 x86_64
      4. The programs included with the Debian GNU/Linux system are free software;
      5. the exact distribution terms for each program are described in the
      6. individual files in /usr/share/doc/*/copyright.
      7. Debian GNU/Linux comes with ABSOLUTELY NO WARRANTY, to the extent
      8. permitted by applicable law.
      9. Last login: Thu Mar 16 18:20:06 2017 from ritze-pc
      10. root@NAS:~# mdadm /dev/md127 --add /dev/sdf
      11. mdadm: Cannot open /dev/sdf: Device or resource busy
      12. root@NAS:~#
      Alles anzeigen