Raid 5 Verschwunden

  • OMV2

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Raid 5 Verschwunden

    Hallo liebe Forengemeinde,
    vor ca einem Jahr habe ich mein Raid 5 (3x2TB Platten) mit einer zusätzlichen 2 TB Platte erweitern wollen.
    Openmediavault sah das nicht so wie ich und sorgte dafür das mein Raid 1 und mein Raid 5 einfach nicht mehr in der GUI zu sehen waren.
    Die Rais 1 Platten habe ich mittlerweile aus dem System entfernt.
    In der Zwischenzeit stand das NAS ungenutzt in der Ecke . Und nun wollte ich mal schauen ob man da nicht vielleicht was machen kann.
    Meine Google Suche brachte mich unter anderen zu euch ins Forum.

    Lange Rede kurzer Sinn, ein paar Infos zum Systemzustand:

    cat /proc/mdstat

    Quellcode

    1. Personalities : [raid6] [raid5] [raid4]
    2. md0 : inactive sda[0] sdd[4] sdc[2] sdb[1]
    3. 7813534048 blocks super 1.2
    4. unused devices: <none>



    blkid

    Quellcode

    1. /dev/sda: UUID="24b73885-3343-19fc-f1db-29327f691d90" UUID_SUB="a461ce5c-809d-d4fe-aee9-bbde29ad6b57" LABEL="omv1:Raid05" TYPE="linux_raid_member"
    2. /dev/sdd: UUID="24b73885-3343-19fc-f1db-29327f691d90" UUID_SUB="20d78f80-c6cc-1acc-535d-7206137ece44" LABEL="omv1:Raid05" TYPE="linux_raid_member"
    3. /dev/sdc: UUID="24b73885-3343-19fc-f1db-29327f691d90" UUID_SUB="466e9ef6-a9d1-9ee2-9193-9031d5dbcaa6" LABEL="omv1:Raid05" TYPE="linux_raid_member"
    4. /dev/sdb: UUID="24b73885-3343-19fc-f1db-29327f691d90" UUID_SUB="f88b81c2-8def-b213-6c0e-1ee92b2371dd" LABEL="omv1:Raid05" TYPE="linux_raid_member"
    5. /dev/sde1: UUID="1803f46f-d940-404b-b699-9abcf95d7f73" TYPE="ext4"
    6. /dev/sde5: UUID="cea062ff-426d-4b80-840e-9217e2d8a852" TYPE="swap"
    fdisk -l | grep "Disk "

    Quellcode

    1. Disk /dev/sdb doesn't contain a valid partition table
    2. WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.
    3. Disk /dev/sdd doesn't contain a valid partition table
    4. Disk /dev/sdc doesn't contain a valid partition table
    5. Disk /dev/sdb: 2000.4 GB, 2000398934016 bytes
    6. Disk identifier: 0x11121111
    7. Disk /dev/sda: 2000.4 GB, 2000398934016 bytes
    8. Disk identifier: 0x00000000
    9. Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
    10. Disk identifier: 0x983399e3
    11. Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
    12. Disk identifier: 0x00000000
    13. Disk /dev/sde: 60.0 GB, 60022480896 bytes
    14. Disk identifier: 0x000dd75e
    15. root@omv1:~# Disk /dev/sdb doesn't contain a valid partition table
    16. >
    17. > WARNING: GPT (GUID Partition Table) detected on '/dev/sda'! The util fdisk doesn't support GPT. Use GNU Parted.
    18. Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
    19. Disk identifier: 0x983399e3
    20. Disk /dev/sdc: 2000.4 GB, 2000398934016 bytes
    21. Disk identifier: 0x00000000
    22. Disk /dev/sde: 60.0 GB, 60022480896 bytes
    23. Disk identifier: 0x000dd75e
    Alles anzeigen
    cat /etc/mdadm/mdadm.conf

    Quellcode

    1. # mdadm.conf
    2. #
    3. # Please refer to mdadm.conf(5) for information about this file.
    4. #
    5. # by default, scan all partitions (/proc/partitions) for MD superblocks.
    6. # alternatively, specify devices to scan, using wildcards if desired.
    7. # Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
    8. # To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
    9. # used if no RAID devices are configured.
    10. DEVICE partitions
    11. # auto-create devices with Debian standard permissions
    12. CREATE owner=root group=disk mode=0660 auto=yes
    13. # automatically tag new arrays as belonging to the local system
    14. HOMEHOST <system>
    15. # definitions of existing MD arrays
    16. ARRAY /dev/md0 metadata=1.2 spares=1 name=omv1:Raid05 UUID=24b73885:334319fc:f1db2932:7f691d90
    Alles anzeigen
    und zum Schluss:
    mdadm --detail --scan --verbose

    Quellcode

    1. ARRAY /dev/md0 level=raid5 num-devices=4 metadata=1.2 spares=1 name=omv1:Raid05 UUID=24b73885:334319fc:f1db2932:7f691d90
    2. devices=/dev/sda,/dev/sdb,/dev/sdc,/dev/sdd

    Ich hoffe ihr könnt mir helfen das Raid wieder einzubinden.
  • Re,

    damit wir wissen, warum der Verbund "inactive" ist, wäre ein
    mdadm -D /dev/md0
    noch hilfreich ...

    Prizzle schrieb:

    vor ca einem Jahr habe ich mein Raid 5 (3x2TB Platten) mit einer zusätzlichen 2 TB Platte erweitern wollen.
    Ja, das hat es auch - das sieht man an "spares=1" ... du hast die Platte zum Verbund hinzugefügt, aber den Verbund dabei nicht erweitern lassen, so ist die zusätzliche Platte als "Spare" eingebunden worden (das ist das Standardverhalten).

    Prizzle schrieb:

    Openmediavault sah das nicht so wie ich und sorgte dafür das mein Raid 1 und mein Raid 5 einfach nicht mehr in der GUI zu sehen waren.
    Vermutlich der alte "md127" Bug ...

    Prizzle schrieb:

    Die Rais 1 Platten habe ich mittlerweile aus dem System entfernt.
    Jupp, und zwar komplett - sonst würden per "autodetection" noch Reste erkannt werden.

    Prizzle schrieb:

    Und nun wollte ich mal schauen ob man da nicht vielleicht was machen kann.
    Unter Linux kann man immer Was machen ... xD

    Sc0rp
  • Sc0rp schrieb:

    damit wir wissen, warum der Verbund "inactive" ist, wäre ein
    mdadm -D /dev/md0
    noch hilfreich ...
    Sehr gerne:

    Quellcode

    1. Version : 1.2
    2. Creation Time : Sun Nov 22 18:26:29 2015
    3. Raid Level : raid5
    4. Used Dev Size : 1953382912 (1862.89 GiB 2000.26 GB)
    5. Raid Devices : 4
    6. Total Devices : 4
    7. Persistence : Superblock is persistent
    8. Update Time : Sun Jan 21 19:53:48 2018
    9. State : active, degraded, Not Started
    10. Active Devices : 3
    11. Working Devices : 4
    12. Failed Devices : 0
    13. Spare Devices : 1
    14. Layout : left-symmetric
    15. Chunk Size : 512K
    16. Name : omv1:Raid05 (local to host omv1)
    17. UUID : 24b73885:334319fc:f1db2932:7f691d90
    18. Events : 16917
    19. Number Major Minor RaidDevice State
    20. 0 8 32 0 active sync /dev/sdc
    21. 1 8 48 1 active sync /dev/sdd
    22. 2 8 64 2 active sync /dev/sde
    23. 4 8 0 3 spare rebuilding /dev/sda
    Alles anzeigen
  • Re,

    anscheinend ist bei deinem Festplattenwechsel etwas schief gegangen:
    "State : active, degraded, Not Started"
    (EDIT: /dev/sdb fehlt in den Auflistungen, daher versucht der Verbund jetzt das Spare-Laufwerk einztubinden)

    Aber versuche zuerst mal ein einfaches "Activate":
    mdadm -A /dev/md0

    Und danach einfach nachschauen:
    cat /proc/mdstat
    ... ob sich etwas geändert hat.

    Sc0rp
  • Nein, keine Fehlermeldung oder Bestätigung:

    Quellcode

    1. root@omv1:~# mdadm -A /dev/md0
    2. root@omv1:~# cat /proc/mdstat
    3. Personalities : [raid6] [raid5] [raid4]
    4. md0 : inactive sdc[0] sda[4] sde[2] sdd[1]
    5. 7813534048 blocks super 1.2
    6. unused devices: <none>
    LG

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Prizzle ()

  • Re,

    dann kannst du es entweder noch mit
    mdadm –run /dev/md0

    versuchen, oder muss die harte Keule schwingen:
    mdadm –assemble /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde

    Und wenn das nicht geht, dann ganz brutal "erzwingen":
    mdadm --assemble --run --force [--update=resync] /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde
    (Optionen in eckigen Klammern sind optional, müsst auch ohne gehen)

    Sc0rp
  • Nun wird es Interessant:

    Quellcode

    1. root@omv1:~# mdadm –run /dev/md0
    2. mdadm: An option must be given to set the mode before a second device
    3. (/dev/md0) is listed
    4. root@omv1:~# mdadm –assemble /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde
    5. mdadm: An option must be given to set the mode before a second device
    6. (/dev/md0) is listed
    7. root@omv1:~# mdadm --assemble --run --force [--update=resync] /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde
    8. mdadm: no correct container type: /dev/md0
    9. mdadm: /dev/md0 has no superblock - assembly aborted
    Und nochmal ohne die Optionen in den eckigen Klammern:

    Quellcode

    1. root@omv1:~# mdadm --assemble --run --force /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde
    2. mdadm: /dev/sda is busy - skipping
    3. mdadm: /dev/sdc is busy - skipping
    4. mdadm: /dev/sdd is busy - skipping
    5. mdadm: /dev/sde is busy - skipping
    LG Prizzle
  • Sc0rp schrieb:


    cat /proc/mdstat

    Quellcode

    1. Personalities : [raid6] [raid5] [raid4]
    2. md0 : inactive sda[0] sdd[4] sdc[2] sdb[1]
    3. 7813534048 blocks super 1.2
    4. unused devices: <none>

    Sc0rp schrieb:

    mdadm --examine /dev/sd[acde]

    Quellcode

    1. /dev/sda:
    2. Magic : a92b4efc
    3. Version : 1.2
    4. Feature Map : 0x0
    5. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    6. Name : omv1:Raid05 (local to host omv1)
    7. Creation Time : Sun Nov 22 18:26:29 2015
    8. Raid Level : raid5
    9. Raid Devices : 4
    10. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    11. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    12. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    13. Data Offset : 262144 sectors
    14. Super Offset : 8 sectors
    15. State : active
    16. Device UUID : a461ce5c:809dd4fe:aee9bbde:29ad6b57
    17. Update Time : Sun Jan 21 19:53:48 2018
    18. Checksum : 9bd04477 - correct
    19. Events : 16917
    20. Layout : left-symmetric
    21. Chunk Size : 512K
    22. Device Role : Active device 0
    23. Array State : AAAA ('A' == active, '.' == missing)
    24. /dev/sdc:
    25. Magic : a92b4efc
    26. Version : 1.2
    27. Feature Map : 0x0
    28. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    29. Name : omv1:Raid05 (local to host omv1)
    30. Creation Time : Sun Nov 22 18:26:29 2015
    31. Raid Level : raid5
    32. Raid Devices : 4
    33. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    34. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    35. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    36. Data Offset : 262144 sectors
    37. Super Offset : 8 sectors
    38. State : active
    39. Device UUID : 466e9ef6:a9d19ee2:91939031:d5dbcaa6
    40. Update Time : Sun Jan 21 19:53:48 2018
    41. Checksum : bb9e5dd3 - correct
    42. Events : 16917
    43. Layout : left-symmetric
    44. Chunk Size : 512K
    45. Device Role : Active device 2
    46. Array State : AAAA ('A' == active, '.' == missing)
    47. /dev/sdd:
    48. Magic : a92b4efc
    49. Version : 1.2
    50. Feature Map : 0x2
    51. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    52. Name : omv1:Raid05 (local to host omv1)
    53. Creation Time : Sun Nov 22 18:26:29 2015
    54. Raid Level : raid5
    55. Raid Devices : 4
    56. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    57. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    58. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    59. Data Offset : 262144 sectors
    60. Super Offset : 8 sectors
    61. Recovery Offset : 414962440 sectors
    62. State : active
    63. Device UUID : 20d78f80:c6cc1acc:535d7206:137ece44
    64. Update Time : Sun Jan 21 19:53:48 2018
    65. Checksum : baad00d5 - correct
    66. Events : 16917
    67. Layout : left-symmetric
    68. Chunk Size : 512K
    69. Device Role : Active device 3
    70. Array State : AAAA ('A' == active, '.' == missing)
    71. /dev/sde:
    72. MBR Magic : aa55
    73. Partition[0] : 112381952 sectors at 2048 (type 83)
    74. Partition[1] : 4843522 sectors at 112386046 (type 05)
    Alles anzeigen
    LG
  • Re,

    warum hat sich die Gerätezusammensetzung geändert?
    md0 : inactive sdc[0] sda[4] sde[2] sdd[1] (19.07. / Freitag, 11:17)
    vs.
    md0 : inactive sda[0] sdd[4] sdc[2] sdb[1] (22.07. / Montag, 10:27)

    Das sieht danach aus, als hättest Du etwas "umgesteckt" ... ?

    ... dann musst du natürlich auch die Befehle entsprechend anpassen:

    mdadm --examine /dev/sd[abcd]
    mdadm –assemble /dev/md0 /dev/sda[abcd]
    mdadm –assemble --run /dev/md0 /dev/sda[abcd]
    mdadm --assemble --run --force --update=resync /dev/md0 /dev/sda[abcd]

    ABER ACHTUNG:
    das bisherige "/dev/sde" gehört nicht zum RAID-Verbund - das sieht an der Ausgabe des letzen Befehles - sollte das jetzige /dev/sdb das ehemalige /dev/sde sein, fehlt eine Platte deines ursprünglichen RAID-Verbundes!
    Dann müsstest du:
    - die "dev/sde" aus dem Verbund entfernen
    - den Verbund mit der Option "--missing" starten
    - die "dev/sde" "nullen"
    - die "dev/sde" dem RAID-Verbund erneut hinzufügen

    Prizzle schrieb:

    Und nochmal ohne die Optionen in den eckigen Klammern:
    Die eckigen Klammern musst du aber vorher schon entfernen ...

    Sc0rp
  • Sc0rp schrieb:

    Re,

    warum hat sich die Gerätezusammensetzung geändert?
    md0 : inactive sdc[0] sda[4] sde[2] sdd[1] (19.07. / Freitag, 11:17)
    vs.
    md0 : inactive sda[0] sdd[4] sdc[2] sdb[1] (22.07. / Montag, 10:27)

    Das sieht danach aus, als hättest Du etwas "umgesteckt" ... ?

    ... dann musst du natürlich auch die Befehle entsprechend anpassen:

    mdadm --examine /dev/sd[abcd]
    mdadm –assemble /dev/md0 /dev/sda[abcd]
    mdadm –assemble --run /dev/md0 /dev/sda[abcd]
    mdadm --assemble --run --force --update=resync /dev/md0 /dev/sda[abcd]

    ABER ACHTUNG:
    das bisherige "/dev/sde" gehört nicht zum RAID-Verbund - das sieht an der Ausgabe des letzen Befehles - sollte das jetzige /dev/sdb das ehemalige /dev/sde sein, fehlt eine Platte deines ursprünglichen RAID-Verbundes!
    Dann müsstest du:
    - die "dev/sde" aus dem Verbund entfernen
    - den Verbund mit der Option "--missing" starten
    - die "dev/sde" "nullen"
    - die "dev/sde" dem RAID-Verbund erneut hinzufügen
    Ich hatte am WE nochmal die Raid 1 Platten wieder eingebaut um zu sehen ob sich da was regt . War aber nicht der Fall. Hatte die gestern schon wieder entfernt.
    Aber es ist genau die gleiche Plattenbesetzung wie zu Anfang.

    mdadm --examine /dev/sd[abcd]:

    Quellcode

    1. /dev/sda:
    2. Magic : a92b4efc
    3. Version : 1.2
    4. Feature Map : 0x0
    5. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    6. Name : omv1:Raid05 (local to host omv1)
    7. Creation Time : Sun Nov 22 18:26:29 2015
    8. Raid Level : raid5
    9. Raid Devices : 4
    10. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    11. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    12. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    13. Data Offset : 262144 sectors
    14. Super Offset : 8 sectors
    15. State : active
    16. Device UUID : a461ce5c:809dd4fe:aee9bbde:29ad6b57
    17. Update Time : Sun Jan 21 19:53:48 2018
    18. Checksum : 9bd04477 - correct
    19. Events : 16917
    20. Layout : left-symmetric
    21. Chunk Size : 512K
    22. Device Role : Active device 0
    23. Array State : AAAA ('A' == active, '.' == missing)
    24. /dev/sdb:
    25. Magic : a92b4efc
    26. Version : 1.2
    27. Feature Map : 0x0
    28. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    29. Name : omv1:Raid05 (local to host omv1)
    30. Creation Time : Sun Nov 22 18:26:29 2015
    31. Raid Level : raid5
    32. Raid Devices : 4
    33. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    34. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    35. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    36. Data Offset : 262144 sectors
    37. Super Offset : 8 sectors
    38. State : active
    39. Device UUID : f88b81c2:8defb213:6c0e1ee9:2b2371dd
    40. Update Time : Sun Jan 21 19:53:48 2018
    41. Checksum : a6c95b99 - correct
    42. Events : 16917
    43. Layout : left-symmetric
    44. Chunk Size : 512K
    45. Device Role : Active device 1
    46. Array State : AAAA ('A' == active, '.' == missing)
    47. /dev/sdc:
    48. Magic : a92b4efc
    49. Version : 1.2
    50. Feature Map : 0x0
    51. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    52. Name : omv1:Raid05 (local to host omv1)
    53. Creation Time : Sun Nov 22 18:26:29 2015
    54. Raid Level : raid5
    55. Raid Devices : 4
    56. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    57. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    58. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    59. Data Offset : 262144 sectors
    60. Super Offset : 8 sectors
    61. State : active
    62. Device UUID : 466e9ef6:a9d19ee2:91939031:d5dbcaa6
    63. Update Time : Sun Jan 21 19:53:48 2018
    64. Checksum : bb9e5dd3 - correct
    65. Events : 16917
    66. Layout : left-symmetric
    67. Chunk Size : 512K
    68. Device Role : Active device 2
    69. Array State : AAAA ('A' == active, '.' == missing)
    70. /dev/sdd:
    71. Magic : a92b4efc
    72. Version : 1.2
    73. Feature Map : 0x2
    74. Array UUID : 24b73885:334319fc:f1db2932:7f691d90
    75. Name : omv1:Raid05 (local to host omv1)
    76. Creation Time : Sun Nov 22 18:26:29 2015
    77. Raid Level : raid5
    78. Raid Devices : 4
    79. Avail Dev Size : 3906767024 (1862.89 GiB 2000.26 GB)
    80. Array Size : 5860148736 (5588.67 GiB 6000.79 GB)
    81. Used Dev Size : 3906765824 (1862.89 GiB 2000.26 GB)
    82. Data Offset : 262144 sectors
    83. Super Offset : 8 sectors
    84. Recovery Offset : 414962440 sectors
    85. State : active
    86. Device UUID : 20d78f80:c6cc1acc:535d7206:137ece44
    87. Update Time : Sun Jan 21 19:53:48 2018
    88. Checksum : baad00d5 - correct
    89. Events : 16917
    90. Layout : left-symmetric
    91. Chunk Size : 512K
    92. Device Role : Active device 3
    93. Array State : AAAA ('A' == active, '.' == missing)
    Alles anzeigen



    mdadm –assemble /dev/md0 /dev/sda[abcd]:



    Quellcode

    1. root@omv1:~# mdadm –assemble /dev/md0 /dev/sda[abcd]
    2. mdadm: An option must be given to set the mode before a second device
    3. (/dev/md0) is listed


    mdadm –assemble --run /dev/md0 /dev/sda[abcd]:

    Quellcode

    1. mdadm: No action given for –assemble in --misc mode
    2. Action options must come before device names


    mdadm --assemble --run --force --update=resync /dev/md0 /dev/sda[abcd]:

    Quellcode

    1. mdadm: cannot open device /dev/sda[abcd]: No such file or directory
    2. mdadm: /dev/sda[abcd] has no superblock - assembly aborted
    LG
  • Re,

    Prizzle schrieb:

    Die Platte kann ich erst später entfernen.
    musst du ja nicht (mehr) - das aktuelle Set sieht ja gut aus (Event-Counter und Device Roles stimmen, die UUIDs passen auch ...)

    Bei deinen Ausgaben ist mit aufgefallen, das manchmal keine doppelten Minuszeichen in der Befehlszeile drin sind - ist das korrekt?

    Theoretisch müsste mdadm --auto-detect auch schon funktionieren ... ich würde dir aber bei jedem Befehl zu einem zusätzlichen "-v" ("be more verbose") raten:
    mdadm -Rv /dev/md0 ("-R" steht für "--run" = man achte auf die Minuszeichen)
    (nach jedem Befehl dann cat /proc/mdstat konsultieren, ob sich am Zustand was geändert hat)

    Vresuch mit "Autodetection":
    mdadm --assemble --scan --run --verbose wäre dann gleichbedeutend mit mdadm -AsRv (Beides könntest du versuchen)

    Am Nahesten dran warst du bisher mit:
    "mdadm --assemble --run --force /dev/md0 /dev/sda /dev/sdc /dev/sdd /dev/sde"
    ... da hat aber etwas mit den Members nicht gestimmt, daher neuer Versuch mit "verbose" und dem neuen Plattenset:
    mdadm --assemble --run --force --verbose /dev/md0 /dev/sd[abcd] oder mdadm -ARfv /dev/md0 /dev/sd[abcd]
    Falls es wieder zum "device is busy" kommt, müssen wir rausbekommen, was genau die Platten "belegt" ...

    Sc0rp
  • Sc0rp schrieb:

    Falls es wieder zum "device is busy" kommt, müssen wir rausbekommen, was genau die Platten "belegt" ...
    Das ist genau der Fall.
    Deine Glaskugel funktioniert gut! Die Minuszeichen sind gelegentlich der Eile geschuldet (Zu schnell aus dem Terminal kopiert).
    Bei mdadm --assemble --run --force --verbose /dev/md0 /dev/sd[abcd] als auch bei mdadm -ARfv /dev/md0 /dev/sd[abcd] meldet die Maschine:

    Quellcode

    1. mdadm: looking for devices for /dev/md0
    2. mdadm: /dev/sda is busy - skipping
    3. mdadm: /dev/sdb is busy - skipping
    4. mdadm: /dev/sdc is busy - skipping
    5. mdadm: /dev/sdd is busy - skipping
    LG
  • Re,

    Prizzle schrieb:

    Deine Glaskugel funktioniert gut!
    Ja und nein ... denn eigentlich fängt jetzt erst die richtige Sucherei an :P

    Versuche mal ein
    mdadm --manage --stop --verbose /dev/md0 (das "--verbose" könntest du auch weglassen, falls er das anmeckert)
    (cat /proc/mdstat nicht vergessen)
    und danach wieder das
    mdadm -ARfv /dev/md0 /dev/sd[abcd]
    (cat /proc/mdstat nicht vergessen)

    Sc0rp
  • Sc0rp schrieb:

    Versuche mal ein

    mdadm --manage --stop --verbose /dev/md0

    Quellcode

    1. mdadm: stopped /dev/md0


    Sc0rp schrieb:

    (cat /proc/mdstat nicht vergessen)

    Quellcode

    1. Personalities : [raid6] [raid5] [raid4]
    2. unused devices: <none>

    Sc0rp schrieb:

    mdadm -ARfv /dev/md0 /dev/sd[acde]
    Hab den Code leicht angepasst , da sich die Laufwerke nach ein- und ausschalten wieder geändert hatten.

    Quellcode

    1. mdadm: looking for devices for /dev/md0
    2. mdadm: /dev/sda is identified as a member of /dev/md0, slot 3.
    3. mdadm: /dev/sdc is identified as a member of /dev/md0, slot 0.
    4. mdadm: /dev/sdd is identified as a member of /dev/md0, slot 1.
    5. mdadm: /dev/sde is identified as a member of /dev/md0, slot 2.
    6. mdadm: Marking array /dev/md0 as 'clean'
    7. mdadm: added /dev/sdd to /dev/md0 as 1
    8. mdadm: added /dev/sde to /dev/md0 as 2
    9. mdadm: added /dev/sda to /dev/md0 as 3
    10. mdadm: added /dev/sdc to /dev/md0 as 0
    11. mdadm: /dev/md0 has been started with 3 drives (out of 4) and 1 rebuilding.
    Alles anzeigen
    Und nun noch cat /proc/mdstat:

    Quellcode

    1. md0 : active (auto-read-only) raid5 sdc[0] sda[4] sde[2] sdd[1]
    2. 5860148736 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/3] [UUU_]
    3. unused devices: <none>
    Raid ist in der Verwaltung online, zeigt mir aber keine Daten an.

    Als Netzlaufwerk wird es auch noch nicht wieder erkannt (Bild im Anhang)
    LG
    Bilder
    • Dateisystemeomv.PNG

      16,82 kB, 900×146, 1 mal angesehen

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Prizzle ()

  • Re,
    diese Zeile gefällt mir nicht:

    Prizzle schrieb:

    mdadm: /dev/md0 has been started with 3 drives (out of 4) and 1 rebuilding.
    ... denn das heisst, das i'was mit einem Laufwerk nicht stimmt - es waren vier Laufwerke, Die allesamt zusammengepasst haben, jetzt passen Die aber nicht mehr? D.h. entweder ein Laufwerk "wechselt" ständig seine Zustand ... oder hat 'ne Macke ...

    Prizzle schrieb:

    Und nun noch cat /proc/mdstat:
    Da müsste man jetzt aber den Status des Rebuildes sehen ...

    Prizzle schrieb:

    Raid ist in der Verwaltung online, zeigt mir aber keine Daten an.
    Da müssen wir schauen, ob sich die UUID geändert hat und die /etc/fstab checken ...

    Prizzle schrieb:

    Als Netzlaufwerk wird es auch noch nicht wieder erkannt (Bild im Anhang)
    Das kommt als Letztes dran - auch hier könnte es u.U. nötig sein, die alte Freigabe zu löschen und neu anzulegen ...

    Wir haben jetzt den fast untersten Level gefixt (RAID-Verbund), danach kommt das Dateisystem dran, danach die Freigabe, danach Samba ... immer einen Schritt nach dem Anderen ;)

    Lass den Rebuild mal durchlaufen und starte danach den Rechner neu, ob sich dann der Verbund wieder "normal" meldet, oder neue Probleme (wegen dem "Wackel-Drive") auftauchen ... ein Backup der Daten wäre dazwischen auch nicht verkehrt!

    Sc0rp