Raid 5 erweitern

    Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

    • Raid 5 erweitern

      Hallo,

      wollte unter OMV 3.0 4 neue 4 TB HDDs in mein Raid 5 einhängen.

      Wie beim letzten mal auch, wo ich nur eine HDD eingefügt habe.

      Platte ausgewählt, "Vergrößern" geklickt und folgende Fehlermeldung bekommen


      Fehler #0:exception 'OMV\ExecException' with message 'Failed to execute command 'export PATH=/bin:/sbin:/usr/bin:/usr/sbin:/usr/local/bin:/usr/local/sbin; export LANG=C; mdadm --grow --size=max --raid-devices=5 '/dev/md127' 2>&1' with exit code '1': mdadm: cannot change component size at the same time as other changes. Change size first, then check data is intact before making other changes.' in /usr/share/php/openmediavault/system/process.inc:174Stack trace:#0 /usr/share/openmediavault/engined/rpc/raidmgmt.inc(312): OMV\System\Process->execute()#1 [internal function]: OMVRpcServiceRaidMgmt->grow(Array, Array)#2 /usr/share/php/openmediavault/rpc/serviceabstract.inc(124): call_user_func_array(Array, Array)#3 /usr/share/php/openmediavault/rpc/rpc.inc(84): OMV\Rpc\ServiceAbstract->callMethod('grow', Array, Array)#4 /usr/sbin/omv-engined(516): OMV\Rpc\Rpc::call('RaidMgmt', 'grow', Array, Array, 1)#5 {main}

      Danach ist die Platte oder auch alle 4 Platten im Raid, aber als Spare. Würde die aber gerne als aktive Platten nutzen. Was mache ich falsch oder wie bekomme ich die Platten ins Raid.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Evilernie ()

    • Hallo,

      anscheinend kann man im OMV 3.x immer nur eine Platte hinzufügen - der Befehl, der ans System gesendet wurde:
      mdadm --grow --size=max --raid-devices=5 '/dev/md127' 2>&1
      zeigt, das nur 5 Platten angegeben wurden ... warum auch immer, mdadm mag das anscheinend nicht.

      Die Anleitung unter wiki.ubuntuusers.de/Software-RAID/ zeigt den Weg über die Konsole (den du auch gehen musst).
      Auch den Artikel unter raid.wiki.kernel.org/index.php/Growing würde ich lesen ;).

      Im Prinzip addest du erst alle Drives zum RAID-Verbund, dann erweiterst du ihn ("growing", danach sollte ein Rebuild starten), wenn das Rebuild fertig ist, musst du noch das Dateisystem erweitern ... hier musst du aufpassen, denn nicht alle FS unterstützen soviel Platz (vorher belesen).

      Da bei dir schon alle vier Laufwerke als Spare-Drives eingebunden sind, müsstest du:
      - den RAID-Verbund aushängen (sicher ist sicher) (umount /dev/md127 -> könnte aber schwierig werden, da sicher benutzt)
      - dann den Verbund erweitern:
      mdadm --grow --size=max --raid-devices=8 /dev/md127
      - und nach Abschluß muss dann noch das Dateisystem erweitert werden (resize2fs, xfs_growfs, ...)

      Sc0rp
    • EXT4 soll ja hoffentlich reichen

      und jetzt meine nächste Frage:

      wenn ich es ausführe


      mdadm --grow --size=max --raid-devices=8 /dev/md127
      kommt folgender Fehler


      mdadm: cannot change component size at the same time as other changes.
      Change size first, then check data is intact before making other changes.

      Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Evilernie ()

    • Schrieb Scorp ja oben, das du alle einzelnd einbinden mußt. Ob das in OMV3 so gewollt ist...
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • Sc0rp schrieb:

      Im Prinzip addest du erst alle Drives zum RAID-Verbund, dann erweiterst du ihn ("growing", danach sollte ein Rebuild starten), wenn das Rebuild fertig ist, musst du noch das Dateisystem erweitern ... hier musst du aufpassen, denn nicht alle FS unterstützen soviel Platz (vorher belesen).
      Hast du Scorps Beitrag gelesen? ;)

      Du mußt nach jeder neuen Platte einen Rebuild laufen lassen, klar ist das deutlich aufwändiger als im Snapraid, jedem das seine.
      Ich für mich mag diese Umständliche Prozedur, die Zeitverschwendung überhautnicht.
      Hardware: Asrock H97 Performance, Intel I3 4160, 2x G.Skill F3-1600C11S-8GNT (16gb Ram), be quiet Pure Power L8 300W, Thermalright LeGrande Macho,
      Nanoxia Deep Silence 5 Rev.b, Kingston SSDNow V300 2,5" SSD 120 GB, Western Digital Red 3x4tb,1x4tb HGST Deskstar Nas

      Software: Openmediavault 3.0.99 Erasmus, 4.9.0-0.bpo.6-amd64, Snapraid mit mergerfs Pool, Minidlna, Plex, MySql, ClaimAV, Powertop und Sonstiges
    • Re,

      Joogie schrieb:

      Du mußt nach jeder neuen Platte einen Rebuild laufen lassen
      Das ist nicht korrekt, man müsste auch Bulk-Operationen machen können - allerdings hatte er ja schon eine Platte hinzugefügt, und danach nochmal alle vier ... damit kam der mdadm anscheinend nicht klar. Mangels Informationen konnte ich auch nicht heraus finden, was ihm gefehlt hat, daher auch der Fehler "mdadm: cannot change component size at the same time as other changes" - da war wohl schon eine Aktion im Gange.

      Bitte poste mal ein:
      cat /proc/mdstat (zeigt den Status aller RAID-Verbünde an)

      Da sieht man dann mehr ... du könntest auch noch ein:
      mdadm --detail /dev/md127 (zeigt detailliert ddie Daten des RAID-Verbundes an)
      ... nachschieben.

      Sc0rp

      ps: natürlich zuerst alle Platten ind en Verbund aufnehmen (also in das RAID5, nicht als Spare ;)) und am Ende dann das Dateisystem vergrößern.
    • Sc0rp schrieb:

      Re,

      Joogie schrieb:

      Du mußt nach jeder neuen Platte einen Rebuild laufen lassen
      Bitte poste mal ein:
      cat /proc/mdstat (zeigt den Status aller RAID-Verbünde an)
      root@EvilCakeNAS:~# cat /proc/mdstat
      Personalities : [raid6] [raid5] [raid4]
      md127 : active raid5 sdi[7] sdh[6](S) sdg[5](S) sdf[4](S) sdb[0] sde[3] sdd[2] s dc[1]
      11720661504 blocks super 1.2 level 5, 512k chunk, algorithm 2 [5/5] [UUUUU ]
      [=============>.......] reshape = 66.9% (2613842432/3906887168) finish=69 8.1min speed=30868K/sec
      bitmap: 0/30 pages [0KB], 65536KB chunk
      unused devices: <None>


      Da sieht man dann mehr ... du könntest auch noch ein:
      mdadm --detail /dev/md127 (zeigt detailliert ddie Daten des RAID-Verbundes an)
      ... nachschieben.
      root@EvilCakeNAS:~# mdadm --detail /dev/md127
      /dev/md127:
      Version : 1.2
      Creation Time : Mon Jun 27 23:50:43 2016
      Raid Level : raid5
      Array Size : 11720661504 (11177.69 GiB 12001.96 GB)
      Used Dev Size : 3906887168 (3725.90 GiB 4000.65 GB)
      Raid Devices : 5
      Total Devices : 8
      Persistence : Superblock is persistent
      Intent Bitmap : Internal
      Update Time : Tue Nov 22 10:38:01 2016
      State : clean, reshaping
      Active Devices : 5
      Working Devices : 8
      Failed Devices : 0
      Spare Devices : 3
      Layout : left-symmetric
      Chunk Size : 512K
      Reshape Status : 67% complete
      Delta Devices : 1, (4->5)
      Name : openmediavault:Seagate4TB
      UUID : 126e3990:e7e4adf4:222d25a8:70425912
      Events : 21539
      Number Major Minor RaidDevice State
      0 8 16 0 active sync /dev/sdb
      1 8 32 1 active sync /dev/sdc
      2 8 48 2 active sync /dev/sdd
      3 8 64 3 active sync /dev/sde
      7 8 128 4 active sync /dev/sdi
      4 8 80 - spare /dev/sdf
      5 8 96 - spare /dev/sdg
      6 8 112 - spare /dev/sdh