NAS im Eigenbau - Passt alles? :)

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • NAS im Eigenbau - Passt alles? :)

    Hallo zusammen,

    ich will mir ein NAS zusammenstellen, dass man in Zukunft gut Upgraden kann. Was gibts groß zu sagen :)

    Was habe ich vor:
    Software:
    - Rockstor mit Software-Raid 5
    - Verschiedenes was so ansteht evtl. mit Docker
    - Plex
    - Seafile (Cloud)
    - Datenablage für Bilder, Dokumente und Videos
    - Datensicherung der Systemplatte über das Internet auf eine Festplatte bei meinem Bruder
    - Datensicherung der Daten (Man weiß ja nie ob das Haus abbrennt) auch über das Netz inkrementel auf ein anderes NAS bzw. Festplatten bei meinem Bruder im Haushalt.

    Bisher rausgesuchte Hardware:
    Motherboard: Supermicro X11SSM-F Intel C236 So.1151 Dual Channel DDR4 mATX Retail
    CPU: Intel Pentium Gold G5400 2x 3.70GHz So.1151 BOX
    RAM: 16GB Transcend TS2GSH72V1B DDR4-2133 ECC SO-DIMM CL15 Single
    Netzteil: 400 Watt be quiet! System Power 9 Non-Modular 80+ Bronze
    Gehäuse: Fractal Design Node 804 mit Sichtfenster Wuerfel ohne Netzteil schwarz
    Dazu noch 4 WD Festplatten und eine SSD für das System mit vermutlich 128 GB.

    Denke es wereden 4 oder 8 TB pro Platte. Alle komponenten einmal. RAM kann man dann jederzeit erweitern. ECC will ich auf jedenfall haben (Da brauchen wir nicht zu diskutieren :) ). Hat jemand Verbesserungsvorschläge?
    Passt etwas nicht zusammen das ich übersehen habe?

    Ich bin dankbar für jede Hilfe :)

    Viele Grüße
  • Bezüglich Motherboard:
    hast du auch mal diesen von Fujitsu (Made In Germany) in Betracht gezogen. Sind normalerweise sehr sparsam. Ist auch etwas moderner. SDD könnte dann auch NVMe sein. Bzw. deinem ähnlicher dieses. Hier mal ein kurzer Vergleich.
    Ist halt nicht ganz so viel Server (kein IPMI), dafür volles Display über CPU.
    Achtung, bei deinem Board passt der Prozessor nicht (115v2 vs. 1151). Bei deinem brauchst du eine Pentium Gold 4400.
    Bei dem neueren Fujitsu Board passt dann auch dein gewählter Prozessor.
    Achtung: bezüglich Speicher, da bin ich auch skeptisch. Die Board-Hersteller haben immer Listen mit getesteten Speicher. Tunlichst so einen verwenden, wenn du keine Probleme haben willst. Und Transcend ist da sicher nicht mit dabei (vor allem bei einem Serverboard)!

    Übrigens nettes Gehäuse, wenn auch recht eigenwillig. Hab desselbe...
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • Hallo wtuppa,

    vielen Dank für deine Rückmeldung. Das Fujitsu Board sieht schonmal sehr gut aus. Hast du vielleicht noch eine Info zum Netzteil oder meinst du das passt soweit?
    Dann werde ich so wie es aussieht das Board aus meiner Liste mit deinem empfohlenen Fujitsu austauschen, der Prozessor kann dann bleiben und nach RAM muss ich mal schauen welche das Fujitsu Board laut Hersteller unterstützt.

    PS: Hoffe du hast gute Erfahrungen mit dem Gehäuse... Habe das gesehen und war begeistert.
  • Das Fuijitsu Board ist sehr neu. Die Vorgänger sollen aber einen exterm niedrigen Verbrauch gehabt haben. Hat aber weniger Optionen als ein großes Serverboard, sollte aber für ein Heim NAS vollkommen ausreichend sein.
    zum verifizierten Speicher kann ich zum Fujitsu Board leider derzeit nichts finden, eventuell beim gleichen Händler kaufen und dir versichern lassen, dass der Speicher dann funktioniert. Dann ist der Händler in der Pflicht, wenn er dir den Speicher zum Board empfiehlt. Achtung Board ist nicht immer lieferbar...

    400 Watt Netzteil wird locker reichen (so viel kannst du gar nicht anschliessen, wenn du keine extra Grafikkarte hast).
    bei den Platten eher gleich mit grossen anfangen...

    zum Gehäuse:
    hat wirklich Platz für viele Platten (10*3.5 und 2*2.5). DVD Laufwerk geht eigentlich nicht (kannst du vergessen).
    Probleme gibt es nur, wenn die Festplatte seitlich nur 2 und nicht 3 Befestigungslöcher hat, das Gehäuse verwendet nämlich das mittlere Loch.
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • Das mit dem nicht immer lieferbar habe ich schon gemerkt :)
    Das langt locker für mein vorhaben. Da muss ich dann zuschalgen wenn es wieder lieferbar ist. Das mit dem RAM werd ich hinbekommen. Danke dir für deine Unterstützung.
    Ich denke ich werde mit 8TB Platten starten.

    Zum Thema Netzteil: Das es langt mach ich mir keine Sorgen. Dachte evtl. ein kleineres um nochmal am Strom zu sapren. Vielleicht hast du da noch einen guten Vorschlag für mich.

    Danke für den Hinweis mit den Festplatten.
  • es geht noch ein bischen kleiner, mit dem Netzteil, nur musst du dann beachten, wie das in Relation zu den Kosten steht. Bronze ist untere Latte, Silber und Gold besser. Aber im Leerlauf bei einem NAS ist jedes Netzteil schlecht (zu geringe Last). Hier ist sogar eines mit 250W gelistet. Und je kleiner die Leistung des Netzteiles ist, desto näher kommt man im Leerlauf in den guten Bereich. Ein Festplatte braucht zum Anlaufen bis zu 20 Watt.

    Ich hab übrigens auch ein Netzteil von FSP Fortron (ist eigentlich Lieferant für viele andere Hersteller).
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • aber auch nur dann, wenn wirklich alle Platten gleichzeitig loslaufen... wenn die mal laufen, wird es deutlich weniger.
    wie du aus meiner Signatur siehst, bin ich bei 400 Watt gelandet (gab damals keine vernünftig kleineren).

    hier mal ein ganz interessanter Artikel. Und noch ein zweiter. und ein bischen älter.
    wenn man auf die Herstellerseiten schaut, sollte es dort die verschiedenen Informationen geben.
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • ist zumindest ein Bauvorschlag, der sehr genau deinen Ansprüchen entspricht.
    und ich würde als System eine NVMe SSD verwenden (keine SATA oder USB), denn dann bleiben alle 6 SATA Anschlüsse für Festplatten frei.
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • Ich habe es endlich geschafft. :)

    Hat etwas gedauert, nun hatte ich aber die Zeit das ganze umzusetzen.
    Ich habe es nach dem bauvorschlag gebut, allerdings mit dem Gehäuse "Fractal Design Node 804".

    Aktuell sind 2 Festplatten als RAID 1 mit je 4 TB speicher drin.
    Etnschieden habe ich mich für FreeNAS und Nextcloud. Damit lässt sich einfach alles wunderbar handhaben.
    Weitere Pläne sind:
    - Mailserver: Vermutlich mit iRedMail
    - Plex
    - Onlyoffice Server für die Nextcloud

    Das wars erst einmal, mal schauen was noch so kommt. Zeitlich ist es nicht ganz einfach, aber irgendwie klappt es ja doch :) Auch wenn es 5 Monate gedauert hat xD

    Vielen Dank nochmal für die super Unterstützung!
  • wenn du FreeNAS verwendest, solltest du dich auch mal in ZFS einlesen. ZFS hat einige Vorteile bei Verwendung als Mirror im Gegensatz zu RAID-1, da ZFS mehr Fehler korrigieren kann als ein reines RAID.
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • Ein ZFS Mirror ist auch ein reines Raid.
    Der Unterschied zu einem bisherigen Mirror

    Bei einem bisherigen Mirror wird erst die erste Platte aktualisiert, dann die zweite Platten. Ein Crash beim Schreiben führt dazu, dass eine Platte korrupte Daten hat. Wird beim Lesen alternativ von beiden Platten gelesen, ist es Zufall ob korrekte oder korrupte Daten gelesen werden. Mangels Prüfsummen auf den Daten kann das im Nachhinein nicht entschieden werden. Ein Hardware-Raid mit Cache und BBU/Flash Sicherung kann helfen. Das Problem nennt sich write hole Problem.

    ZFS macht das anders. Wegen CopyOnWrite werden vorhandene Daten nicht verändert, sondern Datenblöcke komplett neu geschrieben. Erst wenn Daten sicher auf beiden Platten gelandet sind, werden Metadaten verändert und der Schreibvorgang ist abgeschlossen. Bei einem Crash dazwischen wird die komplette Aktion verworfen und das Dateisystem und das Raid bleiben valide.

    Doppelte Metadatem und Prüfsummen auf Daten und Metadaten erlauben es ZFS Fehler, die dennoch auftreten können sicher zu erkennen und aus der Redundanz on the fly zu reparieren. (Selbstheilendes Dateisystem)
  • Hi. Ich habe mich die Tage mit Dateisystemen zu OMV beschäftigt. Ich wollte zu OMV5 was anderes verwenden, bin mir aber noch nicht schlüssig. Hoffe, es ist was brauchbares dabei.


    ZFS:


    Vorteile von ZFS in OMV:
    • Datenintegrität in Verbindung mit ECC-Ram unschlagbar (sehr wichtiger Punkt)
    • Sehr gute Performance
    • Administration in OMV sehr übersichtlich, wenn auch eingeschränkt
    • Bei einem Defekt einer Platte werden bei einem Rebuild nur die belegten Daten dieser wiederhergestellt
    • Die Erstellung eines Pools geht auch bei großen Platten sehr schnell
    • Reihenfolge der angesteckten Platten relativ egal (wichtig z.B. beim Wechsel des Boards)
    Nachteile:
    • Es drehen immer alle Platten bei einem Datenzugriff
    • Im Gegensatz zu anderen Dateisystemen wird mehr Ram benötigt
    • Proxmos-Kernel muss verwendet werden
    • SMB-Datenübertragung für meine Verhältnisse Grottenschlecht!!! (liegt aber höchstwahrscheinlich am Intel-Lan, da teste ich noch)
    Vor-und Nachteil Gleichermaßen:
    • Pool Erweiterbar (bei RAID-Z aber nur die verwendeten Platten mit größeren tauschbar, nicht die Anzahl der Platten und der Speicherplatz steigt erst, wenn alle Platten vergrößert wurden)


    Eventuell kannst du dir auch das handelsübliche Raid in Verbindung mit LVM anschauen.


    Ein LVM (Logisches Volumen Management) sollte immer als Unterbau ein Raid-System verwenden um Datenverlust vorzubeugen. Und immer wieder gern erwähnt – Ein Raid ersetzt kein Backup!


    Vorteile eines LVM:
    • Hohe Flexibilität – Mehrere Festplatten können zu einem Logischen Volumen zusammengeführt werden
    • Größenänderung des Volumens jederzeit möglich
    • Plattensystem erweiterbar (teste ich noch)
    • Snapshots möglich
    • Sehr gut geeignet, um Tests zu fahren. Die nicht mehr verwendeten Volume können einfach gelöscht und neu erstellt werden.
    Nachteile eines LVM:
    • LVM-Unterstützung nur von Linux


    Oder du nutzt Snapraid mit UnionFilesystem mergerfs.

    Vorteile dieser Konstellation:
    • Mit beliebig vielen Platten erweiterbar
    • Einfaches Management über das Webgui von OMV4
    • Flexibel – Die Parity-Platte kann auch an einen USB-Anschluss sein
    • Es läuft nur die Platte, von welcher die Daten gelesen werden (im normalen Raid müssen erst alle Platten hochfahren, bevor da was geschieht – das zieht immer mehr Strom und der Plattenverschleiß ist gewissermaßen höher)
    • Im Bedarfsfall können die Platten auch an einen anderen PC ausgelesen werden
    • Reihenfolge der angesteckten Platten relativ egal (wichtig z.B. beim Wechsel des Boards)
    Nachteile dieser Konstallation:
    • Die Datenwiederherstellung nach einem Plattendefekt dauert eine gefühlte Ewigkeit (das geht bei ZFS viel schneller)
    • Besser geeignet für Achivserver oder Medienserver, wo die Daten nicht so oft geändert werden (ich nutze diese Konstellation allerdings auch für Datenbanken)
    • Die Datensicherheit ist immer erst nach einem „Sync“ gegeben (Raid hat die Datensicherheit quasi „On Fly“ (im ZFS kann man zusätzlich noch Snapshots erstellen, ohne dafür Plugins zu installieren)


    Vielleicht hilft das etwas weiter.

    Gruß Berti
    BS: OMV4 auf Debian Stretch
    SW: UnionFilesystem mfs, Snapraid, LEMP-Stack, rsync, Rsnapshot, Duplicati, SMB/CIFS, Fail2ban
    HW: MSI B350M MORTAR, Athlon 200GE, MSI Core Frozr L -Lüfter, IN WIN 301C Micro-ATX Gehäuse, 2x 4Gb Ram, be quiiet! Straight Power 10, Transcend 64Gb M.2 SSD als Cache, 64 GB SSD für System, 3x 4TB WD Red
    Docker: emby/embyserver, linuxserver/nextcloud, 3x wordpress, linuxserver/calibre-web, linuxserver/heimdall, vimagick/glances, v2tec/watchtower, mprasil/bitwarden

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von Berti ()

  • kleine Ergänzung zu den Aussagen zu ZFS

    A: Datenintegrität in Verbindung mit ECC-Ram unschlagbar
    E: ZFS bringt die Sicherheitsmerkmale Crashsicherheit (CopyOnWrite), Snaps und Prüfsummen. ECC ist ein weiteres Sicherheitsmerkmal, arbeitet aber unabhängig von ZFS, schließt bei ZFS allenfalls die letzte größere Sicherheitslücke.

    A: Sehr gute Performance
    E: ZFS ist eigentlich langsamer als "ältere" Dateisysteme. Die Extra Sicherheit mit CopyOnWrite und Prüfsummen kostet Performance. Ausgleichen, ja sogar "überkompensieren" kann man das mit RAM. Mit viel RAM als Read/ Write Cache kann ZFS sehr viel schneller sein als ältere Dateisysteme. Mit wenig RAM ist ZFS langsamer als z.B. ext4 oder ntfs.

    A: Es drehen immer alle Platten bei einem Datenzugriff
    E: Das gilt für jedes Realtime Raid. Hat nichts mit ZFS zu tun.
    Lediglich z.B. bei Raid on Demand können alle Platten bis auf die aktive schlafen. Da machen lediglich eine Art Backup auf Anforderung mit den Prinzipien eines Raid.

    A: Im Gegensatz zu anderen Dateisystemen wird mehr Ram benötigt
    E: Ein Dateisystem braucht im Prinzip kein RAM. Oracle mit Original-ZFS verlangt 2 GB RAM als Minimum. Das ist das was jedes aktuelle 64bit OS benötigt und Oracle verlangt für ZFS auch bei PetaByte Pools nicht meht und die müssen das ja wissen mit ZFS.

    Man kann allenfalls sagen, dass die Sicherheitsmerkmale CopyOnWrite und Prüfsummen mehr Fragmentation und mehr Daten bedeuten. ZFS ist damit prinzipiell langasamer als Dateisysteme ohne. Der Ausgleich den Sun bei ZFS eingebaut hat ist ein überragender rambasierter Schreib/Lesecache. Dafür brauchts RAM. Würde man extrem schnelle Platten wie Intel Optane benutzen, wäre der Performancevorteil mit mehr RAM gering.

    A: SMB-Datenübertragung für meine Verhältnisse Grottenschlecht!!
    E: Hat nichts mit ZFS zu tun. Liegt allenfalls am SMB Server SAMBA oder dessen Konfiguration. Der kernelbasierte multithreaded SMB Server ist da meist etwas schneller, den gibts aber nur bei Solarish als Alternative zu SAMBA.

    A: Pool Erweiterbarkeit
    E; ZFS kann man durch Austausch aller Platten eines einzelnen Raid Arrays (vdev) oder durch anfügen weiterer Raid Arrays an den Pool erweitern. Ein einzelnes Raid-Z Array kann man noch nicht erweitern (ist in Arbeit, vorraussichtlich verfügbar erst nächstes Jahr). Ein vdev entfernen ist ohne Einschränkung bei Solaris ZFS möglich, bei Open-ZFS noch beschränkt auf Mirror.

    Dieser Beitrag wurde bereits 5 mal editiert, zuletzt von gea ()

  • Re,

    meine Anmerkungen dazu:

    Berti schrieb:

    Proxmos-Kernel muss verwendet werden
    Wo steht das?

    Berti schrieb:

    Ein LVM (Logisches Volumen Management) sollte immer als Unterbau ein Raid-System verwenden um Datenverlust vorzubeugen.
    Wo steht das?
    Und ganz besonders: in wie fern beugt LVM einem Datenverlust vor?

    gea schrieb:

    A: Sehr gute Performance
    E: ZFS ist eigentlich langsamer als "ältere" Dateisysteme. Die Extra Sicherheit mit CopyOnWrite und Prüfsummen kostet Performance. Ausgleichen, ja sogar "überkompensieren" kann man das mit RAM. Mit viel RAM als Read/ Write Cache kann ZFS sehr viel schneller sein als ältere Dateisysteme. Mit wenig RAM ist ZFS langsamer als z.B. ext4 oder ntfs.
    Mit RAM kann man bei ZFS sehr viel kompensieren, aber nicht im Heimbereich - hier ist durch das (wenn's hoch kommt) familiäre Nutzungsszenario nicht viel zu machen, denn die Stärken eines RAM-Caches (und ggf. bei ZFS auch der L2ARC ("SSD-Cache")) kommen erst bei vielen und verteilten Zugriffen zum Tragen.

    "Performace" ist für den Heimbereich aber deutlich ausreichend - ich konnte jetzt keine gravierenden Unterschiede zu RAID5 und EXT4 feststellen - im Zeitalter der 1GigE-Anschlüsse auf den Boards sehe ich das auch völlig unkritisch.

    Zwei wichtige Punkte möchte ich aber auch hier wieder ansprechen:
    1) Datenträgergröße:
    - ZFS "bearbeitet" in der Tat nur den tatsächlich benutzen Platz im Verbund - das kann bei sehr großen Datenträgern schon mal wichtig werden (kommt natürlich auch auf die Auslastung an!)
    - klassisches RAID ab 6TB/HDD wird zur wahren Geduldsprobe, weil hier bei einem Rebuild Tage ins Land gehen können ... daher sollte man auch immer ein Backup zur Hand haben
    - ich persönlich würde Jedem empfehlen, ab spätestens 8TB/HDD ZFS (oder später BTRFS) einzusetzen, ab da wird es einfach nur "unerträglich" mit RAID ...

    2) Lizenzprobleme:
    - ZFS ist ein tolles Dateisystem, aber leider nicht "wirklich frei", die Lizenzproblematik ist nicht abschließen geklärt - auch ZoL ist davon betroffen
    - ich persönlich warte auf BTRFS, das m.M.n. schon viel zu lange ...

    Sc0rp
  • Hi.
    Ohne Proxmox-Kernel lies sich ZFS bei mir gar nicht erst installieren (auf OMV4). Deshalb meine Aussage.
    Und das für LVM ein Raid als Unterbau verwendet werden soll, meinte ich, dass man dadurch einen Datenverlust vorbeugt. Also nicht mit LVM, sondern mit dem Raid beugt man einen Datenverlust vor bzw. hat die Redunanz. Habe mich diesbezüglich etwas falsch ausgedrückt.

    LG Berti
    BS: OMV4 auf Debian Stretch
    SW: UnionFilesystem mfs, Snapraid, LEMP-Stack, rsync, Rsnapshot, Duplicati, SMB/CIFS, Fail2ban
    HW: MSI B350M MORTAR, Athlon 200GE, MSI Core Frozr L -Lüfter, IN WIN 301C Micro-ATX Gehäuse, 2x 4Gb Ram, be quiiet! Straight Power 10, Transcend 64Gb M.2 SSD als Cache, 64 GB SSD für System, 3x 4TB WD Red
    Docker: emby/embyserver, linuxserver/nextcloud, 3x wordpress, linuxserver/calibre-web, linuxserver/heimdall, vimagick/glances, v2tec/watchtower, mprasil/bitwarden