NAS im Eigenbau - Passt alles? :)

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Sc0rp schrieb:

    2) Lizenzprobleme:
    - ZFS ist ein tolles Dateisystem, aber leider nicht "wirklich frei", die Lizenzproblematik ist nicht abschließen geklärt - auch ZoL ist davon betroffen
    - ich persönlich warte auf BTRFS, das m.M.n. schon viel zu lange ...

    Sc0rp

    ZFS ist seit OpenSolaris OpenSource, die Quellen sind offen, alle entwickeln darauf tolle
    Sachen. Aktuell wurde von Datto aus dem ZoL Lager Native ZFS Verschlüssellung zu
    Open-ZFS hinzugefügt. Datto setzte gerade wegen der Lizenz Problematik dabei auf die Solaris Lizenz - zumal in Illumos die Verschlüssellung bereits zu 90% fertig war.

    Das Problem ist nicht ZFS oder die ZFS Lizenz sondern die GPL. ZFS steht unter einer Lizenz die zwar die freie Nutzung und die Weiterentwicklung erlaubt aber die Rechte der ursprünglichrn Lizenzgeber beibehält. Deshalb kann die ZFS Lizenz selbst von Oracle nicht mehr geändert werden. Oracle hat eben nur "fast" alle Rechte. Oracle ist zwar die treibende Kraft hinter btrfs, Oracle "gehört" ZFS und Oracle hat jetzt eher eine Linux Präferenz. Dennoch bleibt die ZFS Lizenz wie sie ist. Original ZFS von Oracle ist zwar immer noch am schnellsten und hat die meisten Features. Open-ZFS holt aber gehörig auf, nicht zuletzt wegen der Unterstützung aus dem Linux Lager.

    Das "Linux Problem" besteht nun darin, dass alles was zum eigentlichen Linux gehören soll, den GPL Lizenzbedingungen folgen muss, was ZFS nicht kann. Ist aber eh akademisch seit ZFS überall dabei ist oder zu haben ist. Btrfs ist heute bei wichtigen Featuters wie sicheres Schreiben oder höheren Raid Levels noch nicht da, wo ZFS bereits vor 10 Jahren war. Es gibt zwar Feautures die btrfs voraus hat, die sind aber bei "Crical Use" eher weniger wichtig und ZFS hat die auch bald wie "Erweitern eines einzelnen Raid-Arrays um eine einzelne Platte". ZFS ist auch nicht auf Linux beschränkt. Neben den Unixen Free-BSD, OSX, Solarish und Linux ist sogar für Windows ein Port in Arbeit.

    Für btrfs wird es diese plattformunabhängigkeit nie geben. Ob es featuremäßig gleichziehen kann ist mehr als fraglich. ZFS entwickelt sich dazu schneller weiter als btrfs. Unmöglich das aufzuholen nur um der "reinen Linux Lehre" zu genügen..

    Dieser Beitrag wurde bereits 9 mal editiert, zuletzt von gea ()

  • Re,

    habe ZFS seit OMV2 auf dem Test-NAS laufen gehabt und musste dafür keinen "Proxmox" Kernel installieren - wohl aber einen moderneren Kernel (Backport-Kernel) als der standardmäßig Ausgelieferte ... aber das ist ja quasi obligatorisch ;)

    Habe auch schon OMV-NAS aufgebaut, die im Wirkbetrieb auf ZFS-Z1 arbeiten, auch ohne Proxmox-Kernel ... und btw. nur mit 4GiB RAM - das System bekommt auch ohne Probleme das Gigabit-LAN voll (zumindest beim Lesen, Schreiben habe ich nicht intensiv getestet ...).

    Sc0rp
  • Re,

    gea schrieb:

    Für btrfs wird es diese plattformunabhängigkeit nie geben. Ob es featuremäßig gleichziehen kann ist mehr als fraglich. ZFS entwickelt sich dazu schneller weiter als btrfs. Unmöglich das aufzuholen nur um der "reinen Linux Lehre" zu genügen..
    Das erste wage ich zu bezweifeln (immerhin gibt es bereits einen Windows-Port), allerdings wird es im Schatten von ZFS wirklich schwer ... Das Zweitere stimmt auch nur bedingt, BTRFS soll in erster Linie nicht ZFS den Rang ablaufen, sondern ein adäquater Ersatz für EXT, XFS und ReiserFS werden ... daher auch die "langsame" Entwicklung, EXT4 und XFS laufen ja noch ordentlich ;), zudem:

    gea schrieb:

    Oracle ist zwar die treibende Kraft hinter btrfs
    Ja, aber komplett unter der GPL entwickelt und daher ganz besonders unter Linux uneingeschränkt nutzbar. Der Fokus ist aber im Vergleich zu ZFS ein Anderer.

    Die Lizenzproblematik ist aber dennoch nicht vom Tisch, die CDDL erlaubt propritären Code (zu Dem gehört auch das originale ZFS) , die GPL eben nicht. Die Frage wann und wie Oracle wegen Solaris-Teilen (nicht nur ZFS) einschreiten kann ist völlig ungeklärt - aus diesem Grund versucht ja illumos seit Jahren, den "closed source part" durch "freie" / eigene Implementationen zu ersetzen, u.A. eben auch ganz verstärkt bei ZFS (Open-ZFS) - weil das eben Eines der Zugpferde ist.

    Bis heute besteht unverändert die Möglichkeit, das i'ein Depp (lies Patenttroll) auf die dumme Idee kommt, da mal rotzfrech Lizenzgebühren einzufordern (man erinnere sich nur an die SCO-Geschichte ...) und nicht zuletzt ist ja Oracle auch schon durch solches Verhalten aufgefallen ...

    Auch hier richtet sich das Problem ehr an professionelle/kommerzielle Nutzer, der "Privatbereich" dürfte davon weitestgehend unberührt bleiben ... denke ich.

    Sc0rp
  • Losgelöst von dem Wunsch der Linux Entwickler im Kernel nur GPL Software zu haben, kann man das recht entspannt sehen. Oracle ZFS v45 ist closed source und damit nicht frei verfügbar. Open-ZFS auf Basis von OpenSolaris ZFS v28 ist OpenSource und frei nutzbar und erweiterbar. Und dank dem Dach von Open-ZFS wird das auch plattformübergreifend sehr kompatibel gehalten was neuere Features angeht. Bei den Open-ZFS Entwicklungen hat auch noch niemand ZFS Features als closed source gebracht, auch wenn das siehe Oracle möglich wäre. Das würde dann aber auch nicht in Open-ZFS unter der CDDL Lizenz erscheinen sondern wäre was Hersteller spezifisches.

    Das war schonmal anders. Da ging es aber darum, dass NetApp ZFS verhindern wollte weil sie darin zuviel Ähnlichkeit wenn nicht gar überlegende Konkurrenz zu ihrem Dateisystem Wafl sahen. Das hat wohl auch Apple vor 10 Jahren davon abgehalten ZFS in OSX voll zu integrieren nachdem das eine Zeitlang bei OSX Server dabei war. Dieser Rechtsstreit ist aber lange abgeschlossen.

    Die einzige Frage momentan ist doch wohl nur ob wie bei Ubuntu ZFS Teil einer Linux Distribution ist oder ob das separat nachinstalliert werden muss.


    zum Ram bei ZFS
    Ein ZFS Filer mit 4GB ist schon ganz ok sofern da nicht viele Extra Dienste laufen und ein besonders "fettes" Managenment Tool wie FeeNAS dazu kommt. Dann würde ich erst mit 8GB anfangen. Wenn man bei 4GB die Hälfte für das 64bit OS abzieht, bleiben immer noch mehrere Hundert KB als Schreibcache (Open-ZFS default ist 10% RAM, max 4GB) und mehr als 1 GB als Lesecache. Damit sollte man bei ZFS Z1 auch 1Gb Netzwerkperformance beim Lesen/Schreiben - zumindest bei eher sequentiellen Workloads und nur einem oder wenigen Nutzern und sofern man "sicheres sync" Schreiben nicht aktiviert - erhalten. Bei mehreren Nutzern kann das schnell absinken, da ZFS seine Daten über das Raid verteilt und dann weniger die sequentielle Poolperformance (n x Datendisks) limitiert sondern die iops für wahlfreien Zugriff. Und ein Raid wie ein Z1 hat da nunmal nur soviel iops wie eine einzelne Platte also ca 100. Dann wird der Lesecache extrem wichtig. Ein ZFS System mit viel RAM kann dann manchmal über 80% aller Lesevorgänge aus dem RAM bedienen. Platte ist dann egal.

    Wenn man aber sync write aktiviert um den Schreibcache abzusichern, geht das sicher auf unter 30MB/s zurück. Wenn man den Speicher wirklich knapp hält also z.B. nur 1-2 GB RAM hat, sieht das nochmal anders aus. Wenn man z.B. den Lesecache bei ZFS deaktiviert um das zu simulieren so hat man bei SSD immer noch Performance, eine langsame Platte kann dann aber auf wenige MB/s einbrechen. Bei einer WD green hatte ich da lediglich 3 MB/s, forums.servethehome.com/index.…led-and-slow-disks.12170/. Ich habe auch mehrere Testreihen mit unterschiedlich RAM gemacht und da sieht man, dass die Performance mit RAM deutlich zunimmt oder dass man sicheres Sync Schreiben auch schnell bekommt oder wie ZFS sich generell bei random vs sequentiellen Lasten verhält, napp-it.org/doc/downloads/optane_slog_pool_performane.pdf Kapitel 5.8
  • Re,

    danke für die beiden Links - lese ich mir später mal genauer durch.

    Hier wird aber recht deutlich, das ZFS schon sehr sehr "server grade" ist = massig Optionen und Anpassungsmöglichkeiten hat.
    Für den klassischen Heimanwender ist das sicher nicht einfach, und die meisten "factory defaults" (inkl. diverse NAS-OS) sind ja auf die breite Masse gesehen, meist suboptimal für den Einzelanwender ...

    Da ich mich mit ZFS in rein privater Natur befasse, ist meine Lernkurve aus Zeitmangel auch relativ flach - aber ich versuche natürlich immer den "optimalen Betriebszustand" für das jeweilige Nutzungsszenario zu erreichen ... was derzeit ausschließlich ZFS für das totalparanoide Clientel bedeutet, mit allen Vor- und Nachteilen - denn diese Leute geben auch gerne mal Geld für 10TB+ HDDs aus. In diesem Größenbereich ein klassisches RAID aufzubauen ist Geduldsselbstmord und erhöht zwar die Verfügbarkeit, aber nicht die Sicherheit und Integrität der Daten ... da bleibt dann nur noch ZFS und meist kein Geld mehr für ECC-Ram xD, von einem SSD-Einsatz (L2ARC) mal ganz zu schweigen ...

    Was mich aber am Meisten am ZFS-Zx stört, ist, das immer nur ein Member des Verbundes oder Pools angesprochen wird - d.h. ZFS-Zx skaliert nicht wie RAID mit mehr Membern - da muss man dann für die Endperformance wirklich Cachen wie irre ...

    Sc0rp

    EDIT: ps: Sorry für "totally OT" ...
  • Sc0rp schrieb:

    Was mich aber am Meisten am ZFS-Zx stört, ist, das immer nur ein Member des Verbundes oder Pools angesprochen wird - d.h. ZFS-Zx skaliert nicht wie RAID mit mehr Membern - da muss man dann für die Endperformance wirklich Cachen wie irre ...

    Sc0rp

    EDIT: ps: Sorry für "totally OT" ...
    Was verstehst du unter "Member", einzelne Platten oder vdevs (Raid-Arrays)?

    ZFS skaliert die sequentielle Performance mit der Anzahl der Datenplatten wie bei Raid 5/6 und die iops mit der Anzahl der vdevs. Zwei vdevs z.B. 2 x Z2 haben die doppelten iops wie ein vdev. Ist wie bei Raid-6 zu Raid-60. Auch da verdoppeln sich die iops In beiden Fällen verdoppelt sich auch die sequentielle Performance.

    Vdevs bei ZFS werden als Raid-0 zusammengeschaltet. Da die Anzahl der vdevs nicht wie bei Raid-60 auf zwei beschränkt ist, kann ZFS weiter skalieren. Ein Raid-600000 gibt es nicht, einen ZFS Pool mit 6 vdevs häufig.

    ps
    Ich finde nicht, dass Storage Grundlagen für ein NAS Selbstbau OT sind.