NAS Basic Eigenbau

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Re,

    ja gibt es ... sicherlich.

    Die Bauvorschläge wurden von den damaligen "Betreibern" der Seite zusammengestellt - die Beiden gibt es noch, haben aber die Seite abgegeben ... insofern werden da keine Neuen kommen.

    Die Bauvorschläge geben aber immer noch die Richtung vor - einfach mal bei Geizhals oder anderen Vergleichsseiten schauen, was "äquivalent" ist ... und was du dir leisten kannst oder möchtest.

    Sc0rp
  • Bei vergleichbaren Rahmenbedingungen hat sich nicht soviel getan.
    Die Basic Auswahl hat den Fokus wohl auf dem Preis und weniger auf Datensicherheit und Performance. Auch ist die Erweiterbarkeit bei iTX trotz höherem Preis eher schlecht. Ein Fertig NAS für 500 Euro ist da aber auch nicht besser.

    Prinzipiell bestimmt zunächst Datensicherheit, Performance und Preis die Auswahl. Zwei der Faktoren kann man wählen, der dritte ergibt sich. Daneben bestimmt Erweiterbarkeit und Extras den Preis.

    Wenn man den Fokus eher auf Datensicherheit und Performance verschieben möchte und Erweiterbarkeit ein Thema ist (und man mindestens 100 Euro mehr ausgeben kann), dann dann könnte man allenfalls auf folgendes achten

    uATX statt ITX Mainboard (billiger und erheblich erweiterbarer)
    Ein Serverclass Mainboard. Bei Intel fangen Server-Chipsets mit C an (wegen ECC RAM)
    Sockel 1151 oder neuerer 1151v2
    Prozessor Celeron oder i3 (die können ECC und vt-d falls man mal virtualisieren möchte)
    Intel Nic statt Realtek (die sind in jeder Hinsicht nur billig)

    Bevorzugte Mainboardhersteller sind SuperMicro und Asrock, eventuell Gigabyte
    Mainboards ab ca 150 Euro, CPU ab ca 40 Euro, ECC RAM je nachdem wieviel (ab 4GB)
  • Ich hab mir jetzt mal ne Liste an Teilen zusammengeschustert. Bin für Anregungen und Kritik offen:

    Mainboard:ASUS PRIME B360M-C
    CPU:Intel® Core™ i3-9100F
    Ram:Corsair DIMM 16GB DDR4-3000 Kit
    Gehäuse:SST-PS07B
    Netzteil:be quiet! Pure Power 11 CM 400W

    Zur Gesamt Situation - ich werde mein System 2x bauen einmal für meine Familie, einmal für meine Eltern (einmal 4x 10tb WD red einmal 5x 3tb WD red ). Der Server soll auch gleichzeitig als TV Streamer dienen - da ich mit DVB Media Service sehr sehr gute Erfahrungen gemacht habe und es gefühlt ca 2000x komfortabler einzurichten ist als TVHeadend werde ich wohl Windows als BS nehmen (Ob 10 oder Server 2016 weiß ich noch nicht)
    Zum Mainboard - hat eigentlich alles was ich brauche ist fast komplett ausgestattet. Ok kein Fujitsu, keinSupermicro oder Asrock aber immerhin ASUS (mit denen war ich zumindest bisher immer zufrieden und ich habe von Leuten gelesen die genau das Mainboard als NAS Lösung im 24/7 dauerbetrieb haben.
    Nachteile: kein ECC und soweit ich gelesen hab kein Hardware RAID 5.
    CPU - Ich weiß nicht ob ein kleinerer Prozessor auch reicht. Immerhin werde ich ein Software Raid 5 und auch tv streaming (TV Karten sind entweder per PCI-E oder USB angeschlossen) betreiben, dazu sollte die Kodi Datenbank (groß) darauf laufen.
    Ram... ok hier bin ich etwas verloren ich hab mir angesehen was sonst so gekauft wird und gut berwertet ist... der ist mir dabei ins Auge gesprungen.
    Gehäuse - hier war das motto, je kompakter desto besser letztendlich ist das dabei herausgesprungen.
    Das Netzteil - ich möchte schon ein teilmodulares bzw modulares und leise soll es auch sein - damit denke ich liege ich zumindest nicht ganz falsch.
    Als BS Festplatte wird es eine m2 werden welche weiß ich nicht genau.
    Was sagt ihr zu den Komponenten. Ist das so in Ordnung oder hab ich was komplett verpennt?
    Ich möchte ungern mehr als 500€ für Mainboard, CPU RAM Gehäuse und Netzteil ausgeben - hiermit läge ich imho so ca bei 420€ - hätte also noch etwas luft ergo könnten noch ein paar leise lüfter bzw cpu kühler rausspringen.
  • zum Gehäuse habe ich nur gefunden, dass die Festplatten nicht entkoppelt sind, sondern fest verschraubt mit dem Festpalltenkäfig.
    Ansonsten sicher schon mal ein guter Aufbau.
    Zum RAM solltest du dir mal die QVL von ASUS ansehen (Speicher ist kritischer, nicht jeder funktioniert in jedem Board). Bei B360 reicht ein DDR4-2400 RAM (kein Übertakten möglich). Dort gibt es auch eine Liste von getesteten Devices (Platte/SSD). Ist aber normalerweise unkritisch.

    Software RAID braucht nicht viel CPU, allerdings solltest du dir mal ansehen, ob überhaupt RAID 5 sinnvoll ist.
    SW: OMV 4.1.22 (Arrakis), Snapraid mit mergerfs, Minidlna
    MSI B150M ECO, Intel Pentium G4400, 16GB Kingston DDR4, SSD 250GB, 4TB Daten, 3*8TB+6TB SnapRaid (8TB Parity,3+3+2TB Parity2), FSP Aurum S 400W, Fractal Node 804
  • Danke dir für deine Antwort. Das mit dem RAM werde ich beherzigen.
    Warum sollte ein RAID 5 nicht sinnvoll sein. Bisher hatte ich die 5*3tb in einem externen RAID Gehäuse (sharkoon) als RAID 5 via USB 3 an einer Synology.... Das ist allerdings ziemlich langsam. Ich hatte es vorher direkt an meinem PC und bin damit bisher ziemlich gut gefahren. Ein RAID 6 könnte sich bei dem 5*3tb lohnen aber bei den 4x10tb.... Da ist mir fast der Speicherplatz Verlust zu hoch.
    Oder meinst du etwas ganz anderes?
  • Im Prinzip ist es wie beim Autofahren.
    Man kann sagen ich fahr eh langsam und Sicherheit auf Stand eines älteren Autos (nur Sicherheitsgurt) reicht. Oder man kann sagen, ich möchte den Sicherheitsstandard nach Stand der Technik mit besserer passiver Sicherheit, ABS und ESP.

    Bei Storage ist es genauso.
    Wenn man mehr Speicher hat, treten häufiger Speicherfehler auf. Kann sein das macht nix, kann sein der Rechner stürzt ab, kann sein Daten werden verfälscht. Kann man was dagegen machen, nennt sich ECC Speicher. Ist vereinfacht sowas wie Raid-5 bei Festplatten.

    Eine Schreibaktion besteht immer aus mehreren Teilen. Daten + Metadaten oder Raid Stripeset um Stripeset. Das geht nacheinander auf Platte oder die Platten. Stürzt der Rechner ab, ist das unvollständig geschehen mit der Folge eines korrupten Dateisystems oder Raid. Kann man was dagegen machen mit Copy on Write Dateisystemen und Software Raid, raid-recovery-guide.com/raid5-write-hole.aspx.

    Bei einem traditionellen Raid-5 fällt eine Platte aus. Man ersetzt die und started den Rebuild. Tritt auf einer weiteren Platte auch nur ein nicht behebbarer Fehler (bei multi-TB Platten relativ wahrscheinlich) auf, ist das Raid verloren. Bei ZFS z.B. nur eine Datei.

    Daten verändern sich auf Platte mit einer statistischen Häufigkeit. Nennt sich silent errors oder neudeutsch Datenrost. Neuere Dateisysteme wie ZFS mit Daten-Prüfsummen können sowas erkennen und reparieren.

    Ab und an löscht oder ändert man aus Versehen etwas oder ein Trojaner verschlüsselt die Daten. Passierte vorletzten Montag abend nachdem wichtige Daten geändert wurden. Man bräuchte ein Backup vom Montag16:00, hat aber nur ein sehr altes. Dagegen helfen ZFS readonly Snaps, z.B. ein Snap je Stunde für die letzten 14 Tage, ein Snap je Tag für die letzten 60 Tage, ein Snap je Monat für dieses Jahr um einfach auf den entsprechenden vorherigen Datenstand zugreifen zu können.

    Backup ist wichtig wenn Daten wichtig sind. Sind personenbezogene Daten dabei muss man eigentlich verschlüseln, auf dem Storage, beim Sichern und auf dem Backup. Geht z.B. bei ZFS mit einem Schlüssel je Dateisystem und auch im Zustand locked.

    Könnte man alles haben, ist sogar OpenSource und kostenlos. Nennt sich Sicherheit nach Stand der Technik. Nur bei einem Mediaserver eventuell nicht so wichtig und selbst da steckt Arbeit drin um das wiederherzustellen.
  • Re,

    gea schrieb:

    Wenn man mehr Speicher hat, treten häufiger Speicherfehler auf. Kann sein das macht nix, kann sein der Rechner stürzt ab, kann sein Daten werden verfälscht. Kann man was dagegen machen, nennt sich ECC Speicher. Ist vereinfacht sowas wie Raid-5 bei Festplatten.
    Das Thema ECC habe ich schon mal ausführlich unter dem Stichwort ZFS behandelt ... im Heimbereich brauch man das m.E.n. nicht, besonders bei einem Anwendungsszenario bei max. 10 "zeitgleichen Zugriffen" / max. 10 Benutzern.

    Machen kann man das trotzdem, aber auch dieses Plus an Sicherheit kostet zusätzlich "Strom" ...

    gea schrieb:

    uATX statt ITX Mainboard (billiger und erheblich erweiterbarer)
    Das kommt darauf an, ob man man ein Mini-ITX-Board mit aufgelöteter CPU nimmt (NAS-Vorschlag "Basic") oder nicht und ob man überhaupt den Platz hat ...

    Sc0rp
  • Re,

    ZFS unter Windows gibt es wohl - hab ich mal i'wo gelesen - aber eine entsprechende App oder ein Produkt ist mir nicht bekannt.
    (ZFS halte ich aber im Heimgebrauch auch für übertrieben - kommt aber mehr als bei ECC auf das Anwendungsszenario an)

    RAID5 ist okay, man muss halt Geduld und Ruhe dafür mitbringen - je nach Anspruch an Redundanz und Ausfallsicherheit kann man auch rsync/rsnapshot-Lösungen nutzen oder auf SnapRAID gehen ... Beides gibt es auch für Windows .

    Sc0rp
  • ZFS für Windows ist noch nicht fertig,
    pro-linux.de/news/1/25906/zfs-…indows-wird-stabiler.html

    Die wichtigsten ZFS Neuerungen wie crashsicheres Dateisystem (CopyOnWrite), Snapshots und Prüfsummen - zumindest auf Metadaten hat Microsoft ja in ReFS eingebaut.

    Zu ECC
    Speicherfehler steigen mit der RAM-Nutzung. Das sind aber nicht nur User oder laufende Prozesse. Jedes neuere OS, nicht nur wie früher Solaris mit ZFS nutzen freien RAM als Cache. RAM Fehler steigen damit proportional mit der Speichermenge. Und da ein heutiges Basis-NAS mehr RAM hat als ein Profisystem vor 5 Jahren wird dieser Aspekt auch da immer wichtiger. Als ein Server noch 500 MB RAM hatte war ECC tatsächlich weniger ein Problem, heise.de/newsticker/meldung/Ha…er-angenommen-828883.html

    Raid-5
    Das Problem bei Raid-5 ist nicht die Geschwindigkeit sondern die Fehlerrate bei großen Platten. Fällt eine Platte aus, darf beim Rebuild kein weitere Fehler auftreten, sonst bricht der Rebuild ab. Bei ZFS Raid Z1 wäre nur die betroffene Datei verloren.

    Hat man z.B. drei Platten a 8 TB im Raid-5 mit einer Fehlerrate von 1 Fehler pro 10^15 gelesenen Bits so liegt die Wahrscheinlichkeit eines erfolgreichen Rebuilds bei nur gut 80%. Man kann nun bei seinen Platten nach der Erfolgsrate schauen. raid-failure.com/raid5-failure.aspx

    Als Platten noch im Gigabyte Bereich lagen war Raid-5 ok. Heute würde ich das mit multi-TB Platten grundsätzlich nicht mehr machen. Eher Raid-6/Z2/Z3 oder gar kein Echtzeit Raid wie Unraid bei einem Home Mediaserver etc.

    Muss jeder natürlich selbst abschätzen. Jedes Setup ist ein Kompromiss.
  • Wenn es sich um "sehr gute" 5 x 3TB Platten handelt (1 Fehler pro 10^15) so ist die Wahrscheinlichkeit eines Raid Verlusts bei 12% lt raid-failure.com/raid5-failure.aspx

    Wenn man also 100 mal das Raid-5 neu aufbaut, kann in 12 Fällen das Array verloren gehen. Je nach Blickwinkel ist das "doch sehr unwahrscheinlich" bis Oh mein Gott - ist dann wirklich alles weg.

    Ein Raid-5 kann man nicht in ein ZFS Softwareraid wandeln. Wenn es sich jetzt um Windows handelt gibt es derzeit noch gar keine Option mit ZFS. Da müsste man entweder auf ein Unix NAS wechseln (Solarish wo ZFS herkommt oder Free-BSD wo es das seit geraumer Zeit gibt) oder Linux bei dem ZFS sich auch immer mehr durchsetzt, ohne bisher die Reife von Solarish oder Free-BSD zu haben.

    Man könnte zwar unter ZFS ein Raid-5 betreiben, würde sich damit aber vieler Vorteile von ZFS berauben und hätte weiter alle Nachteile von Raid-5.
  • Re,

    ach da ist sie ja wieder - die alljährliche ECC- und RAID-Panikmache ... hab mich schon gewundert, wann Die dieses Jahr auf den Tisch kommt ...

    Ich werde das jetzt nicht nochmal aufwärmen, meine Betrachtungen stehen schon mehrfach im Forum - meine Zusammenfassung:
    reine Panikmache
    (meine Erfahrungen aus 20 Jahre IT mit mehr als 100 Rebuilds/Resyncs und ECC/non-ECC-Systemen und vor Allem mein Wissen über das GESAMTE digitale "Ökosystem" Computer sprechen einfach eine andere Sprache)

    gea schrieb:

    Speicherfehler steigen mit der RAM-Nutzung.
    Nicht nur dort. An jedem anderen Ort des Rechners auch - Datenleitungen, Busse, ja selbst an Kontaktstellen ...

    Und ganz Allgemein steigt die (theoretische) Fehlerwahrscheinlichkeit mit steigender Tätigkeitshäufigkeit - überall.

    gea schrieb:

    Raid-5
    Das Problem bei Raid-5 ist nicht die Geschwindigkeit sondern die Fehlerrate bei großen Platten. Fällt eine Platte aus, darf beim Rebuild kein weitere Fehler auftreten, sonst bricht der Rebuild ab. Bei ZFS Raid Z1 wäre nur die betroffene Datei verloren.
    Das ist Quatsch.
    Fällt eine Platte bei ZFS-Z1 aus kann man resilvern (beim RAID rebuilden), fällt eine zusätzliche Platte aus, können Beide nicht mehr ... da gibt es keinen Unterschied (das hat aber nix mit den Systemen zu tun, sondern mit dem grundsätzlichen Wesen einer Redundanz).
    Und auch bei einem RAID-Verbund wäre max. ein Datenblock (Chunk) betroffen, Die liegen aktuell so zwischen 64 Byte und 1024 Byte - Der bringt aber weder den Rebuild/Resync noch den Verbund aus dem Tritt ... je nachdem wie groß die Dateien sind, können hier allerdings auch Mehrere betroffen sein (wie bei ZFS auch, denn Z1,Z2,Z3 sind auch Blockweise organisiert ...).
    Und die Fehlerrate hat man bei ZFS auch ... die ZFS-Prüfsumme ist auch nicht allmächtig: alle Fehler können damit auch nicht abgefangen (aka automatisch korrigiert) werden - wohlgemerkt bei der Dateiübertragung (da verlässt sich RAID auf die Prüfsumme des darunterliegenden Dateisystems und sowieso auf die Prüfmechaniken des Betriebssystems)

    Das einzige was 30 Jahre Unterschied bringen, ist bei ZFS die Gewissheit, das nach einem Rebuild die Dateien wieder "integer" sind - das hat bei RAID bisher entweder der Algorithmus oder die jeweilige End-Applikation übernommen - hat meiner Erfahrung nach auch 30 Jahre lang gut funktioniert ...
    Wichtigster Unterschied ist aber, das ZFS tatsächlich nur den belegten Platz "bearbeitet" - RAID schert sich nicht um das darunter liegende Dateisystem und betrachtet daher immer den ganzen Verbund - das erfordert bei großen Platten Geduld.

    gea schrieb:

    Als Platten noch im Gigabyte Bereich lagen war Raid-5 ok. Heute würde ich das mit multi-TB Platten grundsätzlich nicht mehr machen. Eher Raid-6/Z2/Z3 oder gar kein Echtzeit Raid wie Unraid bei einem Home Mediaserver etc.
    RAID5 ist heute auch noch okay, mit großen Platten erfordert es natürlich deutlich mehr Geduld, weil die Builds entsprechend lange dauern. Man darf hier nicht vergessen, das weder RAID noch ZFS einem ordentlichen Backup gleichzusetzen sind!
    Sollte etwas auf dem RAID unrettbar verloren gehen, kommt, genauso wie bei ZFS, das Backup ins Spiel ...
    RAID und ZFS bieten an dieser Stelle "nur" eine höhere Verfügbarkeit durch eine Redundanzschicht - reines "Verketten" kann man sowohl bei RAID als auch bei ZFS sowie mit vielen anderen Systemen auch Anders!

    Der Speicherlayer, hier konkret der Verbundlayer, hängt aber von dem Anspruch an Redundanz und Verfügbarkeit ab, beide Fragen sollten durchdacht und geklärt sein, bevor man sich für eine Technologie entscheidet.

    Redundanz kann man heute auch relativ einfach durch rsync/rsnapshot-Scripte erzeugen, da braucht man keinen Zwischen- bzw. Verbundlayer - mit einem ordentlichen Backupkonzept kann man auch locker ohne eine (interne) Redundanz auskommen ...
    Wege dorthin habe ich schon ausführlich im Form beschrieben ...

    Ich setze RAID5 in meinem NAS ein:
    - weil mir die Verfügbarkeit wichtig ist (meine Cloud rennt 24/7 auch für Familie und Freunde)
    - weil ZoL (ZFSonLinux) so seine Lizenzprobleme hat (das ewige Hin und Her ...)
    - weil BTRFS noch nicht so weit ist
    - weil ich mich mit RAID sowohl in Hardware als auch Software langjährig auskenne
    - weil ich ein mehrstufiges Backupkonzept habe
    - weil ich damit die Wiederherstellung planen kann
    ... und es rennt seit Jahren ohne Problemen ...

    Sc0rp
  • Also ich hab jetzt mehrere Jahre mein Raid 5 im Betrieb und noch nie musste ich einen Rebuild machen.
    Ich hab mir jetzt noch ein 2. system zusammengeschustert: (wäre dann halt bei den 5 Platten so, dass ich die via Sharkoon Raid Box am usb3 port betreiben würde)
    NAS Bauvorschlag:PreisNAS Bauvorschlag 2:Preis
    Mainboard:ASUS PRIME B360M-C90ASRock J5005-ITX MB116
    CPU:Intel® Core™ i3-9100F95Integriert0
    Ram:Crucial CT16G4DFD824A 16GB Speicher60Crucial CT2K4G4SFS824A 8GB 35
    Gehäuse:SST-PS07B80Cooler Master Elite 130 PC-Gehäuse45
    Netzteil:be quiet! Pure Power 11 CM 400W60PicoPSU-90 12V DC-DC ATX mini-ITX14
    Festplatte:Transcend 32GB SATA IMM, 288-Pin)20Transcend 32GB SATA IMM, 288-Pin)20
    Salcar 72W Netzteil (12V 6A)20
    AdapterQUMOX M.2 (NGFF) SSD auf tragbare USB3.015
    KabeldeleyCON 0,15m S-ATA Strom-Adapter Y-Adapter 8
    Endpreis:405273

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Zeze21 ()

  • Zeze21 schrieb:

    Also ich hab jetzt mehrere Jahre mein Raid 5 im Betrieb und noch nie musste ich einen Rebuild machen.
    So ist das halt mit der Statistik.
    Rauchen ist schädlich. Trotzdem wurde Helmut Schmidt sehr alt. Man sollte sich aber das nicht als Vorbild nehmen. Nicht jeder ist Gustav Gans.

    Es gibt Konfigurationen, die nach 10 Jahren ziemlich sicher zu einem Datenverlust führen, selbst wenn man das nicht immer sofort merkt, z.B. weil man ohne Datenprüfsummen das gar nicht so einfach merkt. Erst wenn man z.B. ein Bild öffnetund die Hälfte schwarz ist sieht man das. Wer ZFS nutzt, erkennt sowas wenn es Checksum errors beim Zugriff oder scrub gibt. Das erkennt nur ZFS, das Raid oder die Festplatte nicht. Die betroffene Datei ist definitiv korrupt.

    Es gibt andere Konfigurationen bei denen das Risiko nahe Null ist und das obwohl heutezutage RAM und Kapazität immens zunehmen. Ransomware droht und ein Voll-Backup bei entsprechender Kapazität 2 Wochen dauern kann. Dazu beigetragen hat Sun mit Solaris und ZFS vor 15 Jahren mit der Entwicklungen von ZFS mit Copy On Write, Snaps und Prüfsummen auf Daten und Metadaten die ja auch in Linux btrfs und Windows ReFS eingeflossen sind.

    Diese neuen Konzepte nicht zu nutzen weil es früher ja auch anders ging ist wie Auto ohne ABS und ESP zu kaufen "weil es früher ja auch ohne ging und ich nie einen Unfall hatte".

    Es ist ja nicht so, dass man eine NetApp für 100000 Euro kaufen müsste um dieses Sicherheitsniveau zu haben, ZFS ist OpenSource. Man muss es einfach nutzen. Gottseidank hatte die Klage von NetApp gegen ZFS vor 10 Jahren keinen Erfolg und Sun hat OpenSolaris mit ZFS als OpenSource veröffentlicht.

    Ich hatte früher auch mal ein Raid-5 auf meinem Windows Mailserver. War so der beste Raidcontroller damals mit Cache und BBU. Lief langer gut. Irgendwann gab es Zugriffsprobleme auf einzelne Mails. If habe dann ein chkdsk gestartet. Lief einen Tag und das Ergebnis erinnerte an Rührei. War vor über 10 Jahren. Ich habe mir dann ZFS angesehen (als Apple sich das überlegte) und bin gewechselt und habe das nie bereut.

    Zwischenzeitlich habe ich mit napp-it meine eigene ZFS Appliance auf Solarish und beschäftige mich auch beruflich intensiv mit Storage (weniger at home, eher Petabyte und Cluster).
  • Re,

    gea schrieb:

    ZFS ist OpenSource
    Ist es leider nicht (im Gegensatz zu OpenZFS auf dem ZoL basiert) - daher rühren ja die andauernden Lizenzproblematiken her, der Konflikt hat auch zur Entwicklung von BTRFS beigetragen (DAS ist wirklich OpenSource) ...
    (vgl. auch heise.de/newsticker/meldung/Li…mpft-mit-GPL-4274619.html und heise.de/newsticker/meldung/Ju…tu-16-04-LTS-3120072.html)

    Ich setze auch ZFS an verschiedenen Maschinen ein, allerdings nicht im klassischen "Heimbereich", da finde ich es nach wie vor einfach übertrieben - im Serverumfeld muss man aber ganz erheblich auf das Lizenzthema achten.

    gea schrieb:

    Das erkennt nur ZFS, das Raid oder die Festplatte nicht.
    Festplatten erkennen nur Fehler innerhalb ihres Clusters/Sektors - und korrigieren Diese on-the-fly selber. Das bekommt man nur über deren interne Statistik mit, wenn Diese entsprechend ordentlich aufgesetzt ist.
    RAID erkennt solche "Events" (defekte Blöcke) auch (bei jedem Lesen wird ja gegengeprüft), und tätigt wie ZFS eine mögliche Aktion, ebenfalls mit einer Logmeldung ... (ja, auch die HW-RAID-Controller haben dafür ein Log, das man mit Software auslesen kann ... sollte im professionellen Umfeld aber bekannt sein)

    gea schrieb:

    Diese neuen Konzepte nicht zu nutzen weil es früher ja auch anders ging ist wie Auto ohne ABS und ESP zu kaufen "weil es früher ja auch ohne ging und ich nie einen Unfall hatte".
    Das ist nicht meine Argumentation, solltest mal richtig lesen ...

    Ich habe mit diversen Leuten aus dem professionellen Storage-Bereich schon diskutiert, und ja ZFS ist toll - es ist und bleibt aber "Servergrade" und die Vorteile lassen sich nicht 1:1 aus dem Serverumfeld auf das Heimumfeld übertragen, zumal viele "einfache" Leute mit der Komplexität schlichtweg überfordert sind - und das führt meistens ehr zu suboptimalen Setups und Ergebnissen, als wenn man klassische, wenn auch einfache und alte, Technik einsetzt deren Risiken überschaubar sind und deren Lösungen massenhaft dokumentiert ist ... das sehe ich bei ZFS nicht ... und das eben auch nur, bis ein ordentlicher Ersatz kommt (ohne Lizenz- und Politik-SnaSna)

    Backup ist Pflicht! Auch bei ZFS ...

    gea schrieb:

    Zwischenzeitlich habe ich mit napp-it meine eigene ZFS Appliance auf Solarish und beschäftige mich auch beruflich intensiv mit Storage (weniger at home, eher Petabyte und Cluster).
    napp-it auf OmniOS-Basis ... oder Eines seiner Derivate (Solarish) ... pfffft.
    Naja, dem alten Solaris trauere ich ja auch nach ... aber seit Oracle auf der Bühne erschienen ist ... ist das Solaris-Umfeld m.E.n. einfach nur noch "kaputt" (mehr im politischen als im technische Sinn natürlich).
    Und auch hier: Solaris ist nix für Heimanwender, genauso wenig wie seine Derivate ...

    Sc0rp

    ps: wer sich 10 Jahre nicht ordentlich um sein RAID kümmert, hat den Datenverlust auch verdient ... ich habe das noch nie gehabt, und mein längstes RAID-Setup lief knapp 24 Jahre (ohne Datenverlust, aber mit einigen Rebuilds und Erweiterungen, ja sogar 3x einen Totaltausch gemacht), wurde letztlich durch ein hochmodernes und sauteures "All-Flash-Array" ersetzt, rate mal, wie's läuft ...
  • Re,

    @Zeze21: zu deinem Bauvorschlag 2 ... dort könntest du in den PCIe-Slot auch einen SATA-Controller einbauen, der weitere vier SATA-Ports bietet, dann brauchst du das gesamte Adaptregefrickel nicht - von Dem ich zudem abraten würde, zuviele zusätzliche/potentielle Problemstellen.

    Auch würde ich beim Bauvorschlag 2 vom PicoPSU abraten ... auch hier gibt es schon jede Menge Text im Forum. Zumal ich das noch nie für 14€ gesehen habe ... die Originalen kosten ab 25€ aufwärts (ohne VK).

    Sc0rp