Die Streifengröße (Stripe) eines Raids in Verbindung mit der Zuordnungseinheitengröße (Cluster) kann einen starken Einfluss auf die Geschwindigkeit des Raid-Verbunds haben. Ich habe mir einmal angeschaut wie groß die Unterschiede beim sequenziellen Lesen- und Schreiben sind und welches die beste Einstellung ist.

Die optimale Einstellung hängt von vielen Faktoren ab, wie etwa der Anzahl der Festplatten, der Festplattengröße (?), der durchschnittlichen Dateigröße sowie dem Verhältnis der Streifengröße zur Zuordnungseinheitengröße.

In meinem Test gehe ich vom normalen Benutzer aus, der auf seinem Raid-Verbund Bilder, Musik, Dokumente und Videodateien speichern möchte. Auf letztere habe ich einen verstärkten Augenmerk geworfen da sich bei größeren Dateien ein Geschwindigkeitsunterschied natürlich noch viel stärker bemerkbar macht.

Bei der Erstellung eines Raid-Verbunds in der Intel Rapid Storage Software hat man die Wahl eine Streifengröße für den Verbund festzulegen. Diese kann einen erheblichen Einfluss auf die Transfergeschwindigkeit von Dateien haben.

[bild 1]

Besonders wichtig für die Schreibgeschwindigkeit sind die Cache-Einstellungen in der Intel Rapid Storage Software. Die besten Transferraten lassen sich durch eine [b]Deaktivierung der Schreibcachepuffer-Leerung[/b] und dem Cache-Modus [b]Write-Back[/b] erzielen.

Zwar gehen dann bei einem Stromausfall flüchtige Dateien (also Dateien die gerade transferiert werden) verloren, wenn sich diese im Cache befinden und noch nicht vollständig auf die Festplatte geschrieben sind. Dies ist meiner Meinung nach aber für die meisten privaten Benutzer absolut verzichtbar. Eine Aktivierung des Caches hat eine bis zu [b]Verzehnfachung der Schreibraten[/b] zur Folge.

Getestet habe ich die sequenziellen Transferraten unter Windows 7 Pro 64bit. Beim Prozessor kam ein Intel Celeron G1840 mit einem ASRock H97M Pro4 Mainboard zum Einsatz. Gemessen wurden die sequenziellen Lese- und Schreibraten mit CrystalDiskMark 3.0.3 (64bit).

[b]Erklärungen[/b] Cluster size = Größe der Zuordnungseinheit beim Formatieren im NTFS Format
Stripe size = Streifengröße, einstellbar in der Intel Rapid Storage Software (kann nur beim Erstellen eines Raids gewählt werden) [title]Raid 5 aus 3 Festplatten[/title] [table] [tr][td][b]Cluster size[/b][/td][td][b]Stripe size[/b][/td][td][b]RST-Version[/b][/td][td][b]Festplatte[/b][/td][td][b]Lesen[/b][/td][td][b]Schreiben[/b][/td][/tr] [tr][td]4k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]307 MB/s[/td][td][color rot]46 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]300 MB/s[/td][td][color rot]62 MB/s[/color][/td][/tr] [tr][td]16k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]298 MB/s[/td][td][color rot]62 MB/s[/color][/td][/tr] [tr][td]32k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]305 MB/s[/td][td][color rot]61 MB/s[/color][/td][/tr] [tr][td]64k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]306 MB/s[/td][td][color rot]63 MB/s[/color][/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]308 MB/s[/td][td][color rot]145 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]303 MB/s[/td][td]288 MB/s[/td][/tr] [tr][td]16k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]303 MB/s[/td][td]288 MB/s[/td][/tr] [tr][td]32k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]307 MB/s[/td][td]297 MB/s[/td][/tr] [tr][td]64k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]307 MB/s[/td][td]300 MB/s[/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]306 MB/s[/td][td]293 MB/s[/td][/tr] [tr][td]8k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]310 MB/s[/td][td]291 MB/s[/td][/tr] [tr][td]16k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]305 MB/s[/td][td]298 MB/s[/td][/tr] [tr][td]32k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]314 MB/s[/td][td]295 MB/s[/td][/tr] [tr][td]64k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]311 MB/s[/td][td]296 MB/s[/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td][color gruen][b]309 MB/s[/b][/color][/td][td][color gruen][b]301 MB/s[/b][/color][/td][/tr] [tr][td]8k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]286 MB/s[/td][td]300 MB/s[/td][/tr] [tr][td]16k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]308 MB/s[/td][td]297 MB/s[/td][/tr] [tr][td]32k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]304 MB/s[/td][td]294 MB/s[/td][/tr] [tr][td]64k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]302 MB/s[/td][td]294 MB/s[/td][/tr] [/table] [title]Raid 5 aus 4 Festplatten[/title] [table] [tr][td][b]Cluster size[/b][/td][td][b]Stripe size[/b][/td][td][b]RST-Version[/b][/td][td][b]Festplatte[/b][/td][td][b]Lesen[/b][/td][td][b]Schreiben[/b][/td][/tr] [tr][td]4k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]383 MB/s[/td][td][color rot]178 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]386 MB/s[/td][td]372 MB/s[/td][/tr] [tr][td]16k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]405 MB/s[/td][td]410 MB/s[/td][/tr] [tr][td]32k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]400 MB/s[/td][td]408 MB/s[/td][/tr] [tr][td]64k[/td][td]16k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]391 MB/s[/td][td]407 MB/s[/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]369 MB/s[/td][td][color rot]247 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]403 MB/s[/td][td]398 MB/s[/td][/tr] [tr][td]16k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]381 MB/s[/td][td]418 MB/s[/td][/tr] [tr][td]32k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]366 MB/s[/td][td]414 MB/s[/td][/tr] [tr][td]64k[/td][td]32k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]390 MB/s[/td][td]418 MB/s[/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]447 MB/s[/td][td][color rot]312 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]431 MB/s[/td][td]408 MB/s[/td][/tr] [tr][td]16k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]441 MB/s[/td][td]411 MB/s[/td][/tr] [tr][td]32k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]438 MB/s[/td][td]409 MB/s[/td][/tr] [tr][td]64k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]439 MB/s[/td][td]409 MB/s[/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]445 MB/s[/td][td][color rot]331 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td][color gruen][b]441 MB/s[/b][/color][/td][td][color gruen][b]417 MB/s[/b][/color][/td][/tr] [tr][td]16k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]433 MB/s[/td][td]412 MB/s[/td][/tr] [tr][td]32k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]438 MB/s[/td][td]405 MB/s[/td][/tr] [tr][td]64k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]445 MB/s[/td][td]407 MB/s[/td][/tr] [/table] [title]Raid 5 aus 5 Festplatten[/title] [table] [tr][td][b]Cluster size[/b][/td][td][b]Stripe size[/b][/td][td][b]RST-Version[/b][/td][td][b]Festplatte[/b][/td][td][b]Lesen[/b][/td][td][b]Schreiben[/b][/td][/tr] [tr][td]4k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]592 MB/s[/td][td][color rot]375 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]558 MB/s[/td][td]537 MB/s[/td][/tr] [tr][td]16k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]550 MB/s[/td][td]541 MB/s[/td][/tr] [tr][td]32k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td][color gruen][b]561 MB/s[/b][/color][/td][td][color gruen][b]551 MB/s[/b][/color][/td][/tr] [tr][td]64k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]539 MB/s[/td][td]538 MB/s[/td][/tr] [/table] [title]Raid 5 aus 6 Festplatten[/title] [table] [tr][td][b]Cluster size[/b][/td][td][b]Stripe size[/b][/td][td][b]RST-Version[/b][/td][td][b]Festplatte[/b][/td][td][b]Lesen[/b][/td][td][b]Schreiben[/b][/td][/tr] [tr][td]4k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]625 MB/s[/td][td][color rot]58 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]603 MB/s[/td][td][color rot]63 MB/s[/color][/td][/tr] [tr][td]16k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]601 MB/s[/td][td][color rot]62 MB/s[/color][/td][/tr] [tr][td]32k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]611 MB/s[/td][td][color rot]64 MB/s[/color][/td][/tr] [tr][td]64k[/td][td]64k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]594 MB/s[/td][td][color rot]59 MB/s[/color][/td][/tr] [tr][td colspan=6] [/td][/tr] [tr][td]4k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]575 MB/s[/td][td][color rot]42 MB/s[/color][/td][/tr] [tr][td]8k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]594 MB/s[/td][td][color rot]45 MB/s[/color][/td][/tr] [tr][td]16k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]598 MB/s[/td][td][color rot]43 MB/s[/color][/td][/tr] [tr][td]32k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]576 MB/s[/td][td][color rot]43 MB/s[/color][/td][/tr] [tr][td]64k[/td][td]128k[/td][td]13.1.0.1058[/td][td]WD40EFRX – 4TB[/td][td]587 MB/s[/td][td][color rot]48 MB/s[/color][/td][/tr] [/table] [title]NTFS Standard Clustergrößen[/title] Hier eine Auflistung der von Windows 7 / 8 / Windows Server 2008+ genutzen Standard-Clustergrößen. [table] [tr][td][b]Volumengröße[/b][/td][td][b]Cluster size[/b][/td][/tr] [tr][td]kleiner als 16TB[/td][td]4k[/td][/tr] [tr][td]16-32TB[/td][td]8k[/td][/tr] [tr][td]32-64TB[/td][td]16k[/td][/tr] [tr][td]64-128TB[/td][td]32k[/td][/tr] [tr][td]128-256TB[/td][td]64k[/td][/tr] [/table] Quelle: [link ziel=“https://support.microsoft.com/kb/140365/de]Microsoft KB140365[/link], Volumengröße = Größe der Festplatte / des Raid-Verbunds [b]ohne Parität[/b]. [title]Fazit und Empfehlung[/title] Es lohnt sich definitiv eine aufeinander abgestimmte Kombination aus Streifen- und Clustergröße zu wählen. In meinem Test habe ich herausgefunden, dass schon bei 3 Festplatten im Raid 5 die beste Kombination 6x so schnell ist wie die schlechteste. Windows wählt bei Festplatten einer Kapazität von bis zu 16TB standardmässig eine Clustergröße von 4k aus. Allerdings lässt sich fast immer mit einer Clustergröße von 8k ein besseres Ergebnis erzielen.

Mit der Verwendung von 6 Festplatten scheint der Rapid Storage Controller Probleme zu haben. Dieses liegt wohl an einem Fehler im Treiber des Controllers ([link ziel=“https://communities.intel.com/thread/18400]Quelle[/link]) und ist seit 4 Jahren bei Intel bekannt. Warum hierfür keine Lösung angeboten wird ist offen. Daher kann ich aktuell die Verwendung von 6 Festplatten in einem Raid 5 Verbund mit der RST nicht empfehlen.

Gerne könnt ihr eure Benchmarkwerte (bitte ein Screenshot von CrystalDiskMark 3.0.3 x64 anhängen) bei uns einsenden ([ilink=mailto:stefan@technikaffe.de]stefan@technikaffe.de[/ilink]), die Werte nehmen wir dann in diese Liste auf. Bitte nennt auch die Version der benutzen Intel Rapid Storage Technology Software.

15 Replies to “Intel Rapid Storage – Beste Kombination aus Stripe- und Clustergröße”

  • Thorsten says:

    Hallo,

    herzlichen Dank für Eure riesige Arbeit!!! Und das alles unter Hobby-Bedingungen, Respekt!

    Aber mal eine Frage zum Thema: Besteht dieses Schreibperformance-Problem bei 6 Platten mit der RST-Version 13.6.0.1002 immer noch? Hat das schon jemand zufriedenstellend im Betrieb?

    Ich habe mittlerweile die sechste 3TB-Platte hier auf dem Tisch liegen und überlege, ob ich sie auch einbauen soll. Mein RAID5 mit bisher 5 Platten läuft rundum gut, das möchte ich ungern riskieren.

    Nochmals herzlichen Dank für Eure guten Anleitungen!

    Gruß aus Mitteldeutschland
    Thorsten

  • Stefan says:

    @Thorsten: Wir können das gerade leider nicht testen weil wir nicht mehr genügend Festplatten da haben.

  • Thorsten says:

    Ah ok, hätte ja sein können…
    Vielleicht hat ja ein anderer Leser hier entsprechende Erfahrungen zu berichten 🙂

  • Thorsten says:

    So, habe mir jetzt ein Herz gefasst und eine sechste Platte gleichen Typs ins RAID5 gepackt.

    CrystalDiskMark hat wie vorhergesagt eine schlechte Schreibperformance attestiert. Hier kam ich nicht wesentlich über 90MB/s sequenziell.

    Aber die Tests in der Realität mit 5GB sowie 15GB-Dateien (DVD/BD) haben eine Kopiergeschwindigkeit jenseits der 250MB/s von und zu einer SSD ergeben. Somit reicht mir die Performance des RAID5 mit 6 Platten, da die NIC nun der Flaschenhals im Netz ist.

    Danke nochmal für Eure informative Seite! Nächstes Projekt: Hardware-RAID. Warum? Weil´s geht und das Intel-RAID gut geklappt hat.
    Man orientiert sich schließlich nach oben 🙂

  • Matt says:

    First of all this is a great article, finally someone understands that not everyone wants to run a 3rd party raid card when the onboard one is just fine for most needs out there.

    I do have a question about the 5 drive results, how come you didnt use multiple stripe sizes there?

  • Stefan says:

    @Matt: The 5 drives results were submitted by an user and he only tested the 64k strip size. If you can submit more data, you are welcome 🙂

  • Joel says:

    Sehr cooler Artikel zum Thema NAS-Selbstbau, Respekt! Vor allem die empirische Ermittlung zum idealen Verhältnis Stripe-Size (-> Cluster Size finde ich klasse!
    Gerade bei großen Arrays gibt es neben der Performance noch einen weiteren Grund, die Clustergröße nicht zu niedrig einzustellen – die *Zahl* der Cluster, die mit NTFS verwaltet werden können, ist nämlich begrenzt! Mit der Standardgröße ist bei Erreichen der 16TB Marke Schicht, daher sollte man für Arrays >16TB in jedem Fall eine Clustersize von 64KB+ wählen…

  • Alex says:

    Habe entsprechend Euren tollen Anleitung RAID 5 konfiguriert. Treiber von RST ist aktuell, die RAID ROM ist 12.7
    Hier Ergebnisse von CrystalMark 5 als Screenshot:
    https://www.dropbox.com/s/n85bce1h7e4tssb/Screenshot%202016-08-22%2021.19.25.png?dl=0
    Ist eine niedrige Leserate von ca 5MB/s bei zufälligen Zugriffen der Regelfall?

  • Stefan says:

    @Alex: Deine Daten sehen für mich ok aus. Bei zufälligen Zugriffen kannst Du von einem klassischen RAID leider nicht viel erwarten 🙂

  • Andi says:

    Sind die Probleme mit dem neusten Treiber bei 6 Platten immer noch vorhanden?

    Intel® Rapid-Storage-Technik (Intel® RST) RAID-Treiber der Version 15.2.0.1020

    Grüsse

  • Stefan says:

    @Andi: Kann ich dir leider nicht sagen, da ich aktuell kein Intel RAID mit 6 Festplatten verwende.

  • Joel says:

    Hallo, habt Ihr auch mal „größere“ Systeme getestet? Mit meinem HW Raid 6 (Adaptec 52445 auf einem alten Supermicro x7 Atom D515 Board und 16x 2TB, 64K Cluster Size und 512 KB Stripe Size, Write Back Cache aktiviert) komme ich auf vergleichsweise niedrige Werte mit Crystaldiskmark: 526,2 MB/s lesen, 372,1 MB/s schreiben. Ist natürlich nicht unmittelbar vergleichbar (z.B. durch die doppelte Parity Berechnung bei Raid 6), aber scheinbar skalieren die Transferraten bei höheren Plattenzahlen irgendwann nicht mehr-?

    LG

  • Phil says:

    Sehr interessante Zusammenstellung!

    Ich habe jedoch ganz andere Erfahrungen gemacht.
    Ich nutze 3 WDEARS Festplatten mit jeweils 2TB im Raid5 mit Intel RST.
    Diese haben ebenfalls, wie die hier genutzten WD red, eine 4kB emulation (physikalisch) bei 512 Byte logischen Sektoren.

    Jede der Platten lag im Einzeltest bei ~ 130MB/s lesen, 120MB/s schreiben (als Ausfallsicheres Datengrab mehr als ausreichend).

    Mit 32kB stripe size und 8kB cluster size komme ich mit CrystalDiskMark 3.0.2 auf gerade mal 230MB/s lesen und 12MB/s schreiben (nein, beim Schreiben habe ich keine NULL vergessen 😀 ).

    Mit 32kB stripe size und 4kB cluster:
    232MB/s lesen, 110MB/s schreiben

    Mit 32kB stripe size und 16kB cluster:
    234MB/s lesen, 107MB/s schreiben

    Mit 32kB stripe size und 32kB cluster:
    228MB/s lesen, 112MB/s schreiben

    Mit 32kB stripe size und 64kB cluster:
    225MB/s lesen, 105MB/s schreiben

    Zum Vergleich: VOR der Initialisierung hatte ich mit 32kB stripe size und 64kB cluster:
    231MB/s lesen, 200MB/s schreiben

    Da mit größeren Zuordnungseinheiten (cluster) auch gleichzeitig der Platzbedarf steigt, habe ich für mich 32kB stripe size mit 4kB cluster ausgewählt.

    Ein wichtiger Faktor bei dem Ganzen ist das Initialisieren.
    Ohne funktioniert das Raid im Falle eines Ausfalles nicht und die Initialisierung verändert stark die Performance (und kostet leider sehr viel Zeit… daher wären Messreihen hierbei eine Monatsbeschäftigung).

    Mein Raid5 ist mit 32k stripe size Initialisiert.
    Schreibcachepuffer ist Deaktiviert und der Cache im Write-Back Modus.

    Sollte ich irgendwo einen Denkfehler haben oder was anderes versuchen, dann schreibt mir einfach eure Hinweise und Tipps 😉

    Alle Daten gestetet under Windows 7 64bit mit einem i5 3550 und 16GB DDR3 RAM.

  • Alexander says:

    Bei mir besteht das Problem mit sechs Platten (RST-Version 17.7.0.1006, Asrock H370M-ITX/ac, 6x 6TB WD Red, Windows Server 2019), wobei die Schreibrate sehr stark schwankt. Es startet oft mit über 200 MB/s und bricht dann auf etwas über 20 MB/s ein.

    Hat da inzwischen jemand eine Lösung gefunden?

  • giantroXx says:

    Hi,

    Also der Thread hier ist ja schon echt alt – aber da ich aus aktuellem Anlass wieder mit dem Thema zu tun hatte noch meinen Senf dazu:

    Ich habe ein Intel RST Raid 5 bestehend aus 6 x WD RED mit 4 TB (ca. 21,8TiB formatierter Speicher.
    Ursprünglich hatte ich hier eine StripSize von 64k und eine NTFS Clustersize von von 4KB.
    Ich war ursprünglich auf RST Version 15.9.8.1050 und habe dann auf RST Version 17.11.0.1000 geupdated.

    Da das Raid 5 je voller es wurde immer langsamer wurde (nur schreiben, nicht lesen), habe ich kürzlich nachdem ich das Raid Array kürzlich neu aufgesetzt, nachdem ich die Daten auf ein neues Raid sichern konnte.
    Wichtig war mir eigentlich immer nur, dass ich Gigabit auslaste, das war anfangs auch der fall nur inzwischen hatte ich nur noch ca. 40mb/s schreibend.

    Habe das Raid dann zunächst mit 128k StripeSize aufgesetzt. Dabei kam es während der Initialisierung unter Treiber RST Version 17.11.0.1000 erstmal zu einem Fehler – obwohl die HDD’s in Ordnung waren.
    Anschließend habe ich das Raif mit NTFS und diversen Clustersizes > 4kb getestet.
    Die Schreibperformance war absolut mies! Deutlich schlechter, als mit dem alten Setup!
    Einstellungen natürlich immer identisch.

    Jetzt das ganze nochmal (es vergehen ja immer ca. 4 Tage bis das Array initialisiert ist.
    Dieses mal habe ich wieder eine StripeSize von 64k gewählt mit 8k Clustern und RST Version 16.8.4.1011, da die RST Version 17.11 einen nicht so guten Eindruck machte.
    Kopiere gerade alles zurück, die Performance ist auf jeden fall am Gigabit Limit d.h. schonmal viel schneller als noch mit der 128k StripeSize!

    Habe daher die Vermutung, dass bei 6 HDD’s eine kleinere StripeSize mit einer dafür größeren ClusterSize gut für die Performance ist.
    Wie sich das ganze mit 32k StripeSize und verschiedenen ClusterSizes verhält, wäre natürlich jetzt noch interessant.
    Eventuell ist das am Schluss noch die beste Option für 6HDD’s
    Ich bleibe erstmal bei der jetzigen Einstellung und hoffe, dass das Array auch wenn es voller wird schnell bleibt.

    Grüße

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

CPU Vergleich

Technikaffe.de

Wir von Technikaffe.de schreiben über Mini-PCs, XBMC / Kodi Mediaplayer und NAS. Spezialisiert haben wir uns vor allem auf sparsame Hardware. Bei Fragen und Feedback kontaktiert uns gerne über die Kommentarfunktion, wir lesen täglich mit und antworten in der Regel binnen 24 Stunden.

Temizlikci kıza tecavüz teciz zorla porno izle Porno film video izlemek istiyorum Ters Sikiş komik porno gif resimleri Samanlıkta sarışın pornosu izle Göt deliğine boşalma videosu Bedava am yalama pornosu izle Değişik fantezi videoları Kaynanasını siken damat sex Sarışın hatunu götten sikmek porno porno izle sikiş seyret Haley üvey annesinin yanına taşınıyor ve kardeşinin yarrağını yiyor Zorla gercek tecavuz Latin dolgun vajina Rus sevgili sikiş resim