Storage Spaces Direct in Windows Server 2019: Höhere Ausfallsicherheit durch Nested Resiliency-Volumes

    S2D Nested VolumesWindows Server 2019 ent­hält die nächste Genera­tion von Storage Spaces Direct (S2D). Zu den Neuer­ungen zählen ver­schach­telte Volumes, die mehrere gleich­zeitige Hardware-Ausfälle ver­kraften. Ziel sind 2-Node Cluster, diese Volumes können nur hier erstellt werden. Eine höhere Redun­danz reduziert die verfüg­bare Kapazität.

    Die neuen verschachtelten Volumes für Storage Spaces Direct (S2D) stehen in zwei Varianten zur Verfügung, zum einen als Nested 2-way Mirror Volumes und zum anderen als Nested mirror-accelerated Parity Volumes. Sie verteilen die Daten mehrfach über Laufwerke und Server, beispielsweise beruht Nested 2-way Mirroring auf einer 4-fachen Redundanz.

    Nested 2-way Mirror Volumes

    Neben der Erstellung von 2-Wege gespiegelten Volumes gibt es nun die Möglichkeit, diese auch zu verschachteln. Das Prinzip ist nicht kompliziert, das Resultat dabei hat jedoch einen hohen Stellenwert in Bezug auf 2-Knoten Umgebungen (dazu später mehr).

    Bei der Konfiguration eines bisherigen 2-Wege gespiegelten Volumes werden die Daten­blöcke geschrieben und dann eine Kopie parallel auf die Datenträger abgelegt. Bei einem Nested two-way Mirror passiert das lokal auf einem Server und zwei weitere Kopien werden auf dem zweiten Knoten gespeichert.

    Datenverteilung bei einem Nested two-way Mirror Volume  Quelle: MSFT

    Hinweis: Innerhalb eines S2D-2-Knoten-Clusters besteht grundsätzlich nur die Möglichkeit zur Erstellung von 2-Wege-Spiegeln. 3-Wege gespiegelte Volumes werden somit nicht unterstützt und lassen sich auch nicht konfigurieren.

    Nested mirror-accelerated Parity - Volumes

    Bei Nested Mirror-accelerated Parity-Volumes wird Nested 2-Way Mirroring mit Nested Parity vereint. Die Spiegelebene gewährleistet schnelle Schreib­vorgänge, wohingegen bei Parity jedes Schreiben mehr Rechen­operationen benötigt.

    Datenverteilung bei einem Nested Mirror-accelerated Parity Volume  Quelle: MSFT

    Die Speicher-Effizienz ist dabei jedoch besser als bei der "Nur-Spiegelung" von Daten. Mirror-accelerated Parity benötigt das ReFS (Resilient File System) als Grundlage.

    Mein Lab mit Windows Server 2019 GA 1809

    Da Windows Server 2019 (1809) sofort als GA erhältlich war, anstelle zuvor als RTM, ist für Storage Spaces Direct zertifizierte Hardware nicht unmittelbar erhältlich. Microsoft weist bei Aktivierung darauf hin und blockiert den Prozess vorerst.

    Hinweis auf Verwendung von nicht-zertifizierter Hardware und Anhalten der Konfiguration von S2D

    Der Hinweis auf den Support bringt mich bei der Evaluierung in meiner Lab-Umgebung nicht weiter. Eine Insider Preview kommt für mich als Alternative aber nicht in Frage. Stattdessen beseitige ich die Sperre durch den dafür nötigen RegKey, das ist keine große Hürde. Im Event Log des Systems wird dieser Umstand mit ID 1809 gelistet.

    Konfiguration von Nested-Resiliency Volumes

    Nachdem S2D in meinem 2-Knoten-Cluster aktiviert ist, werden die Nested-Resiliency Volumes wie folgt erzeugt. Zu Beginn werden die Tiers angelegt, eine Abfrage über Get-PhysicalDisk zeigt den aktuellen MediaType, hier: HDD.

    # Für Nested 2-way Mirroring
    New-StorageTier -StoragePoolFriendlyName S2D* -FriendlyName Nested2wMirror `
    -ResiliencySettingName Mirror -MediaType HDD -NumberOfDataCopies 4

    # Für Nested Parity
    New-StorageTier -StoragePoolFriendlyName S2D* -FriendlyName NestedParity `
    -ResiliencySettingName Parity -MediaType HDD -NumberOfDataCopies 2 `
    -PhysicalDiskRedundancy 1 -NumberOfGroups 1 `
    -FaultDomainAwareness StorageScaleUnit -ColumnIsolation PhysicalDisk

    Tiers für SSD werden analog angelegt. Jetzt lassen sich auf Basis dieser Tiers die entsprechenden Volumes erstellen:

    # Für Nested 2-way Mirroring
    New-Volume -FriendlyName VolumeA -StorageTierFriendlyNames Nested2wMirror `
    -StorageTierSizes 50GB

    # Für Nested Mirror-accelerated Parity
    New-Volume -FriendlyName VolumeB -StorageTierFriendlyNames Nested2wMirror, NestedParity -StorageTierSizes 50GB, 100GB

    Netto-Kapazitäten und tolerierte Hardware-Fehler

    Wurden vorab Tiers etabliert, dann können diese mit Get-StorageTier auch dementsprechend verifiziert werden. Doch Get-StorageTier liefert nach Volume-Erstellung auch Informationen zur Storage-Effizienz eben dieser konfigurierten Nested-Volumes.

    Verifizierung der Tiers und Storage Effizienz der Volumes

    Man erkennt hier gut, dass ein Nested 2-way Mirroring nur 25 Prozent nutzbare Kapazität erlaubt. Dem gegenüber ist die Effizienz eines Mirror-accelerated Parity Volumes etwas besser und bewegt sich insgesamt zwischen 35 und 40 Prozent. Die Volumes im Lab sind zu Testzwecken klein gewählt, in folgender Zeichnung wird jedoch deutlich, welche Auswirkung ein Nested 2-way Mirroring bei einem Volume mit 500 GB hat.

    Nutzbare Kapazität am Beispiel eines Nested 2-way Mirror Volume

    Der Footprint, also die raw-Laufwerkskapazität des Pools, wächst durch das 4-fach-Schreiben auf beachtliche 2 TB. Diese Kapazität müssen Sie nun vorhalten, damit Sie 500 GB für Ihre Daten (zum Beispiel virtuelle Maschinen) nutzen können.

    Doch jetzt kommt der Stellenwert dieser Volumes in Bezug auf tolerierte Hardwareausfälle ins Spiel. Hierbei dürfen 2 Laufwerke gleichzeitig oder 1 Laufwerk und 1 Server zusammen ausfallen. Bisherige Spiegel-Volumes lassen nur einen Hardwareausfall zu, also etwa eines Laufwerks oder eines Servers.

    Verwaltung im WAC und FCM

    Die Volumes dürfen generell gemischt sein, d.h. Nested-Resiliency mit herkömmlichen 2-way Mirroring. Im Windows Admin Center (WAC) wird das übersichtlich dargestellt und auch ausgewiesen. Der folgende Screenshot verdeutlicht den Sachverhalt und zeigt zu den angelegten Volumes auch die ClusterPerformanceHistory.

    Mixed Volumes im WAC

    Schaut man sich die Details zu einem Nested-Resiliency Volume genauer an, erkennt man zusätzlich die nutzbare Kapazität sowie des zugehörigen Footprints. Die Dedup­lizierung ist auf meinen Volumes ausgeschaltet, über das WAC kann diese komfortabel aktiviert werden (Denken Sie an den Performance-Impact dabei).

    Details zu einem Nested-Resiliency Volume

    Interessant ist auch immer der Blick in den Failover Cluster Manager (FCM). Dieser gibt unterhalb der Resiliency aber keine genauen Daten zu den verschachtelten Disks.

    Details zu einem Nested-Resiliency Volume im Failover Cluster Manager

    Dafür erkennt man hier die eingestellten Columns und das zugehörige Interleave!

    Weitere Informationen zu S2D in Windows Server 2019

    Auf TechNet und den Support-Seiten von Microsoft:

    Informationen rund um die zusätzlichen Qualifizierer hier:

    Keine Kommentare