Tags: Hyperkonvergenz, Storage, Windows Server 2019, Hochverfügbarkeit
Windows Server 2019 enthält die nächste Generation von Storage Spaces Direct (S2D). Zu den Neuerungen zählen verschachtelte Volumes, die mehrere gleichzeitige Hardware-Ausfälle verkraften. Ziel sind 2-Node Cluster, diese Volumes können nur hier erstellt werden. Eine höhere Redundanz reduziert die verfügbare Kapazität.
Die neuen verschachtelten Volumes für Storage Spaces Direct (S2D) stehen in zwei Varianten zur Verfügung, zum einen als Nested 2-way Mirror Volumes und zum anderen als Nested mirror-accelerated Parity Volumes. Sie verteilen die Daten mehrfach über Laufwerke und Server, beispielsweise beruht Nested 2-way Mirroring auf einer 4-fachen Redundanz.
Nested 2-way Mirror Volumes
Neben der Erstellung von 2-Wege gespiegelten Volumes gibt es nun die Möglichkeit, diese auch zu verschachteln. Das Prinzip ist nicht kompliziert, das Resultat dabei hat jedoch einen hohen Stellenwert in Bezug auf 2-Knoten Umgebungen (dazu später mehr).
Bei der Konfiguration eines bisherigen 2-Wege gespiegelten Volumes werden die Datenblöcke geschrieben und dann eine Kopie parallel auf die Datenträger abgelegt. Bei einem Nested two-way Mirror passiert das lokal auf einem Server und zwei weitere Kopien werden auf dem zweiten Knoten gespeichert.
Hinweis: Innerhalb eines S2D-2-Knoten-Clusters besteht grundsätzlich nur die Möglichkeit zur Erstellung von 2-Wege-Spiegeln. 3-Wege gespiegelte Volumes werden somit nicht unterstützt und lassen sich auch nicht konfigurieren.
Nested mirror-accelerated Parity - Volumes
Bei Nested Mirror-accelerated Parity-Volumes wird Nested 2-Way Mirroring mit Nested Parity vereint. Die Spiegelebene gewährleistet schnelle Schreibvorgänge, wohingegen bei Parity jedes Schreiben mehr Rechenoperationen benötigt.
Die Speicher-Effizienz ist dabei jedoch besser als bei der "Nur-Spiegelung" von Daten. Mirror-accelerated Parity benötigt das ReFS (Resilient File System) als Grundlage.
Mein Lab mit Windows Server 2019 GA 1809
Da Windows Server 2019 (1809) sofort als GA erhältlich war, anstelle zuvor als RTM, ist für Storage Spaces Direct zertifizierte Hardware nicht unmittelbar erhältlich. Microsoft weist bei Aktivierung darauf hin und blockiert den Prozess vorerst.
Der Hinweis auf den Support bringt mich bei der Evaluierung in meiner Lab-Umgebung nicht weiter. Eine Insider Preview kommt für mich als Alternative aber nicht in Frage. Stattdessen beseitige ich die Sperre durch den dafür nötigen RegKey, das ist keine große Hürde. Mehr Informationen hier:
Software Defined Data Center and Software Defined Networking in Windows Server 2019
Konfiguration von Nested-Resiliency Volumes
Nachdem S2D in meinem 2-Knoten-Cluster aktiviert ist, werden die Nested-Resiliency Volumes wie folgt erzeugt. Zu Beginn werden die Tiers angelegt, eine Abfrage über Get-PhysicalDisk zeigt den aktuellen MediaType, hier: HDD.
# Für Nested 2-way Mirroring
New-StorageTier -StoragePoolFriendlyName S2D* -FriendlyName Nested2wMirror `
-ResiliencySettingName Mirror -MediaType HDD -NumberOfDataCopies 4
# Für Nested Parity
New-StorageTier -StoragePoolFriendlyName S2D* -FriendlyName NestedParity `
-ResiliencySettingName Parity -MediaType HDD -NumberOfDataCopies 2 `
-PhysicalDiskRedundancy 1 -NumberOfGroups 1 `
-FaultDomainAwareness StorageScaleUnit -ColumnIsolation PhysicalDisk
Tiers für SSD werden analog angelegt. Jetzt lassen sich auf Basis dieser Tiers die entsprechenden Volumes erstellen:
# Für Nested 2-way Mirroring
New-Volume -FriendlyName VolumeA -StorageTierFriendlyNames Nested2wMirror `
-StorageTierSizes 50GB
# Für Nested Mirror-accelerated Parity
New-Volume -FriendlyName VolumeB -StorageTierFriendlyNames Nested2wMirror, NestedParity -StorageTierSizes 50GB, 100GB
Netto-Kapazitäten und tolerierte Hardware-Fehler
Wurden vorab Tiers etabliert, dann können diese mit Get-StorageTier auch dementsprechend verifiziert werden. Doch Get-StorageTier liefert nach Volume-Erstellung auch Informationen zur Storage-Effizienz eben dieser konfigurierten Nested-Volumes.
Man erkennt hier gut, dass ein Nested 2-way Mirroring nur 25 Prozent nutzbare Kapazität erlaubt. Dem gegenüber ist die Effizienz eines Mirror-accelerated Parity Volumes etwas besser und bewegt sich insgesamt zwischen 35 und 40 Prozent. Die Volumes im Lab sind zu Testzwecken klein gewählt, in folgender Zeichnung wird jedoch deutlich, welche Auswirkung ein Nested 2-way Mirroring bei einem Volume mit 500 GB hat.
Der Footprint, also die raw-Laufwerkskapazität des Pools, wächst durch das 4-fach-Schreiben auf beachtliche 2 TB. Diese Kapazität müssen Sie nun vorhalten, damit Sie 500 GB für Ihre Daten (zum Beispiel virtuelle Maschinen) nutzen können.
Doch jetzt kommt der Stellenwert dieser Volumes in Bezug auf tolerierte Hardwareausfälle ins Spiel. Hierbei dürfen 2 Laufwerke gleichzeitig oder 1 Laufwerk und 1 Server zusammen ausfallen. Bisherige Spiegel-Volumes lassen nur einen Hardwareausfall zu, also etwa eines Laufwerks oder eines Servers.
Verwaltung im WAC und FCM
Die Volumes dürfen generell gemischt sein, d.h. Nested-Resiliency mit herkömmlichen 2-way Mirroring. Im Windows Admin Center (WAC) wird das übersichtlich dargestellt und auch ausgewiesen. Der folgende Screenshot verdeutlicht den Sachverhalt und zeigt zu den angelegten Volumes auch die ClusterPerformanceHistory.
Schaut man sich die Details zu einem Nested-Resiliency Volume genauer an, erkennt man zusätzlich die nutzbare Kapazität sowie des zugehörigen Footprints. Die Deduplizierung ist auf meinen Volumes ausgeschaltet, über das WAC kann diese komfortabel aktiviert werden (Denken Sie an den Performance-Impact dabei).
Interessant ist auch immer der Blick in den Failover Cluster Manager (FCM). Dieser gibt unterhalb der Resiliency aber keine genauen Daten zu den verschachtelten Disks.
Dafür erkennt man hier die eingestellten Columns und das zugehörige Interleave!
Weitere Informationen zu S2D in Windows Server 2019
Auf TechNet und den Support-Seiten von Microsoft:
- Hyper-converged infrastructure in Windows Server 2019 – the countdown clock starts now!
- Software Defined Data Center and Software Defined Networking in Windows Server 2019
Informationen rund um die zusätzlichen Qualifizierer hier:
Täglich Know-how für IT-Pros mit unserem Newsletter
Marcel Küppers arbeitet seit über 25 Jahren in der IT, aktuell als Team Leader, zuvor als Consultant und Infrastructure Architect unter anderem für den japanischen Konzern JTEKT/TOYODA mit Verantwortung über die Europastandorte Krefeld und Paris. Darüber hinaus wirkte er als Berater im EU-Projekt-Team für alle Lokationen des Konzerns mit und ist spezialisiert auf hochverfügbare virtualisierte Microsoft-Umgebungen plus Hybrid Cloud Solutions. Zertifizierungen: MS Specialist und MCTS für Hyper-V/SCVMM, MCSE, MCITP, MCSA. Zusätzlich zertifiziert für PRINCE2 Projektmanagementmethode.
// Kontakt: E-Mail, Twitter, LinkedIn //
Verwandte Beiträge
- Hyperkonvergente Systeme: Azure Stack HCI versus Windows Server mit Storage Spaces Direct
- Fachbuch: Hyperkonvergente Infrastrukturen mit Windows Server und Storage Spaces Direct (S2D)
- Übersicht zu den Neuerungen für Storage Spaces Direct unter Windows Server 2019
- Windows Server 2019: Die wichtigsten Neuerungen im Überblick
- Hyper-converged Cluster mit Storage Spaces Direct in SCVMM installieren
Weitere Links