Storage-Neuerungen in Windows Server 2016: Dedup, Quality of Service

    Daten-DeduplizierungMicrosoft brachte schon in Server 2012 (R2) eine Reihe von Neuerungen für Software-defined Storage, darunter Storage Spaces oder Scale-out File-Server (SoFS). Der Nachfolger baut nun einige dieser Features aus. Dazu zählen Storage Quality of Service (QoS) und Deduplizierung.

    Erklärtes Ziel von Microsoft ist es, mit Windows Server eine umfassende Speicherinfrastruktur auf Basis von Standard-Hardware bereitzustellen. Diese reicht vom Pooling interner Disks und SSDs mit Storage Spaces über hochverfügbare File Shares mit SoFS bis zu einem verteilten virtuellen SAN mit Storage Spaces Direct.

    Ergänzt wird das Windows-basierte Storage um eine Reihe von Diensten, die eine effizientere Nutzung der Ressourcen erlauben. Dazu gehören unter anderem die Erhöhung der Kapazität durch Deduplizierung der Daten und eine effizientere Verteilung der Bandbreite zwischen Anwendungen, abhängig von deren Bedarf.

    Dedup für größere Volumes

    Die Deduplizierung wurde mit Server 2012 eingeführt und in Server 2012 R2 um die Unterstützung für virtuelle Desktops unter RDS erweitert. Aufgrund der Größe von VM-Images und ihrer hohen Redundanz versprach diese Neuerung ein hohes Einsparungspotenzial für Speicherplatz.

    Dennoch litt auch die zweite Version von Dedup noch unter einigen Limitierung, die Windows Server 2016 beseitigt. Das betrifft vor allem die Leistungsfähigkeit und die Obergrenzen für die Größe von Volumes und Dateien.

    Entscheidend dafür ist ein überarbeiteter Optimierungsprozess, der nun mehrere Threads parallel nutzt. Die dadurch erreichte höhere Performance verhindert, dass die Deduplizierung nicht mehr mit den Änderungen auf dem Datenträger Schritt halten kann.

    So beträgt das Limit für die Größe von Dateien bei Server 2012 R2 zwar 1TB, aber Microsoft empfahl, dieses nicht auszureizen, weil der Prozess dadurch stark verlangsamt werden kann. Bei der Größe von Volumes liegt das Maximum bis dato bei 10 TB, weil auch hier bei größeren Laufwerken die Verarbeitung der Daten in Rückstand geraten könnte. Unter Server 2016 liegt die Obergrenze bei 64TB.

    Windows Server 2016 als Backup-Repository

    Mit der höheren Skalierbarkeit positioniert Microsoft seine Dedupli­zierung für eine neue Anwendung, nämlich für die Optimierung von Backups. Windows Server 2016 soll sich damit als Speicher für die Datensicherung eignen. Bei der Aktivierung des Features lässt es sich speziell für diesen Zweck konfigurieren.

    Bei der Aktivierung von Dedup für ein Volume lässt es sich für die Nutzung als Backup-Server konfigurieren.

    Die meisten fortgeschritten Backup-Programme beherrschen diese Funktion allerdings selbst, Microsoft nutzt aber das Dedup von Windows Server bereits heute im Data Protection Manager (DPM) und profitiert somit von den Verbesserungen in der Version 2016.

    Wie bisher optimiert auch der neue Server nur Volumes, die mit NTFS formatiert wurden. ReFS wird auch weiterhin nicht unterstützt.

    Storage QoS für Cluster

    Eine weitere Neuerung, die bereits mit dem Vorgänger eingeführt wurde und dort nur rudimentäre Fähigkeiten aufwies, ist der Quality of Service (QoS) für Storage. Unter Server 2012 R2 beschränkt er sich darauf, Unter- und Obergrenzen für IOPS pro VHD(X) festzulegen. Die Konfiguration gilt immer nur für einzelne Hosts und es fehlen adäquate Tools, um den tatsächlichen Bedarf für VMs zu ermitteln.

    Die Konfiguration von Storage QoS erfolgt in Windows Server 2012 R2 separat für jede VHD(X).

    Windows Server 2016 bringt hier deutliche Verbesserungen, weil er die Informationen über die Speicherzugriffe für alle Knoten eines Clusters sammelt und so einen entsprechenden Überblick über die gesamten Aktivitäten auf einem Speichersystem gewinnt. Entsprechend kann es die Zugriffe aller Hyper-V-Hosts gemäß der vergebenen Prioritäten steuern.

    Bevor sich Anwender jedoch daran machen, bestimmten Anwendungen mehr oder weniger IOPS einzuräumen, sollten sie natürlich die Anforderungen der jeweiligen VMs kennen. Windows Server enthält in der TP3 bereits ein PowerShell-Cmdlet namens Get-StorageQosFlow, das die notwendigen Informationen liefert.

    Policy-basiertes Management

    Nachdem Storage QoS künftig in der Lage ist, die Speicherzugriffe für zahlreichen VMs auch auf großen Clustern zu beschränken oder zu bevorzugen, wäre es nicht praktikabel, die Regeln weiterhin für jedes einzelne virtuelle Laufwerk festzulegen.

    Microsoft sieht stattdessen ein Policy-basiertes Management von QoS vor, bei dem man ein ganzes Set an Einstellungen gleichzeitig an mehrere VMs auf verschiedenen Hosts zuordnen kann.

    Im Gegensatz zu ersten Aussagen, wonach sich das erweitere Storage QoS auf Scale-out File-Server beschränken werde, bekräftigte Microsoft, dass es auch alle blockbasierten Speichersysteme unterstützen wird.

    Keine Kommentare