Tags: Windows, Performance
Eine ganze Tipp-Industrie versorgt vor allem Privatanwender mit Tricks, um ihren PC zu beschleunigen. Aber auch jeder ordentliche Admin macht sich Gedanken, wie er eine Referenzinstallation optimieren könnte, bevor sie auf hunderte oder tausende PCs verteilt wird. Noch kritischer scheint es zu sein, ein Master-Image für virtuelle Desktops auf minimalen Ressourcenverbrauch zu trimmen, um viele VMs pro Server fahren zu können. Wie es aussieht, kann man sich die Mühe für das Windows-Tuning aber weitgehend sparen.
Wer schon länger in der Systemadministration tätig ist, für den ist es wahrscheinlich eine bewährte Praxis, Windows nach der Installation hinsichtlich Performance und Speicherbedarf zu optimieren. Ein interessanter Test von Ron Oglesby ist jedoch ein Indiz dafür, dass Client-Betriebssysteme seit den 90er-Jahren bei der optimalen Ausnutzung vorhandener Ressourcen eine Menge dazugelernt haben.
Optimiertes und unmodifiziertes Windows im Vergleich
Zweck der Untersuchung war es, den Einfluss der Windows-Optimierung auf die VM-Dichte pro Server in VDI-Installationen auszumachen. Dafür nutzte Oglesby den Reference Architecture Workload Creator von VMware, um Benutzeraktivitäten im virtuellen Desktop zu simulieren. Er verglich eine unmodifizierte Standardinstallation mit einer manuell optimierten Konfiguration, in der mehr als ein Dutzend Dienste deaktiviert und eine ganze Reihe von Windows-Komponenten deinstalliert wurden.
Mehr RAM benötigt nach Tuning
Das überraschende Ergebnis bestand darin, dass die CPU-Auslastung der beiden Installationen ungefähr gleich war, die optimierte Variante dagegen mehr RAM verbrauchte als die unmodifizierte. Einzig bei den Startzeiten von Anwendungen wirkte sich das Tuning positiv aus, allerdings brachte es im Durchschnitt nur eine Beschleunigung von 9 Prozent. Bei Ladezeiten zwischen 1 und 2,5 Sekunden ist sie vom Benutzer jedoch nicht wahrnehmbar.
Fortschritte bei der Ressourcen-Auslastung
Unklar ist, wie belastbar die Ergebnisse sind und ob sie sich auf beliebige Konstellationen übertragen lassen. Allerdings belegen sie plausible Fortschritte bei der Fähigkeit von Windows, sich automatisch auf die Leistungsfähigkeit der Hardware einzustellen. Das überrascht insofern nicht besonders, als solche Entwicklungen auf bei anderer Software, beispielsweise Datenbanken, zu beobachten sind. Auch die Zeiten der manuellen Parametrisierung von Oracle sind aufgrund der Self-Tuning-Funktionen vorbei.
Obwohl der Test auf virtuelle Desktops zugeschnitten ist, hat er eine größere Relevanz für herkömmliche physikalische Systeme, weil Windows darauf abgestimmt wurde. Daher besteht die wichtigste Optimierungsmaßnahme darin, dem System die Hardware zu geben, die es benötigt.
Virtualisierung stutzt Windows zurecht
Dagegen gibt es eine Reihe von Systemdiensten, die in einer virtuellen Maschine deaktiviert werden sollten, weil sie dort kontraproduktiv sind. Dazu zählt etwa der Indexer der Desktop-Suche, die automatische Defragmentierung oder das Erstellen von Systemwiederherstellungspunkten.
Die Verzicht auf diese Services ist ein Vorbote für den Bedeutungsverlust von Windows, wenn wesentliche Features von der Virtualisierungssoftware übernommen werden oder oder weil der Desktop zur Laufzeit dynamisch aus einem minimalen Master-Image, virtualisierten Anwendungen und User-Profilen zusammengefügt wird.
Täglich Know-how für IT-Pros mit unserem Newsletter
Ähnliche Beiträge
- VMware veröffentlicht eBook mit Performance-Tipps für vSphere 8
- Netzwerk-Performance testen mit kostenlosen Tools
- WhatsUp Gold Free Edition: Bis zu 20 Server kostenlos überwachen
- IIS-Web-Server mit HTTP/3 beschleunigen
- Windows und Office mit Active Directory-basierter Aktivierung (ADBA) freischalten
Weitere Links