Dell: Virtualisierung treibt Entwicklung leistungsfähiger Hardware voran

    BildEin aus der zunehmenden Virtualisierung resultierender Trend ist, dass der Verkauf traditioneller Hardware langfristig stagniert oder sogar rückläufig sein wird – eine konsolidierte Server-Landschaft braucht angesichts von durchschnittlich 40% Auslastung eines typischen Servers weniger physischen Unterbau für die gleiche Leistung. Es wird also Zeit für ehemals reine Hardware-Hersteller, sich Gedanken über zusätzliche Geschäftsfelder zu machen, wie etwa das Beispiel von Dells beginnender Wandlung zum IT-Dienstleister und Cloud-Provider zeigt. Die „virtuelle Ära“ bei Dell bedeutet jedoch nicht, dass der Hardware-Sektor vernachlässigt wird. Wie aktuelle Produktankündigungen zeigen, ist das Gegenteil der Fall.

    Traditionelle Hardware wird mehr gefordert

    Mit zunehmender Virtualisierung benötigt man in Zukunft sicherlich weniger Stückeinheiten an Server-Hardware, an diese werden jedoch wesentlich höhere Anforderungen gestellt werden. Traditionelle Rechenzentren-Hardware kann schnell überfordert sein, was Speicherdichte und -verarbeitungsgeschwindigkeit, Storage und I/O betrifft, je mehr Hypervisoren und je mehr VMs pro Hypervisor auf den physischen Servern laufen. Das betrifft besonders Burst-Anforderungen, etwa wenn sich morgens um 9 Uhr ein ganzer Versicherungskonzern an seine virtuellen Desktops anmeldet beziehungsweise ein System-Image herunterlädt.

    Ein zweiter, nicht zu unterschätzender Aspekt, sind geänderte Redundanz-Anforderungen: Zwar sind Backup/Restore-, Hochverfügbarkeits- und Disaster-Recovery-Lösungen in vielen Fällen prinzipiell leichter zu realisieren als mit physischen Servern, insbesondere was den Test entsprechender Szenarios betrifft. Die Virtualisierung fügt der Infrastruktur aber einen Single Point Of Failure (SPOF) hinzu: Stürzt der Hypervisor ab oder versagt er anderweitig, reißt er weit mehr mit sich, als dies früher beim Ausfall eines physischen Servers der Fall gewesen wäre.

    Fehlertoleranz durch Hypervisor-Doppel von zweiter SD-Karte

    VMwares ESX-Server wird bereits in einer Embedded-Version ausgeliefert, sowohl in Dell-Servern, als von HP, IBM und Fujitsu. Von der PR wird das gerne als BIOS-artige Implementierung des Hypervisors verkauft – technisch ist es eher simpel: Der Hypervisor befindet sich auf einer SD-Karte, die in eine interne Schnittstelle gesteckt wird, von dort bootet der ESX-Server. Entsprechend einfach ist Dells Lösung in punkto Fehlertoleranz im ab Juli erhältlichen Blade-Server PowerEdge M710HD: Zwei Schnittstellen, zwei SD-Karten; fällt die eine aus, übernimmt die zweite.

    PCI-Express-Steckplätze für GPUs

    Mit 2 PCI-Express-Schnittstellen: PowerEdge M610xAuf High Performance hingegen ist der ebenfalls neue PowerEdge M610x getrimmt. Das Interessanteste sind hier zwei PCI-Express-Schnittstellen, an die man etwa SSD-Laufwerke wie Fusion-IOs ioDrive-Serie direkt anbinden könnte. Eine andere Möglichkeit ist ein Zuwachs Rechenkraft mittels Nvidias Tesla-GPGPU zu rund 1⁄10 der Kosten, als man dies per CPU-Cluster erreichen würde.

    Der wahre Zweck der PCIe-Slots dürfte jedoch ein anderer sein: Als Microsoft im März RemoteFX ankündigte, gab es seitens von VMware eine harsche Reaktion, in der unter anderem kritisiert wurde, dass Server mit Grafik-Hardware derzeit bestenfalls als Ankündigungen existierten. Analysten warnten vor erheblichen Schwierigkeiten bei der Umsetzung, etwa wegen des Stromverbrauchs.

    Die M610x-Blades plus Tesla-GPU stellen nun exakt die Hardware-Basis bereit, um VDI mit virtuellen GPUs am Client per RemoteFX zu verwirklichen. Auch der erheblich stromsparendere Betrieb der neuen Server – eine Einsparung von rund 50% wird alleine in der Summe aller Lüfter erzielt – trägt dazu bei, dass das Rechenzentrum unter Umständen die eine oder andere GPU vertragen kann.

    Pikant: Dell weist auf alle möglichen Einsatzszenarien der PCIe-Slots in der Pressemitteilung hin, erwähnt aber genau diese eine nicht, vermutlich um den Partner VMware nicht zu verprellen. Auch die Optimierungen bei der Energieeffizienz werden reich kostentechnisch beworben, dass hier Reserven für den GPU-Betrieb entstehen, kommuniziert Dell nicht.

    Storage: Intelligenter und schneller

    Storage wird eine der großen Herausforderungen des Virtualisierungszeitalters, da die Daten nicht nur immer mehr werden – Dell rechnet etwa damit, dass in den nächsten 2 Jahren Datenmengen anfallen werden wie in den vorigen 20 – sondern die Flaschenhälse enger werden, je mehr virtuelle Rechner auf einer physischen Einheit betrieben werden. Dem will Dell mit zunehmend intelligenter Storage-Hardware begegnen: Die neue Firmware-Version EqualLogic 5.0 soll für VMware-Kopieraufgaben möglichst viel SAN-Netzwerkverkehr und CPU-Belastung einsparen und intern erledigen – Dell spricht gar von 95% respektive 75%.

    SSD und HDD kombiniert: EqualLogic PS6000XVSAuf Hardware-Seite werden die neuen EqualLogic-Arrays PS6000XVS und PS6010XVS automatisch die Daten zwischen 8×100-GB-SSD-Laufwerken und 8×450-GB-Festplatten verschieben, je nachdem, wie oft sie angefordert werden. Nach außen erscheint das Array dabei als einzige logische Einheit; das Server-Betriebssystem kann nicht bestimmen oder feststellen, wo sich welche Daten befinden.

    Den Vormarsch von iSCSI-Speicherlösungen sieht Dell ebenfalls in der Virtualisierung begründet. Niemand werde seine FC-Storage, deren Anschaffung eine strategische Entscheidung war, für iSCSI über Bord werfen. Virtualisierungsprojekte gingen aber oft mit neuem Storage-Ausbau einher.

    Keine Kommentare