Tags: Hyperkonvergenz, Storage, Hypervisor
Nutanix ist laut Gartner der Leader für hyperkonvergente Infrastrukturen. Diese vereinen Compute, Storage und Storage-Netzwerk auf den Knoten eines Clusters. Rechenleistung und Speicher skalieren als gesamte Einheit, hinzu kommt zentrales Management. Nutanix lässt sich mit der kostenlosen CE evaluieren.
Hyperkonvergenz bietet uns eine Reihe von Vorteilen, darunter eine gute Planbarkeit benötigter Kapazitäten, unkomplizierte Skalierbarkeit, geringe Latenzen und ein vereinfachtes Management (ein eigener Storage-Admin wird dafür nicht unbedingt benötigt). Die x86-Virtualisierung dient als Fundament derartiger Infrastrukturen.
Pooling von Ressourcen
Nutanix-Server-Knoten bestehen daher aus etablierter x86-Hardware, einem Hypervisor nach Wahl, einer lokalen All-Flash- oder Hybrid-Speicher-Ausstattung und dem Storage-Netzwerk. Sie lassen sich zu einem hochverfügbaren Cluster samt Software-definiertem Speicher-Pool zusammenschließen.
Die Software von Nutanix läuft in der so genannten Controller-VM (CVM) auf jedem Knoten und übernimmt die Kontrolle für verteilte Operationen im gesamten Verbund.
Mein on-premises Proof-of-Concept in Form einer "Ein-Knoten-Cluster-Konfiguration" beruht auf der Community Edition (CE) und einer verschachtelten virtuellen Umgebung. Produktive Datacenter-Cluster (die CE dient nur für Tests) bestehen dann generell aus mindestens drei Nodes.
Mehrere Hypervisor zur Auswahl
Auf den Nodes eines produktiven Nutanix-Cluster kann der Hypervisor von VMware (ESXi), Microsoft (Hyper-V) oder Citrix (XenServer) laufen. Hinzu kommt der von Nutanix gehärtete und angepasste KVM namens Acropolis Hypervisor (AHV), der zum Lieferumfang der Plattform gehört.
Der Hypervisor erzeugt nicht nur die VMs für die Workloads, sondern führt auch die Controller-VM aus. Dabei handelt es sich um die Kernkomponente von Nutanix, die auf jedem Host benötigt wird. Sie stellt die Funktionen der zentralen Management-Umgebung Prism und die Acropolis-Datenebene bereit.
Diese VM hat mithilfe von PCI-Passthrough Zugriff auf den SAS-HBA des jeweiligen Knoten mit den lokalen SSDs bzw. HDDs. Die CVMs kommunizieren über eine 1, 10 oder höhere GbE-NIC miteinander und bilden so den verteilten Speicher (die Distributed Storage Fabric).
Distributed Storage Fabric (DSF)
DSF ist Bestandteil von Acropolis und liefert die angesprochene verteilte Datenebene für den Hypervisor. Dabei wird der vorhandene physische Speicher, also lokale SSDs und/oder HDDs der Knoten, zu einem Pool vereint. Dies erfolgt automatisch gleich bei der Cluster-Erstellung. Erfasst werden dabei alle Devices des gesamten Verbundes.
Der Virtualisierungsebene wird dieser Pool via iSCSI, NFS oder SMB-Freigaben verfügbar gemacht. Im Ergebnis sind dadurch proprietäre Storage-Appliances und dedizierte SANs überflüssig. Zur Erinnerung, auch Microsofts Storage Spaces Direct arbeitet nach einem ähnlichen Prinzip.
Die auf dem Pool basierenden Storage-Container werden dann mit einem Replikationsfaktor (RF) 2 oder 3 erstellt. Das bedeutet, dass 2 bzw. 3 Kopien der Datenblöcke geschrieben werden. 2 Kopien erlauben den Ausfall eines Knotens oder eines Laufwerks, 3 Kopien tolerieren 2 Fehler gleichzeitig.
Die DSF-Ebene verfügt neben den elementaren auch über mehrere fortgeschrittene Features. Dazu zählen:
- Proaktive Integritätsprüfungen zur Datenkonsistenz
- Früherkennung und Reparatur von korrupten Daten
- Availability Domains zum besseren Schutz vor Hardware-Ausfällen
- Leistungssteigerung durch Tiering auf SSD für Hot Data oder HDD für Cold Data
- Data Locality zur Speicherung von VMs auf dem Node, wo sie ausgeführt werden
- Automatisches Disk-Balancing
- VM-Flash-Mode zur IOPS-Steigerung durch Datenablage im SSD-Tier
- Deduplizierung und Inline- oder Post-Process-Kompression
- Erasure Coding (ähnlich Parity) mit Nutanix EC-X
x86-Hardware für Nutanix-HCI
Bei der Hardware-Auswahl zeigt sich Nutanix flexibel, da nicht nur spezielle Nutanix-Appliances zulässig sind, sondern auch OEMs zum Zuge kommen können. Dabei wird unterschieden zwischen vorinstallierten Appliances und Servern für die Eigeninstallation.
Als Anbieter für vorinstallierte Appliances gelten Nutanix selbst mit der NX-Serie (1000, 3000, 6000 oder 8000), sowie DELL EMC XC, Lenovo Converged HX oder IBM Hyperconverged Systems. Für die Selbstinstallations-Variante kommen dann Hewlett-Packard ProLiant Server, Cisco UCS oder DELL PowerEdge in Frage.
Exemplarisch für eine vorinstallierte Appliance und das Storage-Design habe ich eine Nutanix NX-3060-G6 herausgesucht. Diese kann mit Hybrid Storage aus SSD und HDD, All-Flash-SSD oder All-Flash-SSD mit NVMe konfiguriert werden. RAM-Werte reichen von 192 GB bis 768 GB pro Knoten. Netzwerkverbindungen lassen sich zum Beispiel mit 2 Dual-Port 10 GBase-T oder 1 Dual-Port 25 GbE SFP+ herstellen.
Cluster-Management und Monitoring mit Nutanix Prism
Zu guter Letzt ist für mich der Management-Dienst Prism ein herausragender Bestandteil der Plattform. Er erlaubt eine GUI-basierte Verwaltung und ein Monitoring (hier: "Prism Element") unter anderem der VMs, des Storage, der Hardware und der Gesundheitsstatus. Ein Login zur CVM erfolgt über den Browser, wo man gleich auf dem Home-Dashboard landet.
In der Haupt-Navigationsleiste gelangt man über das Drop-down zu den bereits angesprochenen Ebenen Health, VMs, Storage, Network, Hardware usw. Das Home-Dashboard gibt außerdem Metriken zu den Latenzen wieder. Alarme können von hier aus granular heruntergebrochen werden.
Schaut man mit PuTTY auf die CVM und meldet sich mit dem Default-User nutanix und Passwort nutanix/4u an, dann liefert ein Cluster Status die Daten zu laufenden Diensten, darunter auch Prism. Dieses wird in jeder CVM des Verbundes ausgeführt und ein Prism-Leader übernimmt alle HTTP-Anfragen. Fällt diese CVM samt Leader aus, wird ein neuer bestimmt, Hochverfügbarkeit Out of the box!
Via Prism lassen sich Upgrades der Nutanix Software (AOS) installieren, sowie Hypervisor und System-Firmware (Disk Firmware) aktualisieren. Die Orchestrierung findet automatisch über alle Knoten statt. Zusätzlich zum HTML5-Interface kann die Infrastruktur mit dem nCLI, über REST APIs oder PowerShell administriert werden.
Täglich Know-how für IT-Pros mit unserem Newsletter
Marcel Küppers arbeitet seit über 25 Jahren in der IT, aktuell als Team Leader, zuvor als Consultant und Infrastructure Architect unter anderem für den japanischen Konzern JTEKT/TOYODA mit Verantwortung über die Europastandorte Krefeld und Paris. Darüber hinaus wirkte er als Berater im EU-Projekt-Team für alle Lokationen des Konzerns mit und ist spezialisiert auf hochverfügbare virtualisierte Microsoft-Umgebungen plus Hybrid Cloud Solutions. Zertifizierungen: MS Specialist und MCTS für Hyper-V/SCVMM, MCSE, MCITP, MCSA. Zusätzlich zertifiziert für PRINCE2 Projektmanagementmethode.
// Kontakt: E-Mail, Twitter, LinkedIn //
Ähnliche Beiträge
- VMware vSphere 7 Update 3: Neue Features in vSAN 7.2
- Azure Stack HCI 21H2: Soft Reboot, Passthrough-GPUs für VMs, Storage Thin Provisioning
- Hyperkonvergente Systeme: Azure Stack HCI versus Windows Server mit Storage Spaces Direct
- VMware vSAN 6.x auf 7.0 (Update 1) aktualisieren
- Neu in vSAN 7 (U1): SMB in Native File Services, Support für Laufwerke bis 32TB, Hot-plug für NVMe
Weitere Links