Hyperkonvergente Infrastrukturen mit Nutanix: Komponenten und Funktionsweise

    Nutanix Acropolis HCINutanix ist laut Gartner der Leader für hyper­kon­ver­gente Infra­struk­turen. Diese vereinen Com­pute, Storage und Storage-Netzwerk auf den Knoten eines Clusters. Rechen­leistung und Speicher skalieren als gesamte Einheit, hinzu kommt zen­trales Manage­ment. Nutanix lässt sich mit der kostenlosen CE evaluieren.

    Hyper­konvergenz bietet uns eine Reihe von Vorteilen, darunter eine gute Planbarkeit benötigter Kapazitäten, unkomplizierte Skalier­barkeit, geringe Latenzen und ein vereinfachtes Management (ein eigener Storage-Admin wird dafür nicht unbedingt benötigt). Die x86-Virtualisierung dient als Fundament derartiger Infra­strukturen.

    Pooling von Ressourcen

    Nutanix-Server-Knoten bestehen daher aus etablierter x86-Hardware, einem Hypervisor nach Wahl, einer lokalen All-Flash- oder Hybrid-Speicher-Ausstattung und dem Storage-Netzwerk. Sie lassen sich zu einem hochver­fügbaren Cluster samt Software-definiertem Speicher-Pool zusammen­schließen.

    Die Software von Nutanix läuft in der so genannten Controller-VM (CVM) auf jedem Knoten und übernimmt die Kontrolle für verteilte Operationen im gesamten Verbund.

    Installation der Nutanix Community Edition

    Mein on-premises Proof-of-Concept in Form einer "Ein-Knoten-Cluster-Konfiguration" beruht auf der Community Edition (CE) und einer verschachtelten virtuellen Umgebung. Produktive Datacenter-Cluster (die CE dient nur für Tests) bestehen dann generell aus mindestens drei Nodes.

    Mehrere Hypervisor zur Auswahl

    Auf den Nodes eines produktiven Nutanix-Cluster kann der Hypervisor von VMware (ESXi), Microsoft (Hyper-V) oder Citrix (XenServer) laufen. Hinzu kommt der von Nutanix gehärtete und angepasste KVM namens Acropolis Hypervisor (AHV), der zum Liefer­umfang der Plattform gehört.

    Der Hypervisor erzeugt nicht nur die VMs für die Workloads, sondern führt auch die Controller-VM aus. Dabei handelt es sich um die Kern­komponente von Nutanix, die auf jedem Host benötigt wird. Sie stellt die Funktionen der zentralen Management-Umgebung Prism und die Acropolis-Datenebene bereit.

    Diese VM hat mithilfe von PCI-Passthrough Zugriff auf den SAS-HBA des jeweiligen Knoten mit den lokalen SSDs bzw. HDDs. Die CVMs kommunizieren über eine 1, 10 oder höhere GbE-NIC miteinander und bilden so den verteilten Speicher (die Distributed Storage Fabric).

    IP des Hosts und der Controller-VM definieren

    Distributed Storage Fabric (DSF)

    DSF ist Bestandteil von Acropolis und liefert die angesprochene verteilte Datenebene für den Hypervisor. Dabei wird der vorhandene physische Speicher, also lokale SSDs und/oder HDDs der Knoten, zu einem Pool vereint. Dies erfolgt automatisch gleich bei der Cluster-Erstellung. Erfasst werden dabei alle Devices des gesamten Verbundes.

    Der Virtualisierungs­ebene wird dieser Pool via iSCSI, NFS oder SMB-Freigaben verfügbar gemacht. Im Ergebnis sind dadurch proprietäre Storage-Appliances und dedizierte SANs überflüssig. Zur Erinnerung, auch Microsofts Storage Spaces Direct arbeitet nach einem ähnlichen Prinzip.

    Aufbau und Komponenten von Nutanix Acropolis

    Die auf dem Pool basierenden Storage-Container werden dann mit einem Replikations­faktor (RF) 2 oder 3 erstellt. Das bedeutet, dass 2 bzw. 3 Kopien der Daten­blöcke geschrieben werden. 2 Kopien erlauben den Ausfall eines Knotens oder eines Laufwerks, 3 Kopien tolerieren 2 Fehler gleichzeitig.

    Management des Storage Pools und der Container; Kompression wird als Best Practice empfohlen.

    Die DSF-Ebene verfügt neben den elementaren auch über mehrere fortgeschrittene Features. Dazu zählen:

    • Proaktive Integritätsprüfungen zur Datenkonsistenz
    • Früherkennung und Reparatur von korrupten Daten
    • Availability Domains zum besseren Schutz vor Hardware-Ausfällen
    • Leistungs­steigerung durch Tiering auf SSD für Hot Data oder HDD für Cold Data
    • Data Locality zur Speicherung von VMs auf dem Node, wo sie ausgeführt werden
    • Automatisches Disk-Balancing
    • VM-Flash-Mode zur IOPS-Steigerung durch Datenablage im SSD-Tier
    • Deduplizierung und Inline- oder Post-Process-Kompression
    • Erasure Coding (ähnlich Parity) mit Nutanix EC-X

    x86-Hardware für Nutanix-HCI

    Bei der Hardware-Auswahl zeigt sich Nutanix flexibel, da nicht nur spezielle Nutanix-Appliances zulässig sind, sondern auch OEMs zum Zuge kommen können. Dabei wird unterschieden zwischen vorinstallierten Appliances und Servern für die Eigen­installation.

    Vorinstallierte Appliances für Nutanix gibt es von diesen Herstellern

    Als Anbieter für vorinstallierte Appliances gelten Nutanix selbst mit der NX-Serie (1000, 3000, 6000 oder 8000), sowie DELL EMC XC, Lenovo Converged HX oder IBM Hyperconverged Systems. Für die Selbstinstallations-Variante kommen dann Hewlett-Packard ProLiant Server, Cisco UCS oder DELL PowerEdge in Frage.

    Exemplarisch für eine vorinstallierte Appliance und das Storage-Design habe ich eine Nutanix NX-3060-G6 heraus­gesucht. Diese kann mit Hybrid Storage aus SSD und HDD, All-Flash-SSD oder All-Flash-SSD mit NVMe konfiguriert werden. RAM-Werte reichen von 192 GB bis 768 GB pro Knoten. Netzwerk­verbindungen lassen sich zum Beispiel mit 2 Dual-Port 10 GBase-T oder 1 Dual-Port 25 GbE SFP+ herstellen.

    Cluster-Management und Monitoring mit Nutanix Prism

    Zu guter Letzt ist für mich der Management-Dienst Prism ein heraus­ragender Bestandteil der Plattform. Er erlaubt eine GUI-basierte Verwaltung und ein Monitoring (hier: "Prism Element") unter anderem der VMs, des Storage, der Hardware und der Gesundheits­status. Ein Login zur CVM erfolgt über den Browser, wo man gleich auf dem Home-Dashboard landet.

    Browser-Login zu Nutanix Prism

    In der Haupt-Navigationsleiste gelangt man über das Drop-down zu den bereits angesprochenen Ebenen Health, VMs, Storage, Network, Hardware usw. Das Home-Dashboard gibt außerdem Metriken zu den Latenzen wieder. Alarme können von hier aus granular herunter­gebrochen werden.

    Nutanix Prism Home-Dashboard

    Schaut man mit PuTTY auf die CVM und meldet sich mit dem Default-User nutanix und Passwort nutanix/4u an, dann liefert ein Cluster Status die Daten zu laufenden Diensten, darunter auch Prism. Dieses wird in jeder CVM des Verbundes ausgeführt und ein Prism-Leader übernimmt alle HTTP-Anfragen. Fällt diese CVM samt Leader aus, wird ein neuer bestimmt, Hochver­fügbarkeit Out of the box!

    Nutanix Cluster Status

    Via Prism lassen sich Upgrades der Nutanix Software (AOS) installieren, sowie Hypervisor und System-Firmware (Disk Firmware) aktualisieren. Die Orchestrierung findet automatisch über alle Knoten statt. Zusätzlich zum HTML5-Interface kann die Infrastruktur mit dem nCLI, über REST APIs oder PowerShell administriert werden.

    Keine Kommentare