Tags: Hyperkonvergenz, Storage, vSphere, Cluster
VMware unterstützt seit der Version 6.5 von vSAN den 2-Node-Direct-Connect-Modus, der das Einrichten und Verwalten eines Zwei-Knoten-Clusters erheblich vereinfacht. Als Zeuge lässt sich dabei ein Appliance mit ESXi als Gast-OS nutzen. Diese Anleitung zeigt, wie man es mit dem HTML5-Client einrichtet.
Nachdem vSAN ursprünglich mindestens 3 Knoten erforderte, sieht das neuere Provisionierungsmodell mit 2 Knoten eher nach einer Kompromisslösung aus. In der Tat adressiert dieses Design vor allem kleine Unternehmen und Außenstellen, wo man aus Kostengründen auf eine dritte vSAN-Lizenz verzichten möchte.
Physischer oder virtueller ESXi als Witness
Das bedeutet aber nicht, dass man damit auch auf den dritten Host verzichtet. Das 2-Knoten-Modell unterstützt sowohl physische als auch virtuelle ESXi-Hosts als Quorum-Knoten, Letztere in Form des vSAN-Witness-Appliance. Beide Varianten reduzieren die vSAN-Lizenzkosten.
Die Witness-Appliance erlaubt es, die eigentlichen vSAN-Knoten auf zwei Hardware-Instanzen zu beschränken. Sind diese ausreichend leistungsfähig, so spart man so außerdem Energiekosten, Wartung und Stellfläche. Dafür macht man sich mit der Witness-VM unter Umständen von einem weiteren externen Storage abhängig.
Die vSAN-Witness-Appliance muss auf einem ESXi 5.5-Host oder höher ausgeführt werden. Wird sie für vSAN 6.7 benutzt, dann muss der Host auch die CPU-Anforderungen von vSphere 6.7 erfüllen.
Ein physischer Host kann ein Server mit ESXi Free, ein vSphere-lizenzierter Host oder ein Host in OVH (ehemals vCloud Air), eine von vCloud Air Network-Partner (VCAN) oder von beliebigen anderen Anbietern gehostete ESXi-Installation sein. Er muss zudem von demjenigen vCenter verwaltet werden, das auch den vSAN-Cluster beherbergt.
Ein vSAN-Witness-Host (physisch oder Appliance) kann nicht von mehreren vSAN-Clustern gemeinsam genutzt werden.
Die vSAN-Bereitstellung hat sich in den neueren Versionen ab 6.6 deutlich vereinfacht und wird nunmehr auch voll von der neuen HTML-Konsole unterstützt. Die folgende Anleitung zeigt das Vorgehen im aktuellen vSphere Client.
Witness Appliance bereitstellen
Um eine Witness-Appliance für einen 2-Knoten-Cluster bereitzustellen, laden wir diese zuerst als ISO von myvmware.com herunter und bringen das OVA aus.
Im Unterschied zu einem gewöhnlichen ESXi-Host führt die Zeugen-Appliance keine virtuellen Maschinen aus, sondern beschränkt sich auf diese eine Aufgabe.
Die VM veranschlagt 2 vCPUs und 16GB RAM in einem Medium-Setup für bis zu 500 VMs und 2100 vSAN-Objekte.
Anschließend müssen wir auch auf der Zeugen-Appliance das vSAN- und das Verwaltungsnetzwerk einrichten.
Im Assistenten verwenden wir zunächst die Standard-Portgruppe VM-Network als Ziel für die beiden virtuellen Netzwerkkarten der VM, behalten aber im Hinterkopf, dass diese im Anschluss an das Deployment noch anzupassen sind.
Da sich bei einem Standard-vSwitch für virtuelle Maschinen nur VM-Portgruppen verwenden lassen, richten wir anschließend je eine Portgroup für den Management- und vSAN-Traffic auf dem Distributed Switch des Hosts ein.
Außerdem spendieren wir der VM aus Redundanzgründen noch eine dritte virtuelle Netzwerkkarte für einen zweiten virtuellen vSAN-Adapter und ziehen dann in den VM-Einstellungen die drei Interfaces in die passenden Netzwerke/Kernel-Adapter um.
vSAN-Netzwerk konfigurieren
Danach ist das vSAN-Netzwerk für die physischen-Hosts einzurichten. vSAN benötigt mindestens einen VM-Kernel-Adapter, sollte aber nach Möglichkeit redundant sein, also entweder 1 Kernel-Adapter mit zwei Uplink-Interfaces oder zwei 2 Kernel-Adapter.
Die Uplink-Interfaces sollten 10 Gb/s-Karten sein, auch wenn vSAN theoretisch mit 1Gb/s funktioniert. Aus Sicherheits- und Performance-Gründen packen wir das vSAN-Netzwerk in ein separates VLAN.
Hat man dann die Witness-VM gestartet, dann kann man für den virtuellen ESXi-Host gastseitig das Netzwerk konfigurieren. Das Management-Netzwerk passt man am besten in der DCUI an.
Für das Einrichten des vSAN-Netzwerks empfiehlt sich dagegen der Host-Client. Hier ist die IP-Konfiguration der "witnessPg" entsprechend anzupassen, indem man die wegen der Default-DNS-Konfiguration bezogene ZeroConf-Adresse 169.254.35.219 durch die des vSAN-Adapters ersetzt.
Dieser muss natürlich im gleichen Segment und Netzwerk "funken" wie die vSAN-Kernel-Ports der physischen Hosts.
Täglich Know-how für IT-Pros mit unserem Newsletter
Seine Themenschwerpunkte sind Virtualisierung und Cloud Computing, speziell VMware, Amazon Web Services, Google Cloud und Microsoft Azure. Thomas ist zertifizierter VMware Professional, Advanced Professional und wurde von VMware in den Jahren 2016, 2017, 2018, 2019 und 2020 mit dem Blogger-Status vExpert ausgezeichnet.
Thomas ist außerdem zertifizierter AWS Solutions Architect, Sysops Engineer und Devops Engineer sowie Microsoft Certified Azure Administrator.
Thomas führt aktuell jeden zweiten Montag einen 4-tägigen Grundlagenkurs in Cloud Computing mit AWS via Zoom-Meeting durch. Weitere Informationen und Anmeldung über sein AWS-Blog.
Verwandte Beiträge
- VMware vSAN 6.x auf 7.0 (Update 1) aktualisieren
- VMware vSphere 7 Update 3: Neue Features in vSAN 7.2
- Neu in vSphere 7 Update 3: NSX-Integration, NVMe über TCP, Update für DRS, Precision Time
- Neu in vSAN 7 (U1): SMB in Native File Services, Support für Laufwerke bis 32TB, Hot-plug für NVMe
- vSAN 7: Data Persistence Platform für Cloud-Anwendungen
Weitere Links