Tags: vSphere, Container, Cluster
Der native Kubernetes-Support ist die von VMware am stärksten beworbene Neuerung in vSphere 7. Viele Firmen dürften daran interessant sein, vSphere nicht nur zur Server-Virtualisierung, sondern auch für Cloud-native Anwendungen zu nutzen. Die Version 7 U1 bietet zwei Optionen für eine Kubernetes-Infrastrukur.
Selbst der komfortable Kubernetes-Support in den gängigen Public Clouds bietet nicht die Kontrolle und Sichtbarkeit von Kubernetes-Objekten im eigenen RZ, wie man sie über vSphere mit Tanzu bekommt. Gleichzeitig ersparen sich Anwender den großen Aufwand, den der manuelle Aufbau einer Kubernetes-Plattform erfordert.
Mehr Aufwand für Infrastruktur und Lizenzierung
Wer in vSphere primär noch ein Produkt zur Server-Konsolidierung sieht, wird mit den neuen Möglichkeiten in vSphere allerdings kaum in Berührung kommen, zumal vor dem Genuss einer integrierten Kubernetes-Plattform technologische und finanzielle Hürden zu überwinden sind.
Damit Kubernetes wie vorgesehen automatisiert virtuelle Netzwerke, Load-Balancer und persistenten Storage erzeugen kann, brauchte man in vSphere 7 als Fundament die VMware Cloud Foundation inklusive NSX-T sowie eine richtlinienfähige, Software-definierte Speicherlösung, in der Regel vSAN. Hinzu kommt pro Host eine Lizenz vSphere mit Kubernetes.
Seit vSphere 7 Update 1 heißt das Produkt vSphere mit Tanzu. Hier haben Betreiber und Entwickler zwei Möglichkeiten, Kubernetes-Workloads bereitzustellen:
- nativ auf Basis von vSphere Pods
- mit der Kubernetes-Distribution Tanzu Kubernetes Grid (TKG).
Entwickler können ihre Deployments mit Standardwerkzeugen für Kubernetes ausrollen, egal ob sie vSphere Native Pod oder Tanzu Kubernetes Grid (TKG) verwenden.
Lizensiert wird Kubernetes bei vSphere mit Tanzu nur mehr pro Cluster. Die Variante mit der eigenen Kubernetes-Distribution Tanzu Kubernetes Grid (TKG) lässt sich ab vSphere 7 auch ohne NSX-T bereitstellen und senkt so die Einstiegshürde.
Dann brauchte man aber bsiher eine extern ausgerollte VM mit Load-Balancer bzw. Reverse-Proxy (in der Regel HA Proxy) und Distributed vSwitches. Das Update 2 von vSphere 7 schließt diese Lücke nun mit NSX Advanced Load Balancer Essentials.
Ohne Cloud Foundation müssen Nutzer bei dieser Variante aber auf den Support für native vSphere Pods verzichten, die aus Inventar-Perspektive gleichberechtigt neben normalen VMs existieren können. Mit TKG lassen sich eigene Kubernetes-Cluster einschließlich Management- und Compute-Knoten auf Basis von VMs bereitstellen.
Kubernetes-Infrastruktur einrichten
Nach einer frischen vSphere-7-Installation ist von Kubernetes noch nicht viel zu sehen. Das mächtige Feature zeigt sich lediglich an zwei Stellen. Im Hauptmenü steht unter Workload Management ein Assistent zur Verfügung, der durch die Bereitstellung des so genannten Supervisor-Clusters leitet.
Er hilft auch beim Einrichten des Load-Balancers, wenn man vSphere mit Tanzu nur über das vCenter Networking betreibt. Das Tool unterstützt auch beim Konfigurieren von Namespaces, Speicherrichtlinien oder beim Aufsetzen von Tanzu Kubernetes Grid.
Der Assistent leitet dann in neun Schritten durch die weitere Konfiguration, beginnend mit der zentralen Frage nach dem Netzwerk-Stack, also NSX-T versus vCenter Server Network.
Dann ordnet man den gewünschten Compute-Cluster zu.
Bei der Storage-Konfiguration muss man je einen Datastore anhand passender vSAN-Speicherrichtlinien für die Steuerungsebene, flüchtige Platte und Image-Cache auswählen.
Erst dann kümmert sich der vSphere-Admin um das Verwaltungs- und das Workload-Netzwerk.
Dabei geht es um die Zuordnung die jeweiligen Adressbereiche.
Erst dann gelangt der Assistent zur Konfiguration von Tanzu Kubernetes Grid, wozu man vorher ein Content-Library-Objekt vom Typ Abonniert angelegt haben muss.
Der Grund dafür ist, dass VMware seine Kubernetes-Distribution kontinuierlich verbessert und quasi als Rolling Release bereitstellt. Natürlich kann man im Einzelfall auch ein vorhandenes TKG-OVA manuell in die Content Library hochladen.
Damit verfügt der Arbeitslast-Assistent über aller Angaben die er braucht, um den so genannten Supervisor-Cluster auf ESXi-Ebene einzurichten. Dies kann bis zu 45 Minuten in Anspruch nehmen.
Die Steuerungsebene des Supervisor-Clusters wird durch eine VM bereitgestellt, während die die ESXi-Hosts des erwähnten Clusters als die eigentlichen Kubernetes-Worker-Nodes dienen. Die Kommunikation mit dem Kubernetes-API-Server erfolgt nicht über ein Kubelet, sondern über ein nativ im ESXi-Kernel integriertes Konstrukt namens Spherelet.
Täglich Know-how für IT-Pros mit unserem Newsletter
Thomas Drilling arbeitet ist seit fast 30 Jahren selbständig in der IT-Welt sowohl als Consultant, als auch als Redakteur, Buchautor und Journalist für viele ehemalige und aktuelle IT-Magazine sowie Blogs.
Aktuell bestätigt sich Thomas schwerpunktmäßig als IT-Trainer für Cloud-Computing in den Bereichen Microsoft Azure, Amazon Web Services und VMware.
Thomas ist zertifizierter Microsoft-Trainer für nahe das gesamte Portfolio an Microsoft Azure Trainings. Thomas ist außerdem zertifizierter Microsoft Azure Solutions Architect Expert sowie VMware Certified Professional und wurde von VMware in den Jahren 2016 bis 2022 mit dem Blogger-Status vExpert ausgezeichnet.
Thomas führt aktuell jeden Monat zwei selbstkonziperte 4-tägigen Grundlagenkurse in Cloud Computing mit Azure durch, die sich inhaltlich bewusst von den Microsft-Kursen abheben und vorzuweise als Bootcamp in eine besonderen Lokation stattfinden. Optional kann aber aber auch remote via Microsoft Teams teilgenommen werden.
Das aktuelle Trainingsprogramm findet sich unter Azure-Trainings. Weitere Informationen und Anmeldung über sein Azure-Blog.
Verwandte Beiträge
- vSphere mit Tanzu auf Basis von vSphere-Networking (Distributed vSwitch) einrichten
- vSphere mit Tanzu: Wie sich Kubernetes in die VMware-Umgebung einfügt
- VMware vSphere 8: die wichtigsten Neuerungen im Überblick
- Neu in vSphere 7 Update 3: NSX-Integration, NVMe über TCP, Update für DRS, Precision Time
- VMs bei Absturz des Gast-OS über vSphere HA Application Monitoring neu starten
Weitere Links