Tags: vSphere, Private Cloud, Datenbanken
VMware positioniert seine Private-Cloud-Infrastruktur für neue Aufgaben, die sich besonders für on-prem eignen. Dazu gehören Anwendungen für künstliche Intelligenz, die Firmendaten verarbeiten, sowie die Steuerung von Produktionsprozessen. Data Service Manager 2.0 beruht auf einer neuen Architektur und erweitert die Auswahl an Datendiensten.
Die VMware-Plattform erlaubt die Einrichtung von dynamischen und hoch verfügbaren Infrastrukturen, die IT-Ressourcen je nach Bedarf verschiedenen Anwendungen zuteilen können. Wesentliche Technologien dafür sind vMotion, DRS, HA und FT für die Ausfallsicherheit.
Mit vSAN kommt ein Software-definierter Speicher hinzu, der auf Basis unterschiedlicher Medien ein übergreifendes virtuelles Storage bereitstellt, das sich über Policies verwalten lässt. NSX ist für die Netzwerk-Virtualisierung zuständig und bietet Funktionen für die Mikrosegmentierung, Lastverteilung oder integrierte Intrusion Detection.
VMware Cloud Foundation 5.1
VMware bündelt all diese Funktionen in der VMware Cloud Foundation (VCF), die neben vSphere, vSAN und NSX den SDDC Manager und die ARIA Suite Lifecycle (vormals "vRealize Suite Lifecycle Manager") enthält.
Auf der VMware Explore in Barcelona kündigte der Hersteller die VCF 5.1 an. Sie unterstützt nun die vSAN Express Storage Architecture und die vSphere Distributed Services Engine, mit der sich Rechenaufgaben von x86-CPUs auf DPUs von AMD und Nvidia auslagern lassen. Außerdem lassen sich Nvidia GPUs via Passthrough direkt aus VMs ansprechen (siehe dazu die Übersicht aller Neuerungen in VCF 5.1).
Container-Anwendungen
Traditionell installieren Anwender in virtuellen Maschinen Betriebssysteme wie Linux oder Windows und führen darauf herkömmliche Applikationen für diese Plattformen aus. VMware konzentrierte sich in den letzten Releases darauf, vSphere für die Unterstützung von Cloud-nativen Anwendungen auszubauen.
Diese werden als Micro-Services mittels Container bereitgestellt, wobei sich Kubernetes (K8s) als Standard für das Management und die Orchestrierung solcher Anwendungen etabliert hat. VMware implementierte K8s-Support in vSphere 7 unter dem Codenamen Tanzu (siehe dazu: vSphere mit Tanzu: Wie sich Kubernetes in die VMware-Umgebung einfügt).
VMware möchte damit nicht nur die Ausführung von Cloud-nativen Anwendungen erlauben, sondern schon von der Entwicklung an deren gesamten Lebenszyklus abdecken.
An Developer richtet sich der Tanzu Application Service, der nun in Version 5.0 freigegeben wurde. Sie enthält Application Readiness Health Checks, verteiltes Tracing für schnelleres Debugging sowie ein aktualisiertes Developer Portal mit integriertes MySQL-Datenbank für persistente Datenspeicherung (siehe dazu die Ankündigung von Tanzu Application Service 5.0).
Darüber hinaus integrierte VMware die Runtime für das Java-Framework Spring in die Tanzu Application Platform.
Neue Anwendungsgebiete für Private Clouds
Sowohl bei der Ausführung traditioneller VMs als auch von modernen Container-Apps bietet VMware eine on-prem-Alternative zu den öffentlichen Clouds. Als wesentliches Argument für seine Plattform bringt VMware vor, dass Unternehmen sensible Anwendungen nicht in der Public Cloud entwickeln bzw. bereitstellen wollen und dass sich die K8s-Infrastruktur über die vielen Admins vertraute vCenter-Umgebung verwalten lässt.
Allerdings fristen VMwares Ambitionen jenseits der eigenen Private Cloud eher ein Nischendasein. Das gilt sowohl für die VMware Cloud auf AWS als auch Azure VMware Solution.
Forrester zufolge planen 20 Prozent von VMwares Enterprise-Kunden, die Plattform zu verlassen. Grund dafür sei nicht nur die Konkurrenz durch Hyperscaler wie AWS und Azure, sondern auch die kürzlichen Preissteigerungen und ein Bundling von Produkten, die von den Anwendern oft nicht benötigt würden.
VMware versucht seine Position zu festigen, indem es die Bandbreite seiner Anwendungen ausbaut und zudem Nischen belegt, für die on-prem-Infrastrukturen prädestiniert sind.
Private AI
In diese Kategorie fällt die Initiative Private AI. Sie möchte sich zunutze machen, dass Unternehmen von den raschen Fortschritten bei künstlicher Intelligenz profitieren wollen, um diverse Prozesse zu beschleunigen oder zu automatisieren.
Gleichzeitig sollen aber öffentliche AI-Systeme nicht auf interne Dokumente zugreifen und so spezifisches Wissen womöglich an den Wettbewerb weitergeben. Entsprechende Einschränkungen gelten erst recht für stark regulierte Branchen.
VMware sieht seine Plattform für das rechenintensive Trainieren von Large Language Models (LLMs) vor, weil sie auch dafür die benötigten Ressourcen flexibel auf die Workloads verteilen kann. Eine Voraussetzung dafür ist die Virtualisierung von GPUs, wobei vSphere seit der Version 8 bis zu acht vGPUs pro VM unterstützt.
Ursprünglich bezog sich das nur auf Prozessoren von Nvidia, aber auf der Explore gab VMware eine Kooperation mit Intel bekannt. Diese beschränkt sich nicht auf die vierte Generation der Xeon-CPUs und die GPUs der Max-Serie, sondern umfasst auch die AI Software Suite des Chip-Herstellers.
Bereits im August kündigte VMware eine Partnerschaft mit Anyscale an, dem Anbieter von Ray. Dabei handelt es sich um ein Framework für das automatische Skalieren von AI-Workloads. Ray-Cluster lassen sich über das gemeinsam entwickelte Plugin auf Basis von vSphere-VMs betreiben.
Die eigentlichen AI-Lösungen stammen ebenfalls von Partnern. Nach NVIDIA AI Software kommt dank einer Kooperation mit IBM noch watsonx hinzu. Damit erhalten Unternehmen on-prem Zugang zu generativer AI nach dem Muster populärer Chatbots.
Neben kommerziellen Angeboten erlaubt die Referenzarchitektur von Private AI auch die Integration von Open-Source-Modellen, wie sie etwa auf Hugging Face angeboten werden, oder das von Meta entwickelte LLAMA2 (siehe hier eine Übersicht zu VMwares Aktivitäten für Open-Source-AI).
Dabei sollen in der Regel keine LLMs von Grund auf im eigenen Rechenzentrum trainiert, sondern vortrainierte Systeme für den spezifischen Content eines Unternehmens angelernt werden.
Als Anwendungen kommen zum Beispiel der Kundendienst in Frage, um Support-Anfragen zu beantworten, nachdem man das Modell anhand der Produktdokumentation trainiert hat. Eine weitere wesentliche Nutzung besteht in der Code-Generierung, für die zum Beispiel StarCoder auf Basis von GitHub für mehr als 80 Programmiersprachen trainiert wurde.
Data Services Manager (DSM) 2.0
DSM erlaubt die Bereitstellung von Datenbanken als Service auf vSphere nach einem ähnlichen Muster wie entsprechende PaaS-Dienste bei den Public-Cloud-Providern. Admins müssen sich daher nicht um die Installation von Betriebssystemen oder Datenbanken kümmern und diesen manuell Ressourcen zuteilen.
DSM 2.0 automatisiert diesen Vorgang, indem es sich die Kubernetes-Infrastruktur auf vSphere zunutze macht. Benötigt man etwa eine PostgreSQL-Datenbank, dann wird diese standardmäßig auf einem K8s-Cluster mit einem Knoten eingerichtet. Soll die Datenbank hochverfügbar konfiguriert werden, dann lassen sich dem Cluster einfach weitere Nodes zuschalten.
Das Management erfolgt über Policies, über die Admins die verfügbaren Ressourcen festlegen. Auf diesem Weg kann man auch bestimmen, welche Datastores dafür genutzt werden sollen, wobei von vSAN bis NFS die ganze Bandbreite der unterstützten Storage-Optionen in Frage kommt.
Eine detaillierte Beschreibung der Funktionsweise von DSM 2.0 findet sich auf dem Blog von Cormac Hogan.
Auf der Explore kündigte VMware neue Partnerschaften mit Google und MinIO an. Erstere steuert AlloyDB Omni bei, eine hoch skalierbare, mit PostgreSQL kompatible Datenbank, die sich aufgrund ihrer Leistungsfähigkeit und optimierten Vektorabfragen besonders für AI-Anwendungen eignet. Vom MinIO kommt ein mit Amazon S3 kompatibler Object Store.
Software-Defined Edge und Sovereign Clouds
Neben dem vertikalen Ausbau der Plattform durch Data Services, AI-Anwendungen und erweiterte K8s-Unterstützung versucht VMware, auch horizontal auf neue Anwendungsgebiete zu expandieren.
Dazu stellte das Unternehmen den VMware Edge Cloud Orchestrator vor, mit dem Anwender ihre Edge-Umgebungen planen, bereitstellen, betreiben und verwalten können. Als Edge gelten Standorte in der Nähe von Systemen, die Daten produzieren oder verbrauchen. Dazu zählen etwa Fabrikhallen, Kraftwerke oder generell Außenstellen mit Operational Technology (OT).
Auf der Explore in Barcelona präsentierte VMware ein Projekt mit Audi, bei dem die Software zur Produktionssteuerung auf eine hyperkonvergente Infrastruktur auf Basis von vSphere und vSAN verlagert wurde. Bemerkenswert dabei ist, dass die Anwendungen Echtzeitanforderungen erfüllen müssen.
Weitere Chancen für Wachstum sieht VMware in Clouds, die strengen Regulierungen in Bezug auf die Weitergabe von Daten unterliegen, etwa außerhalb der EU. Die Rede ist dabei von Sovereign Clouds, die zumeist von regionalen Anbietern betrieben werden.
Diese setzen häufig auf eine Open-Source-Infrastruktur, die nach Einschätzung von VMware weniger effizient ist als seine eigene Plattform. Auf der Explore kündigte das Unternehmen für diese Zielgruppe neue Sovereign Data Services an, darunter Datenbanken, Analyse-Tools und Object-Speicher.
Zusammenfassung
Nachdem sich VMware längere Zeit auf die Unterstützung von Cloud-native Apps konzentriert und dafür eine vollständige K8s-Infrastruktur in seine Plattform integriert hat, legt der Hersteller sein Augenmerk nun auf AI-Anwendungen.
Diese profitieren nicht nur von der GPU-Virtualisierung und der Integration von Ray-Clustern, sondern insgesamt von der dynamischen Ressourcenverteilung auf der VCF. VMware kommt dabei zugute, dass Unternehmen in der Regel öffentliche KI-Lösungen nicht mit ihren Daten trainieren möchten.
AI könnte also lokale Rechenzentren insgesamt aufwerten und Herstellern wie VMware oder Nutanix Auftrieb verleihen. Für Microsoft dagegen ist on-prem ein Auslaufmodell und hybride Clouds dienen primär als Zwischenschritt bis zur völligen Migration auf Azure oder M365.
Trotz der mit Unsicherheiten belasteten Übernahme von VMware durch Broadcom und der von Forrester prognostizierten Abwanderung von Kunden könnte AI erhebliche Chancen für weiteres Wachstum bieten. Darüber hinaus möchte VMware seine Plattform auf Software-defined Edge und Sovereign Clouds ausweiten.
Täglich Know-how für IT-Pros mit unserem Newsletter
Verwandte Beiträge
- Veeam Backup & Replication v11: Continuous Data Protection, gehärtetes Repository, erweitertes Instant Recovery
- Nakivo B&R 7.4: Automatisches VM-Failover, Object Recovery für SQL Server, Bandbreitendrosselung
- Virtuelle Desktops: Referenzarchitektur von Parallels für Nutanix
- Best Practices für Oracle-Datenbanken auf VMware vSphere
- VMware vSphere: Übersicht über Features und Module
Weitere Links