Tags: Azure, Storage, Verschlüsselung
Microsoft hat seinen objektorientierten Cloud-Storage-Service Azure Blob erweitert. So unterstützt der Dienst jetzt Dateien von bis zu 4,77 TByte Größe. Bislang waren 195 GByte die Obergrenze. Laut Microsoft erfolgte diese Erweiterung auf Wunsch von Kunden, die bereits an das bisherige Limit stießen.
Der Hintergrund ist, dass Unternehmen und Forschungseinrichtungen objektorientierte Cloud-Speicherdienste wie Azure Blob verstärkt zum Ablegen großer, unstrukturierter Datenmengen heranziehen. Das können Text-Files sein, aber auch Binärdaten wie .exe-Dateien, Log-Files, Medien-Content und medizinische Informationen.
Medienhäuser benötigen beispielsweise höhere Dateigrößen, um Filme und TV-Serien in hochauflösenden Formaten wie 4k oder 8k speichern zu können. Ein Spielfilm in 4k-Auflösung hat beispielsweise ein Volumen von etwa 60 bis 100 GByte.
Größere Datenblöcke
Parallel dazu hat Microsoft das maximale Volumen der Datenblöcke bei Azure Blob erhöht – von 4 MByte auf 100 MByte. Ein Blob kann weiterhin 50.000 Blöcke umfassen. Die neuen Blob-Werte werden von der aktuellen Ausgabe 8.0.0 der .NET Client Library unterstützt, inklusive Java, Node.js und AzCopy.
Eine Einführung in Azure Blob Storage in Verbindung mit .NET (in Deutsch) steht auf dieser Web-Seite von Microsoft zur Verfügung. Grundlegende Informationen zu Azure-Cloud-Storage-Diensten sind hier zu finden.
Datentransfer per Festplatte
Ergänzend dazu hat Microsoft eine Ergänzung des Import-Export-Services für Azure Blob vorgestellt. Details dazu sind in diesem Post im Azure-Blog aufgeführt. Der Import-Export-Dienst ermöglicht es Nutzern von Azure Blob, Daten auf eine Festplatte oder SSD zu packen und diese zu Microsoft zu senden. Das ist angesichts der großen Datenmengen in vielen Fällen der einzige Weg, um die Informationen zu einem Azure-Cloud-Rechenzentrum zu transportieren, ohne die Internet-Verbindung des Unternehmens tagelang zu blockieren.
Administratoren können nun alle Export- und Import-Vorgänge für jede Harddisk und jeden Cloud-Storage-Account zentral verwalten.
Optimiert hat Microsoft die Automatisierung von Kopiervorgängen. So lassen sich Daten aus mehreren Quellverzeichnissen mit einem Befehl auf Festplatten kopieren. Auch die Verteilung von großen Datenbeständen auf mehrere Speichermedien erfolgt automatisch.
Mit Windows oder Linux kopieren
Für Kopiervorgänge steht ein verbessertes WAIImportExport-Client-Tool zur Verfügung. Mit ihm lässt sich das Kopieren in zwei Phasen aufteilen: den eigentlichen Datentransfer mit jedem Rechner und Betriebssystem, das NTFS unterstützt, also auch Linux. Das Nachbearbeiten erfordert dagegen einen Windows-Rechner. Zu diesen Post-Processing-Aufgaben zählen das Verschlüsseln der Festplatten und das Erzeugen eines Journal-Files.
Noch eine weitere kleine Verbesserung: Import-Export unterstützt jetzt auch interne SATA-Platten im Format 2,5 Zoll (nicht nur 3,5-Zoll-Modelle) sowie interne SSDs.
Täglich Know-how für IT-Pros mit unserem Newsletter
Bernd Reder ist seit über 20 Jahren als Journalist zu den Themen IT, Netzwerke und Telekommunikation tätig. Zu seinen beruflichen Stationen zählen unter anderem die Fachtitel "Elektronik" und "Gateway".Bei der Zeitschrift "Network World" war Reder als stellvertretender Chefredakteur tätig. Von 2006 bis 2010 baute er die Online-Ausgabe "Network Computing" auf.Derzeit ist Bernd Reder als freier Autor für diverse Print- und Online-Medien sowie für Firmen und PR-Agenturen aktiv.
// Kontakt: E-Mail, XING //
Ähnliche Beiträge
- Azure Stack HCI 21H2: Soft Reboot, Passthrough-GPUs für VMs, Storage Thin Provisioning
- SMB over QUIC in Windows Server 2022 nutzen
- Hyperkonvergente Systeme: Azure Stack HCI versus Windows Server mit Storage Spaces Direct
- Neu in VMware vSphere 7 Update 2: Integrierter KMS, ESXi Suspend-to-Memory, vSAN-Zugriff für normale vSphere-Cluster, Load-Balancer für Kubernetes
- Alternative zu OneDrive & Co: pCloud mit Verschlüsselung, Versionierung und Team-Funktionen
Weitere Links