Cloud: AWS erweitert Palette von EC2-Services

    Mit dem EC2-F1-Cloud-Service von AWS können Entwickler FPGAs programmieren und nutzen.Fast 30 neue oder über­arbei­tete Cloud-Computing-Produkte stellte hat Amazon Web Services auf der AWS re:Invent 2016 in Las Vegas vor, die bis zum 2. Dezem­ber lief. Eine Über­sicht über die Lösun­gen mit Links zu den ent­sprechenden Beiträgen im AWS-Weblog ist übrigens auf dieser Seite zu finden.

    Alleine ein Drittel der Neuerungen bezieht sich auf das klas­sische Gebiet "Compute", also EC2-Services. Mit EC2 C5 stehen ab 2017 Instanzen mit Intel-Xeon-Skylake-Prozessoren für besonders hohe Anforderungen zur Verfügung. Sie umfassen bis zu 72 vCPUs und 488 GByte DDR4-RAM.

    Hinzu kommt eine optimierte Hardware-Beschleunigung von AWS. Zu den typischen Einsatzfeldern gehören komplexe Berechnungen in Wissenschaft und Finanzwesen, die hohe Performance im Bereich Fließkomma-Operationen erfordern.

    R4 für anspruchsvolle BI-Applikationen

    Bereits verfügbar sind EC2-R4- und erweiterte T2-Instanzen. Die R4-Version zielt auf Business-Intelligence- und In-Memory-Anwendungen. Zur Verfügung stehen bis zu 64 vCPUs, 488 GByte RAM und eine Netzwerkanbindung mit 20 GBit/s. Die T2-Instanzen wurden um Modelle mit 16 und 32 GByte Arbeitsspeicher ergänzt. Sie zielen auf Standard-Workloads wie Anwendungs-, Entwicklungs- und Web-Server.

    Noch nicht verfügbar sind dagegen die EC2-I3-Instanzen. Diese sind auf eine hohe I/O-Leistung getrimmt. Deshalb stehen SSD mit NVMe-Schnittstelle (Non-Volatile Memory Express) zur Verfügung. Die Performance ist mit 3,3 Random-IOPS (Input/Output Operations Per Second) bei 4K-Datenblöcken entsprechend hoch.

    Die R4-Instanzen von AWS EC2 zielen auf anspruchs­volle BI-Anwendungen und In-Memory-Datenbanken.Mit I3 spricht AWS denn auch Anwendungen an, bei denen es auf einen hohen Durchsatz ankommt. Dies sind relationale und NonSQL-Datenbanken, transaktions­orientierte Workloads sowie Analyse-Applikationen. I3 unterstützt bis zu 64 vCPUs, 488 GByte Arbeits­speicher und 15,2 TByte Storage.

    EC2 F1 für FPGAs

    Eine interessante Neuerung sind die EC2-F1-Instanzen. Sie bieten "FPGAs as a Service" (Field-Programmable Gate Arrays). Solche Chips können mit Programmcode "gefüttert" werden und führen Algorithmen dank Hardware-Beschleunigung besonders schnell aus. EC2 F1 kommt beispiels­weise für Big-Data-Analyse und komplexe Verschlüsselungsaufgaben in Frage. Solche Anwendungen laufen laut AWS bis um den Faktor 30 schneller ab.

    Bis zu acht Gate Arrays können pro Instanz hinzugefügt werden. Bei dem FPGA handelt es sich um einen Xilinx UltraScale+ VU9P (16 nm) mit 64 GByte ECC-Speicher, 6.800 DSP-Engines (Digitale Signalprozessoren) und 2,5 Millionen logischen Elementen.

    Grafik-Power nach Maß

    In Kürze sollen für EC2 zudem Elastic GPUs zur Verfügung stehen, mit zu 1 GByte bis 8 GByte Speicher. Solche Grafikprozessoren aus der AWS-Cloud sind im Prinzip nichts Neues. Sie sind auch bei den G2- und P2-Instanzen (bis zu 16 vGPUs) verfügbar.

    Allerdings bemisst sich die Zahl der Grafik­prozessoren bei G2 und P2 anhand der Größe der Instanzen. Es handelt sich also um ein relativ starres Modell. Das ist den Elastic GPUs neuer Prägung anders. Nun kann der Nutzer für "seine" Instanzen die Größe und Zahl der GPU selbst bestimmen.

    Wie EC2 F1 funktioniert, das "FPGA as a Service" bereitstellt.Zur Wahl stehen vier Versionen, die im ersten Schritt OpenGL und Windows unterstützen. Anschließende soll OpenGL für Amazons Linux-Version AMI folgen. "Erwogen wird", so Jeff Barr, "Chief Evangelist" von AWS in einem Blog-Beitrag, künftig Elastic GPUs mit weitere 3D-Schnittstellen (API) anzubieten. Dies sind DirectX und Vulkan. Allerdings macht AWS dies von der Nachfrage nach diesen Programmier­schnitt­stellen abhängig.

    Weitere Neuerungen bei AWS EC2

    Hier noch im Schnell­durchlauf weitere Ankündigungen von AWS im Bereich EC2:

    • AWS Lightsail: Virtual Private Server, die relativ einfach gestrickt sind und sich schnell aufsetzen lassen (siehe Beitrag auf WindowsPro.de)
    • AWS Batch: Damit können Nutzer Hunderttausende von Batch-Jobs auf der AWS-Cloud-Computing-Plattform starten. Adressaten sind Wissenschaftler, Entwickler und Ingenieure.
    • Lamba@Edge: Dieser Service ist noch im Entstehen begriffen. Die Idee: Entwickler können JavaScript-Code auf Systemen an AWS-Edge-Standorten ausführen lassen. Ein Einsatzfeld ist der Zugriff auf Web-Ressourcen: HTTP-Requests werden in Rechenzentren nahe beim Nutzer bearbeitet, sprich die Latenzzeiten sind niedriger. Das beschleunigt Vorgänge wie die Inspektion von HTTP-Headern, die Zugangskontrolle und die Identifizierung von Endgeräten.

    Keine Kommentare