Die Trendthemen der AWS-Veranstaltung re:Invent 2021 Amazon erleichtert Mainframe-Modernisierung und beschleunigt KI-Prozesse
Auf seiner Anwenderkonferenz AWS „re:Invent 2021“ hat Amazon Web Services (AWS) noch im Dezember zahlreiche Neuheiten in den Bereichen Compute, Machine Learning (ML), „AWS Outposts“ und Container vorgestellt. Hier ist eine Zusammenfassung von Autor Michael Matzer.
Anbieter zum Thema

Der neue CEO Adam Selipsky hat auf der AWS re:Invent zahlreiche Datacenter-Neuheiten sowie Erweiterungen bestehender Produkte für den Compute-Bereich sowie Machine Learning und Performance Management vorgestellt und angekündigt.
Compute
AWS kündigt neue „Amazon Elastic Compute Cloud (EC2) M1 Mac“-Instanzen an, mit denen sich Apps für „iPhone“, „iPad“, „Mac“, „Apple Watch“ und „Apple TV“ erstellen und testen lassen. Diese Instanzen sind bislang als Preview verfügbar. Amazon EC2 M1 Ma- Instanzen erlauben den Zugriff auf Maschinen, die auf der Basis des von Apple entworfenen System on a Chip „M1“ gebaut worden sind. Wenn der Nutzer ein Mac-Entwickler ist und seine Apps auf eine neue Architektur umziehen will, damit sie nativ Macs auf Apple-Chips unterstützen, kann er seine Apps neu erstellen und testen.
AWS macht zwei neue Amazon EC2 Instanzen verfügbar, die für Storage-Zwecke optimiert sind und die AWS „Graviton2“-Prozessoren verwenden: „Im4gn“ und „Is4gen“. Beide Instanzen bieten bis zu 30 Terabyte an NVMe-Storage auf „AWS Nitro“-SSDs. Diese SSDs sollen die I/O-Latenzzeit um bis zu 60 Prozent und Latenzschwankungen um bis zu 75 Prozent im Vergleich zu EC2 I3-Instanzen verringern. Die Performance wird höher und vorhersagbarer.
:quality(80)/images.vogel.de/vogelonline/bdb/1820800/1820825/original.jpg)
ARM-CPUs in der Hyperscaler-Cloud (von AWS)
Mit Graviton2-Prozessoren höhere Leistung erzielen und zugleich sparen
Den AWS Graviton2-Prozessor findet der Interessent auch in den neuen „Amazon EC2 G5g“-Instanzen wieder, Seit’ an Seit’ mit „Nvidia T4G Tensor Core“-GPUs. Die Netzwerkbandbreite kann bis zu 25 Gbps und die EBS-Bandbreite bis zu 19 Gigabit pro Sekunde (Gbps) erreichen.
Diese bereits verfügbaren Instanzen sollen die Preis-Leistungs-Vorteile von AWS Graviton2 auf GPU-basierte Workloads ausweiten, so etwa Grafikapplikationen und Machine-Learning-Inferenz. Unter „Grafikapplikationen“ versteht AWS neben Grafikrendering und Raytracing auch das Streamen von Android-Spielen. Hierfür sollen die Kosten pro Stream um bis zu 30 Prozent unter der vergleichbarer x86-basierter GPU-Instanzen liegen. Die neuen Amazon EC2 G5g Instanzen gibt es in sechs Größen; Details finden sich auf der Produktseite.
Graviton3
Der nächste Schritt in Sachen Graviton sind natürlich AWS Graviton3-Prozessoren, die AWS-Eigenentwicklung von ARM-Prozessoren. Die entsprechende Instanz trägt die Bezeichnung „Amazon EC2 C7g“. Sie soll bis zu 25 Prozent mehr Rechenleistung und bis zu doppelt so viel Gleitkomma- und Verschlüsselungsleistung als Graviton2-basierte Instanzen bereitstellen. Im Machine Learning unterstützt Graviton3 bfloat16-Daten und soll hier bis zu dreimal so viel Leistung liefern wie sein Vorgänger.
Die Amazon EC2 C7g Instanzen eignen sich vor allem für sehr rechenintensive Anwendungen in den Bereichen High Performance Computing (HPC), Stapelverarbeitung, Electronic Design Automation (EDA), Medienkodierung, wissenschaftliche Modellierung, Verteilung von Werbeanzeigen, verteilte Analytik und natürlich CPU-basierte (statt GPU-basierte) Inferenz im Machine Learning.
Graviton2 hat noch nicht ausgedient. Die neuen „Amazon EC2 X2gd“-Instanzen sollen sich besonders für RAM-intensive Workloads eignen.
EC2 mit AMD
Manche Kunden ziehen AMD-Prozessoren den Intel-Pendants vor, nicht zuletzt, weil „AMD Epyc“-CPUs der Baureihen „Rome“ und „Milan“ im Vergleich eine höhere Leistung zeigen. Selbstredend bietet Amazon diesen Kunden entsprechende Amazon EC2 Instanzen an. Diese „M6a“-Instanzen nutzen die Performance von AMD Epyc-Prozessoren, die mit einer Frequenz von bis zu 3,6 Gigahertz (GHz) getaktet sind. Sie sollen laut AWS ein bis zu 35 Prozent besseres Preis-Leistungsverhältnis gegenüber der vorhergehenden Generation von „M5a“-Instanzen bieten.
Die Größe einer Instanz kann bis zu 192 vCPUs und 768 GiB RAM umfassen. So sollen sich mehrere Workloads in nur einer Instanz konsolidieren lassen. M6a Instanzen unterstützen „Elastic Fabric Adapter“ (EFA), so dass von der niedrigeren Latenzzeit und höher skalierbaren Internode-Kommunikation, vor allem HPC-Anwendungen und Videoverarbeitung, profitieren. „EBS-optimierte EC2-Instanzen bieten zusätzlich zur Netzwerkbandbreite eine dedizierte Bandbreite nur für Amazon Elastic Block Store (EBS)-Speicher“, erläutert Constantin Gonzalez, Principal Solutions Architect bei AWS, und weiter: „M6a unterstützt bis zu 50 Gbps Netzwerk-Bandbreite und bis zu 40 Gbps für Amazon EBS.“ Die Speicherinhalte sind stets verschlüsselt, zusätzlich werden durch Unterstützung von AVX2-Befehlen kryptografische En- und Dekodierungsalgorithmen beschleunigt.
Die Amazon EC2 M6a Instanzen sind in den Regionen AWS US East (N. Virginia), US West (Oregon) und Europe (Irland) in zehn Größen in vier Preismodellen erhältlich: On-demand, Spot, Reserved Instances und Savings Plan.
EC2 Trn1 Instanzen
Selipsky und sein Team gewährten in der Keynote eine Vorschau auf die neuen „Amazon EC2 Trn1“-Instanzen, die auf „AWS Trainium“ basieren. AWS Trainium ist nach „AWS Inferentia“ der zweite von AWS gebaute ML-Chip, der für Hochleistungstraining im Deep Learning (NLP, Suche, Recommendation, Optik und Ähnlichem) optimiert ist. Die Instanzen unterstützen bis zu 16 Trainium-Beschleuniger, mit einem EFA-Durchsatz von bis zu 800 Gbps – „doppelt so viel wie bei GPU-basierten Instanzen“. Auch untereinander sollen die 16 Trainium-Beschleuniger in einer Instanz mit Höchstgeschwindigkeit kommunizieren, so dass das schnellste Machine Learning Training auf EC2 realisierbar sei.
Die Trn1 Instanzen werden in EC2-„UltraClusters“ bereitgestellt, welche Zehntausende von Trainium-Chips mit Petabit-Scale-Netzwerkleistung umfassen können. Diese Trn1-UltraCluster sollen bis zu 2,5 Mal größer sein als die Vorgängergeneration. So sollen sie quasi als Supercomputer dienen, um die komplexesten Deep-Learning-Modelle trainieren zu können.
Compute-Optimierung
Der „AWS Compute Optimizer“, der Nutzungsmuster aus „Amazon Cloud Watch“ aufzeichnet und optimal skalierte Workload-Ressourcen für Amazon EC2, Amazon EBS und „AWS Lambda“ empfiehlt, hat drei neue Leistungsmerkmale erhalten (siehe: Abbilung 3ff)
Der Nutzer kann nun Präferenzen für solche Empfehlungen angeben, indem er Features wählt oder abwählt. Auch der Zeitraum, der vom Optimizer herangezogen wird, wird von 14 Tagen auf bis zu drei Monate ausgedehnt. So lassen sich auch Workloads erfassen, die nur monatlich oder vierteljährlich auftreten. Solche Nutzungen zu optimieren, war bislang recht aufwändig und erforderte weitreichende Cloud-Kenntnisse.
Erweiterte Infrastrukturmetriken berechnen, wie effizient Ressourcen wie Amazon EBS und AWS Lambda arbeiten. Dies wird in einem Dashboard zusammen mit den erzielten sowie noch erzielbaren Einsparungen angezeigt. Eine weitere Kategorie zeigt das Leistungsrisiko an, also einen Flaschenhals aufgrund von Unterversorgung durch geeignete Ressourcen. Auch Auto-Scaling-Gruppen lassen sich dadurch optimieren. Erweiterte Infrastrukturmetriken kosten einen Aufpreis von 0,0003360215 Dollar pro Stunde, die jedoch bald wieder eingespart werden sollten.
AWS Control Tower
Damit Kunden einfacher festlegen können, wo ihre Daten lagern und ihre Cloud-Nutzung besser über mehrere AWS-Accounts hinweg verwalten können, bietet „AWS Control Tower“ an. Das ist besonders für stark regulierte Branchen wie etwa den Bankensektor oder Behörden wichtig.
Das neue Leistungsmerkmal für die Festlegung der „Data Residency“ umfasst detektierende und präventive Kontrollen, welche AWS als „Leitplanken“ (Guardrails) bezeichnet. So genannte Service Control Policies (SCPs) sorgen durch AWS-API-Restriktionen dafür, dass keine Ressourcen in unerwünschten Lokationen angesiedelt werden, so etwa außerhalb von Frankfurt/Main.
Auch Funktionen von „Amazon Simple Storage Service“ (Amazon S3) wie die automatische Replikation über Ländergrenzen hinweg lassen sich blockieren. Nur globale Services wie „AWS Identity and Access Management“ (IAM) und „AWS Organizations“ müssen weiterhin zugelassen sein. Detektierende Leitplanken werden mit „AWS Config“ Regeln eingezogen. Die SCPs werden in AWS Control Tower angelegt und verwaltet.
Container & Kubernetes
Mit „Karpenter“ bietet AWS nun eine automatische Skalierung für Kubernetes-Cluster an. Er soll Kunden helfen, die Verfügbarkeit ihrer Applikationen und die Effizienz des Clusters zu erhöhen, indem er geeignete Ressourcen rasch startet, wenn die Compute-Anforderungen einer Anwendung stark steigen. Karpenter ist bereits unter der Apache-Lizenz 2.0 verfügbar.
AWS Marketplace for Containers Anywhere
Im AWS Marketplace können Kunden „Amazon Machine Images“ (AMIs), SaaS-Lösungen und Container finden (siehe: Abbildungen 7 und 8). Letztere lassen sich mit dem Amazon Elastic Container Service (ECS) und „Amazon Elastic Kubernetes Service“ (EKS) bereitstellen.
Wer die Container bei sich on-premises bereitstellen möchte, brauchte bislang spezielle Werkzeuge, etwa für die Abrechnung oder Upgrades. Mit dem neuen Service "AWS Marketplace for Containers Anywhere" können Kunden Kubernetes-Anwendungen auf jedem Kubernetes-Cluster an einem beliebigen Ort bereitstellen. Die entscheidende Komponente ist „Amazon EKS Anywhere“.
Mainframe-Modernisierung
„AWS Mainframe Modernization“ (siehe: Abbildung 9) ist eine neue Plattform für die Migration und Modernisierung von Mainframes beziehungsweise deren Workloads. Das Ziel der Migration ist jeweils eine verwaltete und hochverfügbare Laufzeitumgebung auf AWS. Der Service unterstützt zunächst zwei Migrationsmuster: Replatforming und automatisiertes Refactoring von Mainframe-Applikationen.
Das Refactoring erfolgt auf Java-basierten Diensten. Nach einer Planungs- und Entscheidungsphase (mit Abhängigkeitsübersichten und Quellensuche beispielsweise) kann jeder Kunde den für ihn besten Pfad und die damit zusammenhängenden Toolchains wählen. Migrierte Anwendungen sollen sich auf dieser Plattform ohne Investitionskosten ausführen lassen.
Sie werden automatisch auf Cloud-Niveau gebracht: sicher, verwaltet, widerstandsfähig, skalierbar und kosteneffizient. Amazon bietet seine eigene Toolchain für diese Migration und Modernisierung an. Sie soll dafür sorgen, dass die migrierten Workloads gemäß DevOps-Prinzipien möglichst schnell zum Einsatz kommen können.
(ID:47911284)