Suchen

AWS stellt neue EC2-Instanzen und Außenposten vor Was bietet Amazon Web Services für Rechenzentren?

| Autor / Redakteur: Michael Matzer / Ulrike Ostler

Auf seiner Kundenkonferenz „Re:Invent 2019“ hat Amazon Web Services (AWS) eine Reihe neuer „EC2“-Instanzen angekündigt, die auf den eigenen „Graviton“-Prozessoren aufbauen. Neben diversen Networking- und KI-Neuheiten verlautbarte AWS auch die Verfügbarkeit der Cloud-Erweiterung für lokale Rechenzentren „AWS Outposts“.

Firmen zum Thema

Von den rund 65.000 Besuchern der AES-Hausmesse „Re:Invent“, die vom 30. November bis zum 4. Dezember 2019 in Las Vegas stattfand, konnten rund 11.000 den Keynotes in der Halle A direkt lauschen.
Von den rund 65.000 Besuchern der AES-Hausmesse „Re:Invent“, die vom 30. November bis zum 4. Dezember 2019 in Las Vegas stattfand, konnten rund 11.000 den Keynotes in der Halle A direkt lauschen.
(Bild: AWS)

Bei den neuen EC2-Instanzen handelt es sich um ARM-basierte Versionen der Amazon EC2-Instanzen der Serien M, R und C. Sie werden von neu entwickelten AWS Graviton2-Prozessoren unterstützt, die die hauseigene „Nitro“-Hypervisor-Technik ausnutzen.

Werner Vogels, CTO von Amazon.com, erklärte die Produktplanung, unter anderem im EC2 und S3-Bereich.
Werner Vogels, CTO von Amazon.com, erklärte die Produktplanung, unter anderem im EC2 und S3-Bereich.
(Bild: AWS)

Die drei neuen Graviton2-basierten Instanzen:

  • 1. „M6g“ ist ein ausgewogener Instanz-Typ mit bis zu 64 virtuellen CPUs und bis zu 256 Gigabyte (GB) RAM, der sich für allgemeine Zwecke eignet.
  • 2. „C6g“ bringt die doppelte Rechenleistung pro Memory mit – sie ist eine im Verhältnis 2:1 für Rechenleistung optimierte Instanz, die laut Raj Pai, Vice President, EC2 Product Management bei AWS, etwa für Simulationen, High Performance Computing (HPC) geeignet ist.
  • 3. Bei „R6g“ handelt es sich um eine im Verhältnis 1:2 Memory-optimierte Instanz; sie wäre für In-Memory-Applikationen und Datenbanken geeignet und kann doppelt so viel RAM pro CPU aufweisen. „Die R6g- und M6g-Instanzen werden ab Anfang 2020 zur Verfügung stehen“, so Pai weiter.

„Mit den ARM-Prozessoren Graviton2 will AWS das beste Preis-/Leistungsverhältnis bieten, das heißt: einen um 40 Prozent niedrigeren Preis pro Leistung im Vergleich zu vergleichbaren x86-basierten Angeboten“, so Raj Pai. Als weitere Instanz erwähnt der Produktmanager die „EC2 i3“en-Instanz: Sie stelle die maximale Anzahl an NVMe-SSDs für hohen I/O in entsprechenden Anwendungsfällen zur Verfügung.

Bildergalerie

„Im Einsatz mit AWS Diensten wie `Amazon Elastic Load Balancing´, Amazon Elasticache´ und ´Amazon Elastic Map Reduce (EMR)` wurden die AWS Graviton2-Instanzen bereits getestet", berichtet Pai. „Es wurden Benchmark-Tests für einzelne Workloads durchgeführt. Dabei fielen die Ergebnisse entsprechend variabel aus.“ Ein Beispiel: Der SAP-Datenbank können mit EC2 High Memory Instanzen bis zu 24 TB RAM in einer einzigen Instanz zur Verfügung gestellt werden. Der Vorteil, den wir unseren Kunden bieten wollen, ist eine signifikante Senkung der Total Cost of Ownership.“

EC2 Inf1 Instanz für Inferenz

Außerdem stellte AWS eine neue „EC2 Inf1“ Instanz auf Basis des „AWS Inferentia“ Chips vor. „Inferenz erfordert hohen I/O und geringe Latenzzeit“, erläutert AWS-Produktmanager Pai. „Inferentia liefert einen Datendurchsatz von 16x 128 teraOP/s, also 2048 teraOP/s.“ Der von AWS gestaltete Chip soll für die niedrigsten Kosten für Inferenz, die in KI-Prozessen im Schnitt 90 Prozent der Kosten verursacht, sorgen (10 bis 11 Prozent entfallen auf das Training des Modells). Die Kosten sollen um 40 Prozent geringer sein als bei einer „EC2-G4“-Instanz mit „Nvidia T4“-GPUs.

Inferentia steht also für schnellste und kostengünstigste Machine-Learning-Inferenz-Anwendungen in der Cloud. Dabei unterstützt Inferentia die KI-Entwicklungsumgebung „Amazon Sage Maker“ und Deep-Learning-Frameworks wie „Tensorflow“. Die EC2-Inf1-Instanzen lassen sich mit AWS Deep Learning AMIs bereitstellen und werden über Managed Services wie Amazon Sage Maker, „Amazon Elastic Containers Service“ (ECS) und „Amazon Elastic Kubernetes Service“ (EKS) verfügbar sein.

Link: Weitere Informationen zu den Amazon EC2 Inf1 Instanzen

AWS Compute Optimizer

Der neue Service „AWS Compute Optimizer“ soll auf der Grundlage von Machine Learning bessere Empfehlungen zur richtigen Wahl von Compute-Ressourcen liefern, so dass Kunden den optimalen Amazon EC2-Instanztyp identifizieren können. Der Optimizer lässt sich laut AWS mit wenigen Klicks in der „AWS Management Console“ aktivieren. Im Anschluss beginnt er sofort mit der Analyse der laufenden AWS-Ressourcen.

Link: Weitere Informationenzum AWS Cloud Optimizer

Die richtige Wahl von EC2-Instanzen ist eine Wissenschaft für sich. Doch clever angewandt, lassen sich mit den zahlreichen Möglichkeiten 75 Prozent der sonst anfallenden Kosten einsparen. „Das gelingt besonders mit `Reserved´-Instanzen, die ein Kunde für ein bis drei Jahre buchen kann", erläutert Constantin Gonzalez, Principal Solutions Architect bei AWS.

Die „AWS Outposts“-Appliance erweiterte die AWS-Cloud in On-premises-Umgebungen und soll so die Realisierung einer Hybrid Cloud erlauben.
Die „AWS Outposts“-Appliance erweiterte die AWS-Cloud in On-premises-Umgebungen und soll so die Realisierung einer Hybrid Cloud erlauben.
(Bild: AWS)

Dieses Modell wurde in dem vor kurzem vorgestellten „AWS Savings Plan“ verbessert: „Der funktioniert wie die Bahncard, bei er man im Voraus ein Budget festlegt“, sagt Gonzalez, „und kennt zwei Varianten“:

  • 1. „Compute Savings Plan“: Mit der größten Flexibilität, auch über AWS-Regionen und verschiedene Instanz-Familien hinweg (entweder EC2 oder „Fargate“-Container und mehr.)
  • 2. „EC2 Savings Plan“: Flexible Instanzgröße innerhalb einer Instanz-Familie in einer Region; ohne Support für AWS Fargate

„Der Compute-Savings-Plan erlaubt unseren Kunden Einsparungen von bis zu 66 Prozent“, so Gonzalez, „und durch Festlegung auf eine Region und eine Instanz-Familie sind bis zu 72 Prozent Ersparnis erzielbar.“

AWS Outposts

Nachdem das Konzept schon vor einem Jahr angekündigt wurde, hat AWS die generelle Verfügbarkeit dieses vollständig verwalteten und konfigurierbaren Rechen- und Speicher-Racks bekanntgegeben. Outposts erlaubt Kunden, auf AWS-konfigurierter Hardware Rechen- und Speicheroperationen lokal („on-premises“) durchzuführen, und diese nahtlos mit den AWS Cloud-Diensten zu verbinden.

Andy Jassy, CEO bei AWS, konnte in seiner dreistündigen Keynote zahlreiche Neuheiten vorstellen.
Andy Jassy, CEO bei AWS, konnte in seiner dreistündigen Keynote zahlreiche Neuheiten vorstellen.
(Bild: AWS)

Damit bringt AWS Outposts native AWS Dienste, Infrastruktur und Betriebsmodelle in jedes Rechenzentrum, jeden Co-Location Space und jeden On-premises-Standort. Zu den „nativen“ Diensten gehören EC2, „Elastic Block Storage“ (EBS), „Elastic Container Service“ (ECS), „Elastic Kubernetes Service“ (EKS), „Elastic Map Reduce“ (EKS) und „Virtual Private Cloud“ (VPC). Die Datenbank „RDS“ sowie „S3“-Storage kämen bald hinzu, so AWS-CEO Andy Jassy. In der Ausstellung war die übermannshohe Outposts-Appliance eines der am meisten bewunderten Exponate.

* Michael Matzer ist freier Autor und lebt in Stuttgart.

(ID:46293529)

Über den Autor