AWS re:Invent 2016

Von KI bis Hardware by Code - Amazon Web Services stellt Neuheiten vor

| Redakteur: Ulrike Ostler

„Daten sind schwer“, heißt es in der Branche und lassen sich nicht ohne Weiteres in die Cloud bewegen. AWS holt jetzt per "Snowmobile" die Daten aus den Rechenzentren der Kunden ab - in jeder Verfügbarkeitszone.
„Daten sind schwer“, heißt es in der Branche und lassen sich nicht ohne Weiteres in die Cloud bewegen. AWS holt jetzt per "Snowmobile" die Daten aus den Rechenzentren der Kunden ab - in jeder Verfügbarkeitszone. (Bild: Amazon Web Services/ Matt Gutierrez (Symbionix))

Amazon Web Services (AWS) hat am Mittwoch der vergangenen Woche auf seiner fünften Entwicklerkonferenz „AWS re:Invent“ in Las Vegas den 32.000 Teilnehmern eine Reihe neuer Dienste und Funktionen präsentiert. Hier sind die wichtigsten Neuerungen, wie programmierbare Hardware für FPGAs und ein „Snowmobile“ für den Datentransfer auf einen Blick.

Die neue Amazon-Instanz „EC2 F1“ ist laut Anbieter die erste Cloud Instanz mit programmierbarer Hardware für Field Programmable Gate Arrays (FPGA). Kunden können ihre eigenen FPGAs programmieren und damit die Performance um das Dreißigfache von Standard-CPUs erhöhen.

Die F1 Instanzen FPGA Developer AMI und Hardware Developer Kit enthalten, so AWS; „alles, was ein Entwickler benötigt, um Hardwarebeschleunigungscode zu entwickeln, simulieren, debuggen und erstellen“. Ist das FPGA Design vollständig, können Entwickler es als Amazon FPGA Bild (AFI) sichern und mit wenigen Klicks bereitstellen.

Zudem ist es möglich, dass Anwender ihre eigenen Designs nutzen oder vorgefertigte AFIs über den AWS Marketplace beziehen. FPGAs sind über eine spezifisch isolierte Netzwerkstruktur mit F1 Instanzen verbunden und werden nicht mit anderen Instanzen, Nutzern oder Accounts geteilt. Damit sind sie nicht nur schnell, sondern auch sicher.

Elastic GPUs

Die Elastic GPU ist ein neues Amazon-Feature für „EC2“. Dabei handelt es sich um flexible Grafikprozessoren (GPUs), die sich einfach mit Amazon EC2 Instanz Typen verbinden lassen. Mit Amazon Elastic GPU können Kunden die passende Grafikbeschleunigung für spezifische Workloads konfigurieren, ohne dass sie an Hardware-Konfigurationen oder eine limitierte GPU-Auswahl gebunden sind. Der Service unterstützt OpenGL und umfasst mehr als 8 Gigabyte GPU-Speicher. Damit ist er insbesondere geeignet für Gaming, Industrial Design, Visualisierungen, 3D-Modellierungen, Rendering und virtuelle Desktops.

Snowball Edge

Das „Snowball-Edge“-Speichergerät speichert die doppelte Menge an Daten wie „AWS Snowball“. Kunden können bis zu 100 Terabyte Daten verschlüsselt auf das Gerät übertragen – bei doppelter Netzwerkgeschwindigkeit. Eingebaut im Gerät sind zudem WiFi, mobile Funkkommunikation, AWS Greengrass und Rechenleistung äquivalent zu einer Amazon EC2 m4.4 xlarge Instanz.

Eine NFS-Schnittstelle (Network File System) ermöglicht den Datenaustausch von Snowball Edge mit Amazon S3. Snowball Edge wird direkt an den Kunden geliefert. Den Rückversand überwachen Kunden schließlich mit Amazon SNS (Simple Notification Service), per SMS oder mit der AWS Management Konsole.

Das AWS Snowmobile

Extrem große Datenmengen im Exabyte-Bereich lassen sich ab sofort mit „AWS Snowmobile“ bewegen. Der Service ermöglicht es Kunden, On-Premises-Daten von bis zu 100 Petabyte innerhalb einiger Wochen in einem 45-Fuß langen Versandbehälter, der in einem Truck transportiert wird, in die Cloud zu migrieren.

Amazon Athena

Mit dem neuen Service „Amazon Athena“ können Kunden einfach Daten in „Amazon S3“ über standardmäßige SQL-Abfragen analysieren. Dabei müssen weder Cluster verwaltet oder angepasst noch Infrastrukturen aufgesetzt werden – abgerechnet wird pro Abfrage (pay-as-you-go).

Die in Amazon S3 gespeicherten Daten und Amazon Athena lassen sich mit wenigen Klicks verbinden. Anwender erhalten die Ergebnisse ihrer SQL-Abfragen innerhalb weniger Sekunden. Selbst komplexe Anfragen in großen Datenbeständen können so schnell durchgeführt werden; denn nach Anbieterangaben skaliert Amazon Athena automatisch und bearbeitet Aufgaben parallel.

Amazon Aurora ist mit PostgreSQL kompatibel

„Amazon Aurora“ ist ab sofort vollständig kompatibel mit den Open-Source-Datenbanken „MySQL“ von Oracle und „PostgreSQL“. Die Datenbank-Engine vereine die Geschwindigkeit und Verfügbarkeit von kommerziellen High-End-Datenbanken mit der Einfachheit und Kosteneffizienz von Open-Source-Datenbanken, heißt es vom Anbieter. Aurora-Kunden können so eine Leistung erreichen, die um ein Vielfaches besser sei als die einer typischen PostgreSQL-Datenbank. Der Service sei zudem weiterhin hoch verfügbar, sicher und zuverlässig - bei einem Zehntel der Kosten einer herkömmlichen kommerziellen Datenbank.

Neue speicher-, rechen- und E/A-leistungsoptimierte Instanzen für den AWS-Service „Elastic Compute Cloud“ (EC2)

Seit der vergangenen Woche sind zwei neue Größen der „T2“-Instanzen verfügbar. T2 Instanzen haben eine CPU-Basisleistung mit der Möglichkeit der Verarbeitung von Spitzenlasten oberhalb der Basisleistung. Die „t2.xlarge“-Instanz hat 16 Gigabyte Arbeitsspeicher und 4 virtuelle CPUs. Das Angebot „t2.2xlarge“ hingegen bietet 32 Gigabyte Arbeitsspeicher und 8 vCPUs.

Auch seit der vergangenen Woche im Angebot sind „R4“ Instanzen für Hochleistungsdatenbanken, verteilte Arbeitsspeicher-Caches, In-Memory-Analysen, Genomaufbau und -analyse sowie andere Unternehmensanwendungen. Die neuen Instanzen enthalten einen doppelt so großen L3 Cache wie der der „R3“ Instanz, eine neue „16xlarge“-Größe mit 488 Gigabyte DDR4-Speicher und 64 vCPUs.

Im kommenden Jahr

Anfang 2017 macht AWS „C5“-Instanzen verfügbar, die die nächste Generation des „Intel Xeon“-Prozessors mit AVX 512, bis zu 72 vCPUs und 144 Gigabyte Speicher haben. C5 Instanzen eignen sich vor allem für Stapelverarbeitung, verteilte Analysen, wissenschaftliche und technische Anwendungen mit hoher Leistung, Ad-Serving, MMO-Gaming und Videocodierung.

Die neuen „I3“-Instanzen kommen Anfang 2017 und sind laut Anbieter ideal für NoSQL- und Transaktionsdatenbanken sowie Analysen. Sie enthalten mehr als 64 vCPUs und 15,2 Terabyte SSD-Speicher mit niedriger Latenzzeit. Die Instanzen schaffen rund 3.3 Millionen I/O-Operationen pro Sekunde (IOPS) bei 4 Kilobyte Blocksize und einen E/A-Durchsatz von 16 Gigabyte pro Sekunde.

Amazon Lightsail

„Amazon Lightsail“ ist ein Service, um Code oder Software auf einem Virtual Private Server (VPS) in der Cloud auszuführen. Der Service beinhaltet die nötigen Komponenten für Projekte wie Webseiten, Blogs, benutzerdefinierte Anwendungen oder Entwicklungs-Server. Amazon Lightsail ermöglicht es, mit wenigen Klicks Standard-Anwendungen wie „Wordpress“, „Drupal“, „Joomla“ und andere Web-Anwendungen einfach einzurichten. Kunden zahlen für jeden Server einen monatlichen Preis, der bei fünf Dollar im Monat startet.

AWS stellt drei neue Amazon KI-Services vor

Amazon Lex“ ist ein verwalteter und skalierbarer Service für die Entwicklung von Konversationsoberflächen mit Stimme und Text. Er basiert auf der Technologie für automatische Spracherkennung und natürliches Sprachverständnis, die auch Amazon Alexa nutzt.

Entwickler können intelligente Sprachassistenten (so genannte Bots) bauen und testen. Der Service erstellt daraufhin Sprachmodelle, die für Web-Anwendungen, Chat und Messenger Apps sowie sprachgesteuerte Apps und Geräte verwendet werden können. Passende Backend-Services lassen sich über Amazon-Lambda-Funktionen integrieren.

Amazon Polly“ ermöglicht es Entwicklern, natürlich klingende Sprachfunktionen in bereits existierende Programme zu integrieren oder neue Produkte mit Sprachfunktion zu kreieren. Mögliche Anwendungsfelder sind Newsreader oder E-Learning-Plattformen. Der Service verfügt über 47 natürliche männliche sowie weibliche Stimmen und unterstützt 24 Sprachen mit verschiedensten Akzenten. Entwickler zahlen lediglich für den konvertierten Text. Der Service seit der vergangenen Woche in den Regionen US East (N. Virginia), US East (Ohio), US West (Oregon), und EU (Dublin) verfügbar.

Mit „Amazon Rekognition“ können Entwickler schnell und einfach Programme erstellen, die Bilder analysieren und Gesichter, Objekte und Szenen erkennen. Der Service ermöglicht umfassende Bildklassifikation und -erkennung und nutzt dafür Deep-Learning-Algorithmen. Seit heute ist Amazon Rekognition in den Regionen US East (N. Virginia), US West (Oregon), und EU (Dublin) verfügbar.

AWS Greengrass

„AWS Greengrass“ ist Software, die „AWS-Lambda“-Funktionen und „AWS IoT“ lokal auf jedem verbundenen Gerät ausführen lässt. Über die „AWS Management Konsole“ können Entwickler einem IoT-Gerät AWS-Lambda-Funktionen hinzufügen. Der Code wird lokal auf dem Gerät ausgeführt, womit nahezu in Echtzeit auf Events reagiert werden kann. Der Service beinhaltet außerdem „AWS IoT Messaging“ und Synchronisierungsmöglichkeiten, damit Geräte direkt mit anderen kommunizieren können, ohne den Umweg über die AWS Cloud nehmen zu müssen.

Allianz mit Workday

Amazon Web Services (AWS) hat heute mitgeteilt, dass Workday, ein führender Anbieter von Enterprise-Cloud-Anwendungen für das Finanz- und Personalwesen, AWS als seinen bevorzugten Anbieter für Public-Cloud-Infrastruktur ausgewählt hat. Mit dieser Partnerschaft geht Workday den nächsten Schritt in seiner langfristigen Public-Cloud-Strategie, indem es Kunden die Option anbietet, alle Anwendungsfälle einschließlich Workday Financial Management und Workday Human Capital Management erstmals in der Public Cloud auszuführen.

Was meinen Sie zu diesem Thema?

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 44411043 / IT-Services)