Suchen

Bericht vom Intel Developer Forum 2014 (1. Teil) Neues aus der Intel-Hexenküche für Rechenzentren

| Redakteur: Klaus Länger

Auf der Entwicklerkonferenz in San Franzisko stellt Intel seine Ideen, Visionen und Komponenten für das Rechenzentrum vor. Noch seien Datacenter-Lösungen nur unzureichend für digitale Dienstleistungen aufgestellt. In Zukunft Zukunft soll sich das Datacenter an Workloads anpassen. Dafür liefert Intel neue Xeon-Prozessoren, setzt auf Silicon-Photonics und auf eine software-definierte Infrastruktur.

Rechenpower plus Frauenpower: Diane Bryant, Senior Vice President bei Intel (r.,) mit kompaktem Mainboard, auf dem der neue System-on-a-Chip (SoC) Xeon D verbaut ist.
Rechenpower plus Frauenpower: Diane Bryant, Senior Vice President bei Intel (r.,) mit kompaktem Mainboard, auf dem der neue System-on-a-Chip (SoC) Xeon D verbaut ist.
(Bild: VBM-Archiv)

Mannshohe Server-Schränke auf der Bühne suchte man bei der Mega-Session mit Diane Bryant, Senior Vice President bei Intel, vergebens. Bei dem einzigen Server-Prozessor, den man live zu sehen bekam, passt das komplette Mainboard in eine Hand: Der „Xeon D“ auf „Broadwell“-Basis ist ein System-on-a-Chip (SoC) mit 15 Watt Leistungsaufnahme. Er soll Anfang 2015 kommen.

Bildergalerie

Die bisherigen sparsamen Server-SoCs von Intel bauen auf dem Atom-Prozessor auf. Großkunden bietet Intel nun sogar die Möglichkeit von maßgeschneiderten SoCs, etwa auf Xeon-D-Basis, die neben den üblichen Prozessorbestandteilen auch andere Module von Intel oder sogar durch den Kunden bereitgestellte Elemente enthalten können. Die Prozessoren sind trotzdem sockelkompatibel zu herkömmlichen Xeon-CPUs. So wird etwa F5 Networks Xeon-CPUs mit einem eigenen „FPGA“ für Workload-Optimierungen einsetzten.

Software wird wichtiger

Software-definierte Infrastukturen (SDIs)sind ein wesentliches Element der neuen Intel-Architektur nicht nur für das Netzwerk, sondern auch für Storage. Sie sollen das ineffiziente Overprovisoning durch eine intelligente Deduplikation und Kompression überflüssig machen, natürlich mit Hilfe von Intel-Prozessoren.

Für die Verbindung der einzelnen Server-Komponenten dienen nicht mehr Kupfer, sondern Lichtleiter, für die Intel die nötigen Transmitterchips zur Verfügung stellt. Statt Kabellängen von drei Metern können hier Signale über 300 Meter bei voller Bandbreite übertragen werden.

Fujitsu zeigte im IDF-Showcase einen Prototypen,bei dem IO und Storage räumlich getrennt durch Lichtleiter verbunden sind. So lassen sich etwa Storage Units ohne teure Fibre-Channel-Technik repliziert in unterschiedlichen Gebäude unterbringen.

Intel hat ein Referenzmodell für die Rack-Scale-Architecture entwickelt, der auch im Showcase zu sehen war. Seine Management-Software soll die Leistung der Hardware intelligent an die Workloads anpassen und ist über APIs auch für Entwickler eigener Lösungen zugänglich.

Analysen mit Hadoop

Immer mehr Server-Leistung wird laut Intel auch in Big Data und Big Data Analytics, also in Datenanalysen fließen. Ein wesentliches Element ist dabei das Open-Source-Framework „Apache Hadoop“. Intel arbeitet hier eng mit Cloudera zusammen, um deren Hadoop-Implementierung für Xeon-Prozessoren zu optimieren und hat die Entwicklung einer eigenen Hadoop-Software dafür beendet.

(ID:42946445)