Power-Prozessoren, Open Power und Synapsen Mit Power-Chips geht IBM gegen die Intel-Dominanz an
Intel-Server haben aktuell einen stabilen Marktanteil von 80 Prozent. Mit dem „Power“-Prozessor will IBM bei rechenintensiven Anwendungen punkten. Die „Open-Power“-Initiative lockt zudem Linux-Anwender mit Kampfpreisen.
Anbieter zum Thema

Leistung satt: „Der Leistungsfähigkeit der Power-Architektur liegt deutlich höher als die von Intel-Systemen“, sagt Rüdiger Spies, Independent Vice President Software Markets beim Analystenhaus PAC. Power-Systeme würden dank ihrer RISC-Architektur (Reduced Instruction Set Computer, zu Deutsch: reduzierter Befehlssatz) schneller arbeiten, sie könnten parallele Threads in Hardware abbilden, und sie unterstützten die Virtualisierung. „Diese Technologie haben die Chip-Entwickler vom Mainframe übernommen, wo die Virtualisierung schon immer Standard war.“
Datenbank- und Chip-Spezialisten entwickeln gemeinsam
Bei der Entwicklung dieses Prozessors unter anderem in Böblingen hat Big Blue die Spezialisten für Hardware mit den Datenbank-Experten in einem Team zusammengebracht, wie IBM-Manager Ingolf Wittmann ausführt, der in Europa das Supercomputing Business verantwortet. „Die Datenbank-Spezialisten haben definiert, welche Anforderungen der Chip erfüllen muss, damit die Transaktionen möglichst schnell ablaufen.“
So ist der 2015 erschienene „Power-8“-Chip laut Wittmann für datenintensive Workloads entwickelt worden. Im Auge hatte Big Blue dabei nicht nur strukturierte Daten, sondern auch unstrukturierte Hadoop-Daten, Big Data Analytics bis hin zu Streaming-Lösungen sowie das Cognitive Computing.
Unterstützung für zwei Betriebssysteme
Bei Servern mit dem Power-Chip bietet IBM zwei unterschiedliche Varianten an: Die erste bilden Systeme, die mit dem Betriebssystem AIX laufen. Diese sind auf eine hohe Ausfallsicherheit und ein schnelles Recovery optimiert und haben einen höheren Preis als Intel-Server.
Die zweite Variante sind Server, bei denen es nicht auf Ausfallsicherheit ankommt, weil beispielsweise eine Analyse-Anwendung im Fehlerfall einfach neu gestartet wird. Diese Systeme nutzen das Betriebssystem Linux und kosten weniger als die AIX-Pendants.
„Bei der Linux-Variante liegen die Preise relativ dicht bei denen von Intel-Servern“, erläutert Spies. „Zu beachten ist allerdings, dass IBM bei der Vergleichsrechnung immer von der Leistungsfähigkeit ausgeht. Es geht also darum, wie viele Transaktionen oder Integer-Operationen pro Sekunde ein Anwender für welchen Preis bekommt.“
Bei der Wahl zwischen Intel- und Power-Plattform reicht laut Spies jedoch der Blick auf die Preisliste nicht aus: „Die Power-Plattform empfehle ich dann, wenn es um extrem viele Transaktionen oder um Analytics-Anwendungen geht. Unerlässlich dafür ist allerdings Linux- und AIX-Know-how. Fehlt dies in einem Unternehmen, wäre für die Power-Plattform ein hoher Lernaufwand nötig.“
Auf Power-Basis läuft HANA doppelt so schnell wie mit Intel-Technik
Ein noch relativ junger Anwendungsfall für die Power-Plattform ist die In-Memory-Plattform „SAP HANA“. Laut Wittmann ist HANA auf der Power-Plattform bis zum Faktor zwei schneller als auf Intel-Servern. „SAPs starkes Engagement mit HANA auf der Intel-Plattform hat IBM keine Wahl gelassen, als dort den Power-Chip ins Spiel zu bringen“, erläutert Spies. Bis die Verhandlungen mit SAP erfolgreich waren, habe es wohl vier bis fünf Jahre gedauert.
Wenn Unternehmen auswählen, auf welcher Plattform sie HANA betreiben, dann verweist Spies auf die bereits genannten Kriterien: „Sofern das Unternehmen HANA für Analytics nutzt, empfehle sich die Power-Plattform.“ Beim Kostenvergleich zähle nicht die Preisliste, sondern die unternehmensindividuelle Rabattstaffel.
Zu klären sei auch die Frage, von welchem Anbieter sich ein Unternehmen einen besseren Support erwarte. Und schließlich das besagte Linux-Know-How: „Unternehmen, die bislang ausschließlich Intel Server unter Windows betreiben, rate ich von HANA on Power ab.“
Open Power Foundation entwickelt kostengünstige Linux-Systeme
Um die Power-Server in den Markt zu bringen, engagiert sich IBM seit 2013 in der Open Power Foundation. Diese Foundation hat aktuell mehr als 270 Mitglieder, die unter anderem Power-basierende Server erstellen, die unter Linux laufen und preislich eng bei den Intel-Geräten liegen.
„Die Entwicklung der Open-Power-Systeme reicht vom Mainboard über die Systemarchitektur und die Middleware bis hin zu Spezialanwendungen“, erläutert Wittmann. Auch IBM selbst bietet Open-Power-konforme Systeme an, die Komponenten verwenden, welche Mitglieder der Foundation entwickelt haben.“
PAC-Analyst Spies bewertet die Open Power Foundation sehr profan: „Es handelt sich um eine Marketing-Plattform der IBM, deren Ziel darin besteht, die Power-Plattform zu etablieren und Unternehmen die Möglichkeit zu geben, mit Open-Source-Projekten zu experimentieren.“
:quality(80)/images.vogel.de/vogelonline/bdb/1113600/1113678/original.jpg)
Ein Rechner auf Basis von IBM-Power-CPU aus Bayern
Thomas-Krenn AG adaptiert Open Power
Sowohl der Mainframe als auch die PC-Architektur waren nach Einschätzung des Analysten vor allem deshalb so erfolgreich, weil es dafür von Anfang an mehrere konkurrierende Anbieter gab. „Der PC mit seinen standardisierten Schnittstellen und Slots für Erweiterungen hat innerhalb weniger Jahre die damaligen Konkurrenzprodukte an den Rand gedrückt. Heute versucht IBM, die Power-Plattform über die Kombination aus Standardisierung und Open-Source-Community im Markt zu verbreiten.“
Unabhängig von der Portfolio-Politik bei IBM spricht laut Spies ein weiterer Grund für die Power-Plattform: Vor allem große Unternehmen seien an einer Alternative zu Intel interessiert, weil sie eine einseitige Abhängigkeit von diesem Anbieter fürchteten. Deshalb habe Google ebenso wie Amazon Power-Server für den eigenen Gebrauch gebaut. Auch chinesische Unternehmen experimentierten mit dieser Plattform, und die haben nach Beobachtungen von Wittmann als erstes die Krypto-Unit modifiziert.
Power-Technologie hält Einzug in den Mainframe
Geht der Blick in Richtung zukünftige Rechnerarchitekturen, dann hat der Power-Chip für IBM strategische Bedeutung: „Bei den Prozessoren für Mainframes sind inzwischen fast keine Leistungssteigerungen mehr möglich“, erläutert Spies. „Langfristig dürften daher große Teile der Power-Technologie in die Großrechner wandern.“
Die zukünftigen Leistungssteigerungen erwartet der Analyst nicht von einer weiteren Optimierung des einzelnen Chips sondern von Spezialprozessoren: „Klassische Architekturplattformen wie Intel und Power werden künftig nur noch als eine Art zentraler Hub fungieren, der Input und Output sowie die Kommunikation mit dem Anwender über das Betriebssystem regelt. Unterstützt werden diese Plattformen durch Spezialprozessoren beispielsweise für Kryptographie, Analytics, Simulation und Bildverarbeitung.“
Die Entwicklungswerkzeuge seien zudem heute viel besser dazu geeignet, solche Spezialprozessoren zu designen und zu bauen. Da künftig die meisten Rechner in Cloud-Rechenzentren stünden, könnten solche Spezialprozessoren von mehreren Anwendern genutzt werden, die sich die Kosten teilen.
Akzeleratoren erledigen Spezialaufgaben
IBM-Manager Wittmann bezeichnet derartige Spezialprozessoren als Akzeleratoren, die spezifische Aufgaben abdecken wie etwa Mustererkennung, Monte-Carlo-Analysen, Analyse unstrukturierter Daten, Streaming-Projekte oder etwa den Aufbau neuronaler Netze. Diese Akzeleratoren könnten auch so genannte Field Programmable Gate Arrays (FPGAs) sein, also Chips mit integrierter Logik.
Um die Akzeleratoren rasant anzusprechen, enthält die Power-Architektur ein Interface mit der Bezeichnung „Coherent Accelerator Programming Interface“ (CAPI). Dieses Interface erzielt laut Wittmann unter Umgehung des Betriebssystems einen Datendurchsatz von 50 Gigabyte pro Sekunde. Deutlich mehr als die bei PCI Express möglichen 16 Gigabyte. Auf einem Board ließen sich bis zu sechs CAPI-Schnittstellen unterbringen.
Über die CAPI-Schnittstelle lassen sich auch Solid State Disks (SSD) ans Mainboard anbinden. Besondere Vorteile bringt es laut Wittmann, wenn auf einer derart angebundenen SSD eine In-Memory-Datenbank wie HANA läuft: „Spreche ich die Datenbank auf der Flash Disk über die PCI-Schnittstelle an, sind für eine Transaktion ungefähr 20.000 Instruktionen nötig. Bei der CAPI-Schnittstelle schrumpft die Anzahl der Instruktionen auf 500.“
Unabhängig von der höheren Geschwindigkeit könne sich ein Vorteil bei den Software-Kosten ergeben, wenn die Lizenz nach Prozessorkernen berechnet werde: „Bei In-Memory-Systemen brauche ich die Prozessorkerne nicht, um die Datenbank anzusprechen, sondern um den Hauptspeicher zu verwalten. Liegt die In-Memory-Datenbank auf einem Flash-System, sind statt bisher acht oder 16 Prozessoren nur noch zwei erforderlich.“ SAP berechnet allerdings inzwischen die HANA-Lizenzkosten inzwischen nach der Größe des Hauptspeichers und nicht mehr nach der Anzahl der Prozessorkerne.
Der Power-9-Chip hat 8 Milliarden Transistoren
In der zweiten Hälfte des kommenden Jahres wird „Power 9“ erwartet. Der Prozessor hat dann 24 statt bisher 12 Kerne und etwa 8 Milliarden Transistoren. Die Kommunikation zwischen den Grafikbausteinen und dem Prozessor läuft dann mit 80 Gigabyte pro Sekunde.
Darüber hinaus müssen die Daten nicht mehr zwischen Grafikspeicher und Hauptspeicher bewegt werden. „Der Grafikspeicher war bisher sehr limitiert“, erklärt Wittmann. „Künftig können wir über den Hauptspeicher größere Bereiche ansprechen. Das ist insbesondere für neuronale Netze interessant.“
Mit Synapse-Chips lassen sich neuronale Netze aufbauen
Ebenfalls in Richtung neuronaler Netzwerke zielen die „Synapse-Chips“, die sich wie Teile des menschlichen Gehirns verhalten. Dieser Chip enthält laut Wittmann über 1 Million Neuronen und 250 Millionen Verbindungen, die programmiert werden können. Die Tatsache, dass dieser Chip lediglich 70 Milliwatt verbraucht, und auch nur dann, wenn er genutzt wird, lasse einen Einsatz in Mobilgeräten beispielsweise zur Spracheingabe oder –steuerung möglich erscheinen.
Noch weiter in die Zukunft weise eine neue Generation von neuronalen Chips, an denen gegenwärtig im IBM-Lab Zürich-Rüschlikon geforscht wird. Im Gegensatz zum Synapse-Chip, der trainiert werden muss, seien die neuen Prozessoren selbst lernend. Für autonome Autos lässt sich ein solcher Chip laut Wittmann nicht einsetzen: Im Verkehr will man unbedingt vermeiden, dass der Chip selbst lernt und dabei möglicherweise einen Fehler übernimmt. Für diesen Zweck eignet sich der Synapse-Chip mit festgelegten Regeln besser.“
* Jürgen Frisch ist ein erfahrener IT-Journalsit und lebt in Stuttgart.
Artikelfiles und Artikellinks
(ID:44427881)