Suchen

Fujitsu Forum - Praxis trifft auf Innovation und neue Firmenstrukturen Digital-Annealer-Projekte, neue KI-Technologie und Strategien garniert mit Brot und Butter

| Autor: Ulrike Ostler

Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion. Interessant war allerdings seine Reihenfolge der Eckpunkte einer neuen strategischen Ausrichtung in Europa: Digital Annealer, Supercomputer und KI sowie Realisierung von SAP-Projekten in einer Neuauflage eines umfassenden Partner-Systems. Auch die Großrechner-Technik „BS2000“ blieb nicht unerwähnt.

Firmen zum Thema

Fujitsu-President Takahito Tokita stellt auf der Hausmesse „Fujitsu Forum“ die strategische Ausrichtung für Fujitsu in Europa vor.
Fujitsu-President Takahito Tokita stellt auf der Hausmesse „Fujitsu Forum“ die strategische Ausrichtung für Fujitsu in Europa vor.
(Bild: Ulrike Ostler/ Vogel IT-Medien GmbH)

Das Update über die neuen Unternehmensstrategien übernahm Geschäftsführer Rupert Lehner, co-moderiert von Fujitsu-CTO Joseph Reger. „Wir müssen uns eben fokussieren“, so Reger, der dabei ist, eine „Inkubator-Mannschaft“ für diese Themen aufzubauen, insbesondere im Bereich Künstlicher Intelligenz und Quantum-Annealing-Projekte. Es ginge gut voran, so der Cheftechniker und nimmt es als gutes Zeichen, dass sich außer im Quanten-Computing-Bereich - da gibt es noch keine nennenswerte Anzahl an Experten - mehr Bewerber meldeten, als Stellen vorhanden sein. „Wir sind offenbar auch weiterhin als Arbeitgeber attraktiv“, sagt er.

Fujistu soll kein `Kistenschieber`(mehr) sein. Service in Kombination mit Technologie-Innovationen und durchgängigen technischen Infrastrukturen, die in Lösungen für die Kundschaft münden - vom Konzept bis zur Implementierung.
Fujistu soll kein `Kistenschieber`(mehr) sein. Service in Kombination mit Technologie-Innovationen und durchgängigen technischen Infrastrukturen, die in Lösungen für die Kundschaft münden - vom Konzept bis zur Implementierung.
(Bild: Ulrike Ostler/Vogel IT-Medien GmbH)

Der Spagat zwischen neuer Technologie und sofort realisierbarem Technik-Einsatz muss eben gelingen, wenn sich Fujitsu trotz Umstrukturierung das Vertrauen seiner Kunden erhalten will. So hat Fujitsu zwar die Hardware-Produktion entweder verkauft, das PC-Geschäft ging mehrheitlich an Lenovo, die Mainboard-Fertigung in Augsburg an Kontron, ansonsten beschäftigt Fujitsu eine Reihe von Auftragsfertigern wie Wistron und Inventec, doch es werde weiterhin Datacenter-Infrastruktur von Fujitsu geben. So gab es auch während der Veranstaltung Neuvorstellungen (siehe: Kästen).

Doch zugleich ändert sich die Betonung. Das Datacenter-Geschäft werde in Kombination mit Services ein Bestandteil der Digitalisierungsthemen, die Fujitsu abdecke. Im Übrigen setze man auf eine gut funktionierende „Global Delivery“-Organisation, in der mehr als 20.000 Mitarbeiter arbeiten. Auch in Europa gibt entsprechende Zentren, etwa in Portugal, in Tschechien und Polen. „Für eine Person hier, werden rund drei Personen in den Global Delivery Center benötigt“, erläutert CTO Reger das Verhältnis und stellt zugleich bei den eigenen Mitarbeitern einen „Nachholbedarf“ in Bezug auf die neuen Geschäftsprozesse fest.

Ergänzendes zum Thema
Primergy Mono-Socket Server für die Edge und KMUs

Fujitsu hat sein Portfolio an Entry-Level Primergy-Servern eine Frischekur unterzogen. Drei neue sollen mit neuen Prozessoren sowie eine höhere Speicherkapazität punkten und somit eine verbesserte Workload-Auslastung für kleine und mittelständische Unternehmen sowie beim Einsatz am Netzwerkrand bieten - lokale Workloads können dort verarbeitet werden, wo eine geringe Latenzzeit benötigt wird.

Die Mono-Socket-Server eigneten sich daher sowohl als lokale Alternative zur Cloud und für hybride Installationen. Dementsprechend in die Bandbreite möglicher Anwendungen groß. Durch die erweiterbaren Speicher- und Laufwerkkapazitäten sollen sie Modelle insbesondere geeignet sein, schwankende Arbeitslasten zu bewältigen.

Fujitsu hat in der Mono-Socket-Produktreihe standardmäßig mit den jüngsten Intel-Prozessoren „Xeon E-2200“ Prozessoren ausgestattet und die maximale Speicherkapazität auf 128 Gigabyte erhöht, sodass sich Aufgaben wie das Betreiben einer gemeinsamen Datenbank in einer Niederlassung leicht erledigen lassen.

Die Modelle

  • Der ultrakompakte „Primergy TX1320 M4“ ist ein voll ausgestatteter Server für individuelle oder virtualisierte Workloads. Wie alle Modelle der Baureihe ist auch dieser leise im Betrieb und verfügt über das „Fujitsu Cool-safe Advanced Thermal Design“, wodurch Anwender ihn auch bei höheren Umgebungstemperaturen einsetzen können. Das Modell stellt sowohl bei der Geschwindigkeit als auch beim Durchsatz branchenweit neue Bestwerte im Hinblick auf die neuen energiebezogenen SPEC CPU 2017 Benchmarks auf, zu denen die SPECspeed 2017 Integer and SPECspeed 2017 Floating Point zählen.
  • Beim Modell „Primergy TX1330 M4“ lassen sich sowohl die Speicher- als auch die Laufwerkkapazität enorm erweitern, so dass es im Hinblick auf die Handhabung einer Reihe von Standard-Workloads heraussticht. So kann Fujitsu einen neuen Rekord beim SPECpower_ssj 2008-Benchmark verbuchen. Dieser Benchmark bestimmt die Leistung und die Energieaufnahme von Server-Systemen. Das Modell stellt zudem branchen- und weltweite Bestwerte im Hinblick auf Geschwindigkeit und Durchsatz bei den SPEC CPU 2017 Benchmarks.
  • Der dritte Server im Bunde trägt die Bezeichnung „RX1330 M4“. Der Server, der im Rack montiert wird und eine reichhaltige Auswahl an Funktionen bereitstellt, bietet laut Anbieter eine „perfekte Balance“ zwischen Leistung und Nutzen. Das Modell stellt neue Rekorde im VMmark Benchmark auf, mit dem die Leistung, Skalierbarkeit und der Energieverbrauch von virtualisierten Plattformen gemessen wird. Zudem erreichte es einen neuen Weltrekord bei den SPEC CPU 2017 Integer Suite Benchmark-Tests im Hinblick auf Geschwindigkeit.

Der Mono-Sockel-server „Primergy RX1330 M4“ von Fujitsu.
Der Mono-Sockel-server „Primergy RX1330 M4“ von Fujitsu.
( Bild: Fujitsu )

Die drei Server-Systeme beinhalten zudem Fujitsu-ISM, die „Infrastructure Manager Essential Suite“ und „iRMC S5“. Dies ermöglicht eine einfache und effiziente Verwaltung über den gesamten Server-Lebenszyklus hinweg, inklusive Bereitstellung, Installation und Administration.

Preise und Verfügbarkeit variieren je nach Region und Systemkonfiguration und beginnen bei 999 Euro.

Weitere Informationen

Ergänzendes zum Thema
Weg frei zum Software-definierten Rechenzentren mit dem „Infrastructure Manager“

Fujitsu will den „Infrastructure Manager“ (ISM) als neue Management-Suite für die Überwachung und Verwaltung ganzer IT-Landschaften etablieren. Das nahtlose und ganzheitliche Management sei dazu angetan, dass die IT-Infrastrukturen dynamisch und flexibel blieben.

Christian Leutner, Head of Product Sales Europe bei Fujitsu, erläutert: „Für die meisten Unternehmen von heute ist das Rechenzentrum das Herzstück ihres Betriebs. Bei effektiver Verwaltung unterstützt das Rechenzentrum alle Initiativen zur digitalen Transformation im Unternehmen. Im Wettlauf um die Wettbewerbsfähigkeit in der heutigen digitalen Wirtschaft haben viele Unternehmen jedoch immer komplexere IT-Umgebungen, die extrem anspruchsvoll zu verwalten sind. Ganz gleich, ob es nur darum geht, eine bessere Aufsicht und Effizienz zu gewährleisten oder den Wechsel zu einem vollständig Software-definierten Rechenzentrum zu vollziehen, der ganzheitliche Ansatz von Fujitsu ISM hilft Kunden, ganze Rechenzentren effektiv zu nutzen. Damit können sie bessere Entscheidungen treffen, mit Kunden besser in Kontakt treten und neue Einnahmequellen erschließen.“

Die meisten IT-Landschaften sind eine komplexe Kombination aus Altsystemen und moderner Technologie, wodurch die Überwachung und Verwaltung ungeheuer komplex und zeitaufwendig ist. ISM biete ein „ganzheitliches Management für ganze Datacenter-Infrastrukturen, um in einheitlicher Weise auf Fujitsu Primergy Server, Fujitsu Eternus und Netapp Storage-Systemen, ausgewählten Cisco- und Extreme Networks-Switches sowie Strom- und Kühlsysteme zuzugreifen. Der Anspruch der Ganzheitlichkeit bedingt auch die Integration anderer Rechenzentrumssysteme, die mitüberwacht werden können.

Die bisherige Server-Management-Software, „Server View“, wird Fujitsu bis April 2021 weiter aktualisieren und danach den dann erreichten Stand bis 2026 unterstützen.

Hinter dem ISM-Tool steckt ein Großteil des CA-Technologies-Erbes.
Hinter dem ISM-Tool steckt ein Großteil des CA-Technologies-Erbes.
( Bild: Fujitsu )

Die Vorteile von Fujitsu ISM

  • Doch dank eines vereinfachten Lifecycle-Management von Rechenzentren lassen sich komplette Umgebungen aktualisieren, „Infrastructure Baselining“ genannt. Dank der Fernverwaltungsfunktionen müssen auch weit entfernte Rechenzentren nicht mehr persönlich angesteuert werden, wenn Fehlermeldungen auftreten.
  • Zudem ermöglicht eine leistungsstarke neue Compliance-Funktion im Fujitsu ISM die Überwachung von Systemparametern in einem Rechenzentrum, Knoten für Knoten. Sie bietet zudem die Möglichkeit, unbefugte Änderungen vor Ort rückgängig zu machen. Auf diese Weise können ungeplante Ausfallzeiten durch menschliche Fehler bei der Rekonfiguration von Systemen, zum Beispiel bei der Standardwartung, vermieden werden.
  • Durch die Aktualisierung aller Knoten auf einmal lassen sich die Kosten und der Zeitaufwand für das Update-Management von Firmware um bis zu 90 Prozent reduzieren.
  • ISM führt auch automatisierte Node-by-Node Rolling-Updates für VMware-Cluster ein, was einen bisher mühsamen und zeitaufwendigen Prozess vereinfacht.
  • Anwender können zudem unerwartete Probleme in Rechenzentrumslandschaften schneller feststellen, bewerten und beheben.
  • ISM trage zudem dazu bei, den Gesamtstromverbrauch zu senken, indem es überlastete oder stromfressende Systeme identifiziert.

Preise und Verfügbarkeit

Es sind zwei Versionen von Fujitsu ISM verfügbar. „ISM Advanced“ ist eine leistungsstarke, voll funktionsfähige Version, die für Unternehmen entwickelt wurde, die auf dem Weg zur Implementierung eines Software-definierten Rechenzentrums sind. Dies bietet umfassende Infrastrukturmanagementfunktionen wie die Unterstützung mehrerer Hardwarekonfigurationen, Indikatoren für physische und virtuelle Netzwerkverbindungen und Firmware-Baseline-Aktualisierungen. Es ist mit Geräten von Drittanbietern kompatibel und lässt sich problemlos in VMware, „Microsoft System Center“ und „Ansible“-Umgebungen integrieren.

Eine kostenlose Einstiegsversion, „ISM Essential“, bietet die notwendige Überwachung und Aktualisierung der Firmware aller unterstützten Geräte, einschließlich Server, Speicher und Netzwerk-Switches. Die Preise für ISM Advanced richten sich nach der Anzahl der Server und Knoten in einem System und variieren je nach Land. Außerdem sind Support-Lizenzen erforderlich.

Einen einstelligen hohen Millionenbetrag will die hiesige Organisation jährlich in entsprechende Schulungen und Trainings der eigenen Mitarbeiter investieren. Das sei unter anderem deswegen notwendig, weil sich mit der Digitalisierung die Ansprechpartner für IT-Projekte geändert hätten; seien es früher der IT-Leiter und zwischenzeitlich der CIO gewesen, säßen heute diese zwar auch am Tisch, aber zusammen mit den Prozess- und Geschäftsverantwortlichen. Etwa im September des kommenden Jahres soll die Gestaltung und Einführung der End-to-end-Prozesse beziehungsweise der europäischen „Service-Factory“ abgeschlossen sein.

Umsatzbringer Mainframe

Fast schon überraschender Weise rutschte auf dem Fujitsu-Forum die BS2000-Technik ins Blickfeld, waren die Fujitsu-Mainframe in den vergangenen Jahren doch eher kein Thema en vogue. Doch nicht nur die Mainframe-Kunden von IBM hängen an der Zuverlässigkeit und Sicherheit ihrer Großrechner und ihren Großrechneranwendungen, sondern auch die Fujitsu-Kundschaft. So heißt es heute: „Das Mainframe Computing bleibt das Herzstück des Rechenzentrums – jedenfalls bei den meisten Unternehmen und Organisationen. Es ist die Basis für wichtige Anwendungen, bei denen hohe Leistung, Sicherheit und Zuverlässigkeit über Sein oder Nichtsein entscheiden können.“

Ergänzendes zum Thema
Neue BS2000 SE Infrastruktur als Basis für die digitale Transformation

Mit den Fujitsu-Server-Infrastrukturen „BS2000 SE710“ und -„SE310“ stützt das Unternehmen die unverändert hohe Bedeutung der BS2000 Mainframe Server. Die aktuelle Generation bietet höhere Systemleistung sowie neue Customizing-Optionen. Das Resultat: eine deutlich erhöhte Systemoffenheit sowie ein ebenfalls höheres Integrationspotenzial. Die neuen Infrastrukturen gewährleisteten damit auch weiterhin die Attraktivität von Mainframes als hocheffiziente, sichere und zuverlässige Plattform für die digitale Transformation.

Neue Funktionalitäten sollen sie weiterhin zur Grundlage für flexible, hybride Computing-Umgebungen machen können. Dabei integrieren sie Technologien wie Cloud und Edge Computing, Künstliche Intelligenz, Blockchain, Big Data Management, DevOps sowie „Datacenter Management and Automation“ (DCMA) Lösungen.

Jochen Brünger, Leiter Informatik Produktion, Continentale Krankenversicherung a.G, sagt: „Die Continentale Krankenversicherung a.G. ist seit mehr als 30 Jahren ein langjähriger, zufriedener BS2000 Kunde und hat die ausgezeichnete Effizienz und die absolute Zuverlässigkeit der BS2000 Systeme über viele Jahre hinweg kennen und schätzen gelernt. Die BS2000 Mainframes verfügen über die von uns gewünschte Stabilität, Informationssicherheit und Datensicherheit und arbeiten auch bei hoher Auslastung hocheffizient. Aus diesem Grund haben wir uns im Sommer 2019 als erster Kunde entschlossen, zwei neue Fujitsu Server SE710 anzuschaffen“.

Die Neuerungen

  • So bringen die Weiterentwicklungen laut Fujitsu eine deutlich höhere Systemleistung beim Fujitsu Server BS2000 - je nach Modell um 10 bis zu 20 Prozent - sowie der entsprechenden Peripherieetwa durch eine Konnektivität mit 16 GBit/s Fiber Channel (FC).
  • Außerdem bieten neu gestaltete Standard-Racks mit zwei Metern Höhe (42 Unit) mehr Raum für zusätzliche SE Komponenten. Sowohl BS2000 SE310 als auch SE710 können unterschiedlichste Anwendungseinheiten, Peripheriegeräte und Netzwerkinfrastrukturkomponenten aufnehmen, BS2000-Mainframeanwendungen und Serversysteme für Kundenanwendungen unter „Linux“ und „Windows“.
  • Die BS2000 SE Software in der Version 6.3 ermöglicht laut Fujitsu einen besseren Betriebsfluss als bisher sowie ein lückenloses Monitoring und eine umfassende Verwaltung, sodass sich die Gesamtbetriebskosten minimieren können. Die Management Unit der BS2000 SE310 und SE710 Server sind mit dem „SE Manager“ ausgestattet, ein Browser-basiertes Single Administration Interface für das Monitoring, den sicheren Betrieb und ein möglichst problemlose Verwaltung.
  • Ferner wird Fujitsu im November 2019 die Middleware „Open UTM V7.0“ auf den Markt bringen. Der Hersteller kündigt dafür eine erheblich erweiterte Konnektivität dank optimiertem HTTP Protocol Access an.

Zu den neuen Mainframe-Services gehören spezifische „Co-Creation“-Workshops, in denen es etwa um anwenderspezifische Netzwerkverbindungen für einen maximalen ROI gehen kann, etwa Aufbau, Verkabelung und Vorkonfigurierung ab Werk, wie eine überwachte Installation in die Prozesse des Kunden.

Zudem besteht die Möglichkeit einer besonders schnellen Re-Installation kundenspezifischer Anwendungen. Darüber hinaus umschließt das neue Fujitsu-Angebot den „BS2000 System Health Check“, einen Service, der frühzeitig potenzielle Störfaktoren identifiziert, Empfehlungen zur Behebung gibt und damit ebenfalls zu einem reibungslosen, sicheren Betrieb beiträgt.

Preise und Verfügbarkeit

Die neuen BS2000 SE-Systeme sind ab Oktober 2019 direkt bei Fujitsu erhältlich. Die Preise variieren je nach Konfigurierung.

Zwar seien die Systeme schon immer in Japan entstanden, was auch so bliebe, doch im Augsburger Rechenzentrum hätten die „Aszendierungsthemen“ stattgefunden, so Lehnert, während die Tests schon immer am Standort München erfolgt seien. Das Rechenzentrum wird in den Großraum München verlagert und das Testen übernehmen polnische Kollegen mit. Zudem hat Fujitsu verstärkte Investitionen in entsprechende Initiativen der „Fujitsu Academy“ in der Region Central Europe angekündigt, die die erforderliche Expertise hinsichtlich Enterprise Platform Services-Infrastrukturen sowie Mainframe-Rechenzentrumstechnologien sichern sollen – auch im Hinblick auf die Gewinnung junger Talente.

Bei den Forum-Workshops und -Seminaren zum Thema waren deshalb nicht nur die jüngsten technischen Updates Inhalt (siehe: Kasten „Neue BS2000 SE Infrastruktur für als Basis für die digitale Transformation“), sondern vor allem die Integration in moderne, hybride Anwendungslandschaften und wenn schon unbedingt Migration, dann doch bitte mit kompetenter Unterstützung (aus dem Hause Fujitsu).

Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, präsentiert auf dem Fujitsu Forum eine DLU-Steckkarte, die ohne aktive Kühlung auskommt.
Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, präsentiert auf dem Fujitsu Forum eine DLU-Steckkarte, die ohne aktive Kühlung auskommt.
(Bild: Ulrike Ostler - Vogel IT-Medien GmbH)

Die eigenen Chips

Wie tief der IT-Wandel im Allgemeinen und insbesondere bei Fujitsu greift, zeigen jedoch vor allem die Zukunftstechnologien Künstliche Intelligenz und Quantum Computing, denn nicht nur Fujitsu wartet hier mit eigenen Komponenten auf, die Digital Annealer Unit (DAU), eine vom „Quantencomputer inspirierte Brückentechnik“, wie Fujitsu-CTO Reger die Basistechnik beschreibt, und die DLU, „Deep Learning Unit“, so die Bezeichnung der GPU-Konkurrenz.

Auf der Veranstaltung begann Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, mit einem Zitat aus der Veröffentlichung von Emma Strubell, Ananya Ganesh, Andrew McCallum „Energy and Policy Considerations for Deep Learning in NLP“.

CO2-Billanz, Angaben in Pfund
Hin- und Rückflug S/W New York und San Francisco (1 Passagier)
1.984
menschliches Leben (im Durchschnitt pro Jahr)
11.023
ein Durchschnittsjahr eines Menschen in Amerika
36.156
Lebensdauer eines US-Autos inklusive Kraftstoff
126.000
Transformer (213M parameters) w/ neural architecture search 626.155
Quelle: Source: Strubell et al. in der "MIT Technology Review"

Sie veröffentlichten eine Ökobilanz für die Ausbildung mehrerer gängiger großer KI-Modelle für das Training im Natural Language Processing (NLP) und fanden heraus, dass das Verfahren dem Ausstoß von mehr als 313.000 Kilo Kohlendioxid entsprechen kann. Das ist fast das Fünffache der Lebensdaueremissionen eines durchschnittlichen amerikanischen Autos - und das schließe die Herstellung des Autos selbst ein.

Somit ist es also weder egal, welches Trainingsmodell benutzt wird noch welche Akzeleratoren und Hardware. Laut Würtz könne eine Appliance zwar mit GPUs Trainingsaufgaben lösen, doch eine DLU biete eine 10 mal bessere Performance per Watt als eine GPU.

Fujitsu-President Takahito Tokita spricht über die Symbiose von Künstlicher Intelligenz und Supercomputing. Der hauseigene KI-Chip „DLU“ ist in dem jüngsten japanischen Super-Rechner „Fugaku“ verbaut.
Fujitsu-President Takahito Tokita spricht über die Symbiose von Künstlicher Intelligenz und Supercomputing. Der hauseigene KI-Chip „DLU“ ist in dem jüngsten japanischen Super-Rechner „Fugaku“ verbaut.
(Bild: Ulrike Ostler/ Vogel IT-Medien GmbH)

Offen lässt Würtz zu diesem Zeitpunkt allerdings, mit welcher GPU die Karte, die ohne aktive Kühlung auskommt, verglichen worden ist. Die bessere Performance führt er darauf zurück, dass die DLU speziell für Deep Learning entwickelt wurde, aber beispielsweise nicht für Video-Rendering gedacht ist.

Ein KI-Chip, wie die DLU von Fujitsu ist für spezifische Lasten gedacht und punktet etwa durch einen hohen Parallelisierungsgrad.
Ein KI-Chip, wie die DLU von Fujitsu ist für spezifische Lasten gedacht und punktet etwa durch einen hohen Parallelisierungsgrad.
(Bild: Fujitsu)

Nicole Wochatz, Head of Competence Center Data Science & AI beim Fujitsu-Partnerunternehmen SVA benennt einige Bereiche, in denen der Chip zum Einsatz kommen kann:

  • bei so genannten Convolutional Neural Networks (Cnns) in der Objekterkennung und -lokalisierung, in der Klassifizierung von Objekten und der Segmentierung
  • bei Recurrent Neural Networks (Rnns) für Predictive Analytics, in denen Zeitreihen zugrunde liegen, etwa zur Analyse des Wechselverhaltens bei Kunden (Churn Management), im Handel, in der Übersetzung, in der Wandlung von Schrift in Sprache und umgekehrt, für Chatbots ....
  • bei automatischer Kodierung beziehungsweise Boltzmann-Maschinen und so genannten Deep Belief Netzwerken etwa bei der Erkennung von Fraud Detection, im Gesundheitswesen, im Risiko-Management, im Sprachverstehen und der Entdeckung von Anomalien.

Der massiv parallele Chip verwendet einige große Masterkerne, die mit vielen Deep Learning Processing Units (DPUs) verbunden sind. Ein Master-Kern ist für den Speicherzugriff verantwortlich und steuert den Betrieb der DPU-Executive Cores. Jeder DPU-Exekutivkern besteht aus 16 DPE (Deep Learning Processing Element) Einheiten, eine DPE-Einheit enthält acht SIMD-Exekutiveinheiten (Einzelbefehl, mehrere Daten) und einen Registerblock.

Die Mikro-Architektur der DLU ist laut Fujitsu im Vergleich zu denen der Wettbewerbsprodukte wesentlich vereinfacht. Pipelines sorgen dafür, dass ein Netz entsteht und Daten getauscht werden können. Speicherkapazität lässt sich hingegen sparen.
Die Mikro-Architektur der DLU ist laut Fujitsu im Vergleich zu denen der Wettbewerbsprodukte wesentlich vereinfacht. Pipelines sorgen dafür, dass ein Netz entsteht und Daten getauscht werden können. Speicherkapazität lässt sich hingegen sparen.
(Bild: Fujitsu)

Doch die Innovationen bestehen nicht nur aus dem DLU-Chip, der einen Domain-spezifisch arbeitet, mit Deep-Learning-Integer „DL-INT”, ein adaptives numerisches Format bearbeitet. In der ersten Generation leistet der Prozessor gemischte Präzisionsoptimierungen (8-Bit, 16-Bit und 32-Bit). Die Steigerung der Energie-Effizienz basiert auf DL-INT, von der das Unternehmen sagt, dass sie mit 8- und 16-Bit-Datengrößen eine effektive Präzision (auf dem Niveau von 32-Bit) erreicht.

Dazu kommt eine eigene Domain-spezifische Interconnect-Technologie, mit der Bezeichnung „Tofu “, die ebenfalls für einen hohen parallelen Durchsatz und Skalierbarkeit verantwortlich ist.

Die DLU verfügt nicht über einen Cache-Speicher, sondern über einen großen Registerblock, der es ermöglicht, das volle Potenzial des Prozessors freizusetzen; denn der Registerblock ist schneller als der Cache-Speicher und kann vollständig per Software gesteuert werden.

Die Karte „Zinrai DLS“, die Fujitsu heuer vorgestellt hat.
Die Karte „Zinrai DLS“, die Fujitsu heuer vorgestellt hat.
(Bild: Fujitsu)

Als Antwort auf das Training neuronaler Netze mit Single Precision (FP32), das eigentlich bereits überholt ist und enorme Rechenleistung und damit den hohen Energieverbrauch fordert (siehe: Tabelle) bietet Fujitsu das System „Zinrai“ an. Auf dem Fujitsu Forum hat Würtz in diesem Jahr das „Zinrai Deep Learning System“ (ZDLS) vorgestellt, das auf dem KI-Prozessor basiert.

Die geschätzten Kosten für ein Modelltraining
Datum der Originalveröffentlichung
Energiebedarf (kWh) CO2-Bilanz (CO2e- Angaben in Pfund) Cloud -Compute-Kosten
(Angaben in Dollar)
Transformer (65M Parameter) Juni 2017 27 26 41 - 140
Transformer (213M Parameter) Juni 2017 201 192 289 -         981
ELMo Februar 2018 275 262 433 - 1.472
BERT (110M Parameter) Oktober 2018 1.507 1.438 3.751 - 12.571
Transformer (213M Parameter) w/ neural architecture search Januar 2019 656.347 626.155 942.973 - 3.201.722
GPT-2 Februar 2019 - - 12.902  -      43.008

Quelle: Source: Strubell et al. in der "MIT Technology Review"

Fujitsu steht mit seinem KI-Prozessor nicht alleine da. Laut Würtz haben alleine in diesem Jahr auf der „International Particle Accelerator Conference“ insgesamt 65 Firmen, etablierte sowie Start-ups, ihre Techniken vorgestellt. Doch vielleicht 10 Prozent böten geeignete Produkte für KI-Trainings und -Testing.

Allerdings gibt es auch Wettbewerber wie Huawei. Dieses Unternehmen kann auf Basis der hauseigenen Entwicklung „Ascend“ bereits eine ganze Reihe von Computern ausliefern, vom Supercomputer bis zu kompakten Inferenz-Systemen. Laut Würtz ist DLU jedoch (noch) zu teuer für Inferenzrechner. Allerdings dürfte das der weitaus größere Markt sein. Man dürfe jedoch noch einiges erwarten, so der Fujitsu-Manager.

Nach einer Umfrage unter 191 global agierenden Kunden von Free Form Dynamics, die Fujitsu gesponsert hat, hat es auch noch Zeit. Hier haben die Analysten danach gefragt, inwieweit KI-Projekte priorisiert werden. Nur 15 Prozent haben ein uneingeschränktes „Ja“ angegeben, 27 Prozent haben mit „teilweise“ geantwortet, 18 Prozent hingegen haben „nein, aber wir sollten“ angegeben und für 36 Prozent ist das gar nicht relevant.

Die Quanten-Computing inspirierten Projekte

Quantum-Computer werden einmal großartig sein, sagen von CTO Reger bis bis Fujitsu Fellow und Distinguished Engineer Fritz Schinkel und Andreas Rohnfelder, Head of Digital Incubation, berufene Münder. Nur, bisher gebe es keinen für den praktischen Einsatz und selbst der Nachweis der Überlegenheit, wie ihn Google für eine bestimmte Rechenaufgabe erbracht hat, scheint interpretationsfähig. „Aus dieser Diskussion halte ich mich heraus“, so Reger.

Ein einfaches Beispiel für einen Fall der kombinatorischen Optimierung: Finde die Kombination aus drei Hemden, drei Hosen und drei Paar Schuhen, die am besten zueinander passen. Das Problem: wenn alle Kombinationen durchgespielt werden, ergibt sich eine Unzahl an Verbindungen und Kombinationsmöglichkeiten.
Ein einfaches Beispiel für einen Fall der kombinatorischen Optimierung: Finde die Kombination aus drei Hemden, drei Hosen und drei Paar Schuhen, die am besten zueinander passen. Das Problem: wenn alle Kombinationen durchgespielt werden, ergibt sich eine Unzahl an Verbindungen und Kombinationsmöglichkeiten.
(Bild: Fujitsu)

Bei Fujitsu sprechen die Verantwortlichen lieber von einer Brückentechnologie, wenn von der Digital Annealing Unit (DAU) die Rede ist, die bis zu dem Zeitpunkt, an dem Quantencomputer echte Probleme bei echten Kunden lösen können, für kombinatorische Optimierung (siehe: Abbildung) eingesetzt werden kann.

Ein einfaches Beispiel soll zeigen wie komplex solche Aufgaben sein können: Drei Hemden, drei Hosen, drei paar Schuhe. Das Finden des optimalen Zueinanderpassens lässt sich lösen, indem alle Kombinationen durchgespielt werden und auf Regeln abgeklopft werden: ein Paar Schuhe, eine Hose, ein Hemd beispielsweise.

In den Digital-Annealing-Projekten von Fujitsu aber sind quasi Abkürzungen eingebaut. statt alle Kombinationen durchzuspielen werden Unterprojekte gebildet, etwa kombiniere Hosen mit Schuhen, Hosen mit Hemden, Hemden mit Schuhen und dann auch den besten Ergebnissen, neue Kombinationen zu verknüpfen. Das reduziert die Anzahl der Möglichkeiten beträchtlich. Außerdem wird das Unmögliche ausgeschlossen, keine Rot-Grün-Kombi, kein Ton-in-Ton....

Der erste Kunde, den Fujitsu hierzulande mit einer solchen Aufgabe betreuen durfte, war BMW. Der Konzern hatte sich schon nach der DAU erkundigt, bevor diese überhaupt hierzulande eingetroffen war. Im Automobilbau entfallen rund 40 Prozent der Kosten auf die Lackierung, das Abdichten der Nähte mit PVC mithilfe von Roboterarmen gehört zu den Vorarbeiten. Deren Bewegungen für das Schweißen besser zu koordinieren, um die Durchläufe effizienter zu gestalten und damit zu beschleunigen ist ein kombinatorisches Optimierungsproblem.

BMW war nur der erste Kunde für den Digital Annealer und die Optimierung für sieben Schweißnähte ein Prototyp. Inzwischen geht es um 64 Nähte und weitere sind bereits angedacht, wie auch weitere Optimierungsaufgaben. Weitere OEMs, darunter Daimler, Ford und Volkswagen, haben Quantencomputerprogramme angekündigt - allerdings gehen nicht alle mit Fujitsu.
BMW war nur der erste Kunde für den Digital Annealer und die Optimierung für sieben Schweißnähte ein Prototyp. Inzwischen geht es um 64 Nähte und weitere sind bereits angedacht, wie auch weitere Optimierungsaufgaben. Weitere OEMs, darunter Daimler, Ford und Volkswagen, haben Quantencomputerprogramme angekündigt - allerdings gehen nicht alle mit Fujitsu.
(Bild: Fujitsu)

Die Aufgabe: Die besten Schweißanweisungen und den optimalen Roundtrip zwischen den Endpunkten gilt es zu finden und folgende Voraussetzungen:

  • die Schweißroboter ´besuchen´ die richtigen Nahtstellen
  • die Naht selbst kann in zwei Richtungen verschweißt werden
  • die Aufgabe gilt für sieben Nähte

Heute können mithilfe des Digital Annealer bereits 64 Nähte einbezogen und optimiert werden. Die Kombinationen, die den Berechnungen zugrunde liegen, wenn statt sieben Nähte 64 begutachtet werden, liegt um den Faktor 10100 höher und geht „weit über die angenommene Anzahl von Atomen“ hinaus, heißt es im White Paper dazu. Es gilt für n Nähte folgende Formel:

2n-1 (1-n)

Nähte n
5 7 10 22 64
Möglichkeiten 384 46080 1,86 x 10 8 1,07 X 1026 1.83 x 10 106

Die DAU bei der Commerzbank-Tochter

Einer der Kunden, die auf dem Fujitsu Forum öffentlich über ihr „Project Quantum“ gesprochen haben, ist Incubator Main, ein Tochterunternehmen der Commerzbank. In der Aufgabe, die sich hier gestellt hat, geht es darum Leasing-Verträge für Autos durch Investoren abzusichern.

Die Commerzbank-Einheit Incubator Main möchte mithilfe von Digital Annealing die Absicherung von Leasing-Verträgen optimieren.
Die Commerzbank-Einheit Incubator Main möchte mithilfe von Digital Annealing die Absicherung von Leasing-Verträgen optimieren.
(Bild: Fujitsu)

Das Problem: Ohne eine solche Sicherung müssen entweder die Autoverkäufer lange auf ihr Geld warten oder die potenziellen Käufer bekommen keinen Vertrag. Forderungen aus Leasing-Verträgen werden daher von den Automobilherstellern oft an Investoren veräußert, um das Liquiditäts-Management zu verbessern. Die Banken handeln mit diesen Forderungen in Gestalt handelbarer Wertpapiere, bei denen die Forderungen unter anderem nach Risikoprofil gebündelt werden. Doch nicht jeder Vertrag eignet sich, nicht jeder Verkäufer und nicht jeder Investor.

Das Filtern der verschiedenen Optionen ist eine Aufgabe kombinatorischer Optimierung und daher für den Quanten Annealer von Fujitsu geeignet.
Das Filtern der verschiedenen Optionen ist eine Aufgabe kombinatorischer Optimierung und daher für den Quanten Annealer von Fujitsu geeignet.
(Bild: Fujitsu)

Main Incubatorhat daher ein Proof of Concept (PoC) angesetzt, bei dem es um die Optimierung des Auswahlprozesses von einigen Tausend Einzelforderungen zu einem Verbriefungsportfolio gegangen ist. Der Auswahlprozess berücksichtigt mehrere kritische Faktoren gleichzeitig. Dazu gehören neben regulatorischen Vorgaben auch absolute Volumen-Begrenzungen sowie prozentuale Limitierungen. Dies führt zu einem kombinatorischen Optimierungsproblem, für das klassische Prozessoren lange Rechenzeiten benötigen.

Methode Vselected Vmax/Vselected Volume Runtime>1 und <2 in Prozent Laufzeit für die Kalkulation
Digital Annealer 35.487.203 Euro 95.68 Prozent
10    21 Sekunden *thereof
0.07 Sekunden annealing
Current System 35.466.425 Euro 95.63 Prozent
10    1 - 2 Sekunden
Monte Carlo 34.856.552 Euro 93.98 Prozent 9,87 65 Minuten

Doch die Ergebnisse können sich sehen lassen. Augustin Danciu, Project Manager bei Main Incubator GmbH, fasst kurz zusammen:

  • Digital Annealing ist relevant für Anwendungsfälle im Bankenbereich, aber
  • die Transformation von Anwendungsfällen erfordert methodisches Wissen.
  • Aufgrund einer exponentiellen Berechnungszeit, die auf der Anzahl der Anlagen basiert, verspricht Digitial Annealing eine Verbesserung der Effizienz (Skalierbarkeit).

Er sieht in der Nutzung des Digital Annealer von Fujitsu eine Vorbereitung auf die Quantenära. Im Gegensatz zum Fujitsu-Kunden Hamburger Hafen kann er die Frage, warum das Unternehmen diese Technik und nicht etwa die von D-Wave, IBM, Atos oder Google ausgewählt habe, beantworten. Die Inkubator-Company probiert diverse Techniken aus und der Evaluationsprozess ist nicht abgeschlossen. Fujitsu punktet mit guter Unterstützung und einem gesunden Preis-Leistungsverhältnis.

Das Hamburger Hafen-Management will die Signalanlagen auf dem Hafengelände besser aufeinander abstimmen.
Das Hamburger Hafen-Management will die Signalanlagen auf dem Hafengelände besser aufeinander abstimmen.
(Bild: Hamburg Port Authority/ Fujitsu)

Die DAU im Hamburger Hafen

Allerdings ist das Problem, mit dem sich der Hafen herumschlägt nicht weniger interessant und unter Umständen von großer Reichweite. Mit einem Gesamtumschlag von 136,5 Millionen Tonnen pro Jahr, davon 78,5 Tonnen Import; 58,0 Tonnen Export, ist der Hamburger Hafen einer der größten Seehäfen der Welt. Das aber bedeutet etwa jede Menge Container: 8,82 Millionen 20 Fuß Container, davon 1,19 Millionen leere Container, so genannte Massenware, etwa rund 13,7 Millionen Tonnen Flüssigkeit und 7,5 Millionen Tonnen Sauggut.

Das kommt nicht ausschließlich per Schiff in den Hafen. Die Infrastruktur im Hafen setzt sich aus Straßen, Brücken, Gleisen, Kaianlagen und Schiffsliegeplätzen zusammen, die von der Hamburg Port Authority (HPA) bereit gestellt werden. Dazu kommen 300 Kilometer Gleisanlagen. Das gesamte Hafengebiet entspricht einer Fläche von rund 7.156 Hektar, 71.560.000 Quadratmeter, also rund 10.000 Fußballfeldern.

Bis zu 2,92 Millionen LKWs fahren jedes Jahr das Gelände an, also etwa 12.000 Lastwagen pro Tag. Den Verkehr regeln Ampeln. Das Problem: hohe Belastung, schlechter Durchsatz.

Dier erste Abstraktionsebene für das Hamburger Hafengelände mit der Abbildung der Funktionen und der Verkehrsampeln.
Dier erste Abstraktionsebene für das Hamburger Hafengelände mit der Abbildung der Funktionen und der Verkehrsampeln.
(Bild: Fujitsu)

Um Staus zu vermeiden, will der Hafen die Verkehrssignale besser koordinieren. Dafür hat das Hafen-Management ein Pilotprojekt aufgesetzt - mit 35 Verkehrsampeln. Es geht um einen möglichst gleichmäßigen Verkehrsfluss und damit für die Verkehrsteilnehmer möglichst lange Grünphasen.

Bildergalerie

Dafür aber müssen die Grünphasen durch die kombiniert werden, wo viel Verkehr herrscht, müssen sie länger werden, um mehr Fahrzeuge durchzulassen. Um nicht zu zu viele in einen Abschnitt zu lenken, müssen gleichzeitig andere Ampeln in kürzeren Abschnitte auf grün stehen (siehe: Bildergalerie).

Begonnen bei der synthetischen Straßenkarte und den verschiedenen Stillständen und der Verkehrsbelastung als Variable hat man im Pilotprojekt drei alternative Ampelstrategien zum Vergleich herangezogen: je eine Hälfte der Ampeln auf Grün, durchlassen des ankommenden Verkehrs und Zufall. Die Optimierung schnitt besser ab, wobei die reine Rechenzeit der DAU gerade einmal 0,045 Sekunden betragen hat.

Da sich der Erfolg eingestellt hat, will das Hafen-Management sich jetzt schrittweise der Realität annähern und damit weiteren Zielen näherkommen, etwa der Reduktion des Lärms und der Abgase. Dafür wird nun die Kreuzungsstruktur, also Richtungen und Fahrspuren beispielsweise, aufgenommen. Es sollen historische Verkehrsdaten dazukommen sowie verschiedene Ampelprogramme sowie mehr Straßen, Kreuzungen und Verkehr. Auch über Echtzeit denken die Projektmanager nach.

Dafür müsste der Hafen aber das Bezugsmodell ändern. Denn genau wie Main Incubator nutzt HPA die DAU-Kapazitäten per Cloud. Das aber wäre im Falle von Realtime-Steuerungen wahrscheinlich wegen der Latenzen unmöglich.

(ID:46225793)

Über den Autor

 Ulrike Ostler

Ulrike Ostler

Chefredakteurin, DataCenter-Insider