Fujitsu Forum - Praxis trifft auf Innovation und neue Firmenstrukturen Digital-Annealer-Projekte, neue KI-Technologie und Strategien garniert mit Brot und Butter
Vergangene Woche fand die Hausmesse „Fujitsu Forum“ in München statt. Es war voll, wenngleich das Medieninteresse im Vergleich zum Vorjahr abgeflaut schien. Vom Fujitsu-President Takahito Tokita erneut kein Wort über die Schließung der Augsburger Produktion. Interessant war allerdings seine Reihenfolge der Eckpunkte einer neuen strategischen Ausrichtung in Europa: Digital Annealer, Supercomputer und KI sowie Realisierung von SAP-Projekten in einer Neuauflage eines umfassenden Partner-Systems. Auch die Großrechner-Technik „BS2000“ blieb nicht unerwähnt.
Anbieter zum Thema

Das Update über die neuen Unternehmensstrategien übernahm Geschäftsführer Rupert Lehner, co-moderiert von Fujitsu-CTO Joseph Reger. „Wir müssen uns eben fokussieren“, so Reger, der dabei ist, eine „Inkubator-Mannschaft“ für diese Themen aufzubauen, insbesondere im Bereich Künstlicher Intelligenz und Quantum-Annealing-Projekte. Es ginge gut voran, so der Cheftechniker und nimmt es als gutes Zeichen, dass sich außer im Quanten-Computing-Bereich - da gibt es noch keine nennenswerte Anzahl an Experten - mehr Bewerber meldeten, als Stellen vorhanden sein. „Wir sind offenbar auch weiterhin als Arbeitgeber attraktiv“, sagt er.
Der Spagat zwischen neuer Technologie und sofort realisierbarem Technik-Einsatz muss eben gelingen, wenn sich Fujitsu trotz Umstrukturierung das Vertrauen seiner Kunden erhalten will. So hat Fujitsu zwar die Hardware-Produktion entweder verkauft, das PC-Geschäft ging mehrheitlich an Lenovo, die Mainboard-Fertigung in Augsburg an Kontron, ansonsten beschäftigt Fujitsu eine Reihe von Auftragsfertigern wie Wistron und Inventec, doch es werde weiterhin Datacenter-Infrastruktur von Fujitsu geben. So gab es auch während der Veranstaltung Neuvorstellungen (siehe: Kästen).
Doch zugleich ändert sich die Betonung. Das Datacenter-Geschäft werde in Kombination mit Services ein Bestandteil der Digitalisierungsthemen, die Fujitsu abdecke. Im Übrigen setze man auf eine gut funktionierende „Global Delivery“-Organisation, in der mehr als 20.000 Mitarbeiter arbeiten. Auch in Europa gibt entsprechende Zentren, etwa in Portugal, in Tschechien und Polen. „Für eine Person hier, werden rund drei Personen in den Global Delivery Center benötigt“, erläutert CTO Reger das Verhältnis und stellt zugleich bei den eigenen Mitarbeitern einen „Nachholbedarf“ in Bezug auf die neuen Geschäftsprozesse fest.
Einen einstelligen hohen Millionenbetrag will die hiesige Organisation jährlich in entsprechende Schulungen und Trainings der eigenen Mitarbeiter investieren. Das sei unter anderem deswegen notwendig, weil sich mit der Digitalisierung die Ansprechpartner für IT-Projekte geändert hätten; seien es früher der IT-Leiter und zwischenzeitlich der CIO gewesen, säßen heute diese zwar auch am Tisch, aber zusammen mit den Prozess- und Geschäftsverantwortlichen. Etwa im September des kommenden Jahres soll die Gestaltung und Einführung der End-to-end-Prozesse beziehungsweise der europäischen „Service-Factory“ abgeschlossen sein.
Umsatzbringer Mainframe
Fast schon überraschender Weise rutschte auf dem Fujitsu-Forum die BS2000-Technik ins Blickfeld, waren die Fujitsu-Mainframe in den vergangenen Jahren doch eher kein Thema en vogue. Doch nicht nur die Mainframe-Kunden von IBM hängen an der Zuverlässigkeit und Sicherheit ihrer Großrechner und ihren Großrechneranwendungen, sondern auch die Fujitsu-Kundschaft. So heißt es heute: „Das Mainframe Computing bleibt das Herzstück des Rechenzentrums – jedenfalls bei den meisten Unternehmen und Organisationen. Es ist die Basis für wichtige Anwendungen, bei denen hohe Leistung, Sicherheit und Zuverlässigkeit über Sein oder Nichtsein entscheiden können.“
Zwar seien die Systeme schon immer in Japan entstanden, was auch so bliebe, doch im Augsburger Rechenzentrum hätten die „Aszendierungsthemen“ stattgefunden, so Lehnert, während die Tests schon immer am Standort München erfolgt seien. Das Rechenzentrum wird in den Großraum München verlagert und das Testen übernehmen polnische Kollegen mit. Zudem hat Fujitsu verstärkte Investitionen in entsprechende Initiativen der „Fujitsu Academy“ in der Region Central Europe angekündigt, die die erforderliche Expertise hinsichtlich Enterprise Platform Services-Infrastrukturen sowie Mainframe-Rechenzentrumstechnologien sichern sollen – auch im Hinblick auf die Gewinnung junger Talente.
Bei den Forum-Workshops und -Seminaren zum Thema waren deshalb nicht nur die jüngsten technischen Updates Inhalt (siehe: Kasten „Neue BS2000 SE Infrastruktur für als Basis für die digitale Transformation“), sondern vor allem die Integration in moderne, hybride Anwendungslandschaften und wenn schon unbedingt Migration, dann doch bitte mit kompetenter Unterstützung (aus dem Hause Fujitsu).
Die eigenen Chips
Wie tief der IT-Wandel im Allgemeinen und insbesondere bei Fujitsu greift, zeigen jedoch vor allem die Zukunftstechnologien Künstliche Intelligenz und Quantum Computing, denn nicht nur Fujitsu wartet hier mit eigenen Komponenten auf, die Digital Annealer Unit (DAU), eine vom „Quantencomputer inspirierte Brückentechnik“, wie Fujitsu-CTO Reger die Basistechnik beschreibt, und die DLU, „Deep Learning Unit“, so die Bezeichnung der GPU-Konkurrenz.
Auf der Veranstaltung begann Udo Würtz, Deputy CTO von Fujitsu, Business Line Product Europe, mit einem Zitat aus der Veröffentlichung von Emma Strubell, Ananya Ganesh, Andrew McCallum „Energy and Policy Considerations for Deep Learning in NLP“.
CO2-Billanz, Angaben in Pfund | |
---|---|
Hin- und Rückflug S/W New York und San Francisco (1 Passagier) | 1.984 |
menschliches Leben (im Durchschnitt pro Jahr) | 11.023 |
ein Durchschnittsjahr eines Menschen in Amerika | 36.156 |
Lebensdauer eines US-Autos inklusive Kraftstoff | 126.000 |
Transformer (213M parameters) w/ neural architecture search | 626.155 |
Quelle: Source: Strubell et al. in der "MIT Technology Review" |
Sie veröffentlichten eine Ökobilanz für die Ausbildung mehrerer gängiger großer KI-Modelle für das Training im Natural Language Processing (NLP) und fanden heraus, dass das Verfahren dem Ausstoß von mehr als 313.000 Kilo Kohlendioxid entsprechen kann. Das ist fast das Fünffache der Lebensdaueremissionen eines durchschnittlichen amerikanischen Autos - und das schließe die Herstellung des Autos selbst ein.
Somit ist es also weder egal, welches Trainingsmodell benutzt wird noch welche Akzeleratoren und Hardware. Laut Würtz könne eine Appliance zwar mit GPUs Trainingsaufgaben lösen, doch eine DLU biete eine 10 mal bessere Performance per Watt als eine GPU.
Offen lässt Würtz zu diesem Zeitpunkt allerdings, mit welcher GPU die Karte, die ohne aktive Kühlung auskommt, verglichen worden ist. Die bessere Performance führt er darauf zurück, dass die DLU speziell für Deep Learning entwickelt wurde, aber beispielsweise nicht für Video-Rendering gedacht ist.
Nicole Wochatz, Head of Competence Center Data Science & AI beim Fujitsu-Partnerunternehmen SVA benennt einige Bereiche, in denen der Chip zum Einsatz kommen kann:
- bei so genannten Convolutional Neural Networks (Cnns) in der Objekterkennung und -lokalisierung, in der Klassifizierung von Objekten und der Segmentierung
- bei Recurrent Neural Networks (Rnns) für Predictive Analytics, in denen Zeitreihen zugrunde liegen, etwa zur Analyse des Wechselverhaltens bei Kunden (Churn Management), im Handel, in der Übersetzung, in der Wandlung von Schrift in Sprache und umgekehrt, für Chatbots ....
- bei automatischer Kodierung beziehungsweise Boltzmann-Maschinen und so genannten Deep Belief Netzwerken etwa bei der Erkennung von Fraud Detection, im Gesundheitswesen, im Risiko-Management, im Sprachverstehen und der Entdeckung von Anomalien.
Der massiv parallele Chip verwendet einige große Masterkerne, die mit vielen Deep Learning Processing Units (DPUs) verbunden sind. Ein Master-Kern ist für den Speicherzugriff verantwortlich und steuert den Betrieb der DPU-Executive Cores. Jeder DPU-Exekutivkern besteht aus 16 DPE (Deep Learning Processing Element) Einheiten, eine DPE-Einheit enthält acht SIMD-Exekutiveinheiten (Einzelbefehl, mehrere Daten) und einen Registerblock.
Doch die Innovationen bestehen nicht nur aus dem DLU-Chip, der einen Domain-spezifisch arbeitet, mit Deep-Learning-Integer „DL-INT”, ein adaptives numerisches Format bearbeitet. In der ersten Generation leistet der Prozessor gemischte Präzisionsoptimierungen (8-Bit, 16-Bit und 32-Bit). Die Steigerung der Energie-Effizienz basiert auf DL-INT, von der das Unternehmen sagt, dass sie mit 8- und 16-Bit-Datengrößen eine effektive Präzision (auf dem Niveau von 32-Bit) erreicht.
Dazu kommt eine eigene Domain-spezifische Interconnect-Technologie, mit der Bezeichnung „Tofu “, die ebenfalls für einen hohen parallelen Durchsatz und Skalierbarkeit verantwortlich ist.
Die DLU verfügt nicht über einen Cache-Speicher, sondern über einen großen Registerblock, der es ermöglicht, das volle Potenzial des Prozessors freizusetzen; denn der Registerblock ist schneller als der Cache-Speicher und kann vollständig per Software gesteuert werden.
Als Antwort auf das Training neuronaler Netze mit Single Precision (FP32), das eigentlich bereits überholt ist und enorme Rechenleistung und damit den hohen Energieverbrauch fordert (siehe: Tabelle) bietet Fujitsu das System „Zinrai“ an. Auf dem Fujitsu Forum hat Würtz in diesem Jahr das „Zinrai Deep Learning System“ (ZDLS) vorgestellt, das auf dem KI-Prozessor basiert.
Die geschätzten Kosten für ein Modelltraining | ||||
---|---|---|---|---|
Datum der Originalveröffentlichung | Energiebedarf (kWh) | CO2-Bilanz (CO2e- Angaben in Pfund) | Cloud -Compute-Kosten (Angaben in Dollar) | |
Transformer (65M Parameter) | Juni 2017 | 27 | 26 | 41 - 140 |
Transformer (213M Parameter) | Juni 2017 | 201 | 192 | 289 - 981 |
ELMo | Februar 2018 | 275 | 262 | 433 - 1.472 |
BERT (110M Parameter) | Oktober 2018 | 1.507 | 1.438 | 3.751 - 12.571 |
Transformer (213M Parameter) w/ neural architecture search | Januar 2019 | 656.347 | 626.155 | 942.973 - 3.201.722 |
GPT-2 | Februar 2019 | - | - | 12.902 - 43.008 |
Quelle: Source: Strubell et al. in der "MIT Technology Review"
Fujitsu steht mit seinem KI-Prozessor nicht alleine da. Laut Würtz haben alleine in diesem Jahr auf der „International Particle Accelerator Conference“ insgesamt 65 Firmen, etablierte sowie Start-ups, ihre Techniken vorgestellt. Doch vielleicht 10 Prozent böten geeignete Produkte für KI-Trainings und -Testing.
Allerdings gibt es auch Wettbewerber wie Huawei. Dieses Unternehmen kann auf Basis der hauseigenen Entwicklung „Ascend“ bereits eine ganze Reihe von Computern ausliefern, vom Supercomputer bis zu kompakten Inferenz-Systemen. Laut Würtz ist DLU jedoch (noch) zu teuer für Inferenzrechner. Allerdings dürfte das der weitaus größere Markt sein. Man dürfe jedoch noch einiges erwarten, so der Fujitsu-Manager.
Nach einer Umfrage unter 191 global agierenden Kunden von Free Form Dynamics, die Fujitsu gesponsert hat, hat es auch noch Zeit. Hier haben die Analysten danach gefragt, inwieweit KI-Projekte priorisiert werden. Nur 15 Prozent haben ein uneingeschränktes „Ja“ angegeben, 27 Prozent haben mit „teilweise“ geantwortet, 18 Prozent hingegen haben „nein, aber wir sollten“ angegeben und für 36 Prozent ist das gar nicht relevant.
Die Quanten-Computing inspirierten Projekte
Quantum-Computer werden einmal großartig sein, sagen von CTO Reger bis bis Fujitsu Fellow und Distinguished Engineer Fritz Schinkel und Andreas Rohnfelder, Head of Digital Incubation, berufene Münder. Nur, bisher gebe es keinen für den praktischen Einsatz und selbst der Nachweis der Überlegenheit, wie ihn Google für eine bestimmte Rechenaufgabe erbracht hat, scheint interpretationsfähig. „Aus dieser Diskussion halte ich mich heraus“, so Reger.
Bei Fujitsu sprechen die Verantwortlichen lieber von einer Brückentechnologie, wenn von der Digital Annealing Unit (DAU) die Rede ist, die bis zu dem Zeitpunkt, an dem Quantencomputer echte Probleme bei echten Kunden lösen können, für kombinatorische Optimierung (siehe: Abbildung) eingesetzt werden kann.
Ein einfaches Beispiel soll zeigen wie komplex solche Aufgaben sein können: Drei Hemden, drei Hosen, drei paar Schuhe. Das Finden des optimalen Zueinanderpassens lässt sich lösen, indem alle Kombinationen durchgespielt werden und auf Regeln abgeklopft werden: ein Paar Schuhe, eine Hose, ein Hemd beispielsweise.
In den Digital-Annealing-Projekten von Fujitsu aber sind quasi Abkürzungen eingebaut. statt alle Kombinationen durchzuspielen werden Unterprojekte gebildet, etwa kombiniere Hosen mit Schuhen, Hosen mit Hemden, Hemden mit Schuhen und dann auch den besten Ergebnissen, neue Kombinationen zu verknüpfen. Das reduziert die Anzahl der Möglichkeiten beträchtlich. Außerdem wird das Unmögliche ausgeschlossen, keine Rot-Grün-Kombi, kein Ton-in-Ton....
Der erste Kunde, den Fujitsu hierzulande mit einer solchen Aufgabe betreuen durfte, war BMW. Der Konzern hatte sich schon nach der DAU erkundigt, bevor diese überhaupt hierzulande eingetroffen war. Im Automobilbau entfallen rund 40 Prozent der Kosten auf die Lackierung, das Abdichten der Nähte mit PVC mithilfe von Roboterarmen gehört zu den Vorarbeiten. Deren Bewegungen für das Schweißen besser zu koordinieren, um die Durchläufe effizienter zu gestalten und damit zu beschleunigen ist ein kombinatorisches Optimierungsproblem.
Die Aufgabe: Die besten Schweißanweisungen und den optimalen Roundtrip zwischen den Endpunkten gilt es zu finden und folgende Voraussetzungen:
- die Schweißroboter ´besuchen´ die richtigen Nahtstellen
- die Naht selbst kann in zwei Richtungen verschweißt werden
- die Aufgabe gilt für sieben Nähte
Heute können mithilfe des Digital Annealer bereits 64 Nähte einbezogen und optimiert werden. Die Kombinationen, die den Berechnungen zugrunde liegen, wenn statt sieben Nähte 64 begutachtet werden, liegt um den Faktor 10100 höher und geht „weit über die angenommene Anzahl von Atomen“ hinaus, heißt es im White Paper dazu. Es gilt für n Nähte folgende Formel:
2n-1 (1-n)
Nähte n | 5 | 7 | 10 | 22 | 64 |
---|---|---|---|---|---|
Möglichkeiten | 384 | 46080 | 1,86 x 10 8 | 1,07 X 1026 | 1.83 x 10 106 |
Die DAU bei der Commerzbank-Tochter
Einer der Kunden, die auf dem Fujitsu Forum öffentlich über ihr „Project Quantum“ gesprochen haben, ist Incubator Main, ein Tochterunternehmen der Commerzbank. In der Aufgabe, die sich hier gestellt hat, geht es darum Leasing-Verträge für Autos durch Investoren abzusichern.
Das Problem: Ohne eine solche Sicherung müssen entweder die Autoverkäufer lange auf ihr Geld warten oder die potenziellen Käufer bekommen keinen Vertrag. Forderungen aus Leasing-Verträgen werden daher von den Automobilherstellern oft an Investoren veräußert, um das Liquiditäts-Management zu verbessern. Die Banken handeln mit diesen Forderungen in Gestalt handelbarer Wertpapiere, bei denen die Forderungen unter anderem nach Risikoprofil gebündelt werden. Doch nicht jeder Vertrag eignet sich, nicht jeder Verkäufer und nicht jeder Investor.
Main Incubatorhat daher ein Proof of Concept (PoC) angesetzt, bei dem es um die Optimierung des Auswahlprozesses von einigen Tausend Einzelforderungen zu einem Verbriefungsportfolio gegangen ist. Der Auswahlprozess berücksichtigt mehrere kritische Faktoren gleichzeitig. Dazu gehören neben regulatorischen Vorgaben auch absolute Volumen-Begrenzungen sowie prozentuale Limitierungen. Dies führt zu einem kombinatorischen Optimierungsproblem, für das klassische Prozessoren lange Rechenzeiten benötigen.
Methode | Vselected | Vmax/Vselected | Volume Runtime>1 und <2 in Prozent | Laufzeit für die Kalkulation |
---|---|---|---|---|
Digital Annealer | 35.487.203 Euro | 95.68 Prozent | 10 | 21 Sekunden *thereof 0.07 Sekunden annealing |
Current System | 35.466.425 Euro | 95.63 Prozent | 10 | 1 - 2 Sekunden |
Monte Carlo | 34.856.552 Euro | 93.98 Prozent | 9,87 | 65 Minuten |
Doch die Ergebnisse können sich sehen lassen. Augustin Danciu, Project Manager bei Main Incubator GmbH, fasst kurz zusammen:
- Digital Annealing ist relevant für Anwendungsfälle im Bankenbereich, aber
- die Transformation von Anwendungsfällen erfordert methodisches Wissen.
- Aufgrund einer exponentiellen Berechnungszeit, die auf der Anzahl der Anlagen basiert, verspricht Digitial Annealing eine Verbesserung der Effizienz (Skalierbarkeit).
Er sieht in der Nutzung des Digital Annealer von Fujitsu eine Vorbereitung auf die Quantenära. Im Gegensatz zum Fujitsu-Kunden Hamburger Hafen kann er die Frage, warum das Unternehmen diese Technik und nicht etwa die von D-Wave, IBM, Atos oder Google ausgewählt habe, beantworten. Die Inkubator-Company probiert diverse Techniken aus und der Evaluationsprozess ist nicht abgeschlossen. Fujitsu punktet mit guter Unterstützung und einem gesunden Preis-Leistungsverhältnis.
Die DAU im Hamburger Hafen
Allerdings ist das Problem, mit dem sich der Hafen herumschlägt nicht weniger interessant und unter Umständen von großer Reichweite. Mit einem Gesamtumschlag von 136,5 Millionen Tonnen pro Jahr, davon 78,5 Tonnen Import; 58,0 Tonnen Export, ist der Hamburger Hafen einer der größten Seehäfen der Welt. Das aber bedeutet etwa jede Menge Container: 8,82 Millionen 20 Fuß Container, davon 1,19 Millionen leere Container, so genannte Massenware, etwa rund 13,7 Millionen Tonnen Flüssigkeit und 7,5 Millionen Tonnen Sauggut.
Das kommt nicht ausschließlich per Schiff in den Hafen. Die Infrastruktur im Hafen setzt sich aus Straßen, Brücken, Gleisen, Kaianlagen und Schiffsliegeplätzen zusammen, die von der Hamburg Port Authority (HPA) bereit gestellt werden. Dazu kommen 300 Kilometer Gleisanlagen. Das gesamte Hafengebiet entspricht einer Fläche von rund 7.156 Hektar, 71.560.000 Quadratmeter, also rund 10.000 Fußballfeldern.
Bis zu 2,92 Millionen LKWs fahren jedes Jahr das Gelände an, also etwa 12.000 Lastwagen pro Tag. Den Verkehr regeln Ampeln. Das Problem: hohe Belastung, schlechter Durchsatz.
Um Staus zu vermeiden, will der Hafen die Verkehrssignale besser koordinieren. Dafür hat das Hafen-Management ein Pilotprojekt aufgesetzt - mit 35 Verkehrsampeln. Es geht um einen möglichst gleichmäßigen Verkehrsfluss und damit für die Verkehrsteilnehmer möglichst lange Grünphasen.
Dafür aber müssen die Grünphasen durch die kombiniert werden, wo viel Verkehr herrscht, müssen sie länger werden, um mehr Fahrzeuge durchzulassen. Um nicht zu zu viele in einen Abschnitt zu lenken, müssen gleichzeitig andere Ampeln in kürzeren Abschnitte auf grün stehen (siehe: Bildergalerie).
Begonnen bei der synthetischen Straßenkarte und den verschiedenen Stillständen und der Verkehrsbelastung als Variable hat man im Pilotprojekt drei alternative Ampelstrategien zum Vergleich herangezogen: je eine Hälfte der Ampeln auf Grün, durchlassen des ankommenden Verkehrs und Zufall. Die Optimierung schnitt besser ab, wobei die reine Rechenzeit der DAU gerade einmal 0,045 Sekunden betragen hat.
Da sich der Erfolg eingestellt hat, will das Hafen-Management sich jetzt schrittweise der Realität annähern und damit weiteren Zielen näherkommen, etwa der Reduktion des Lärms und der Abgase. Dafür wird nun die Kreuzungsstruktur, also Richtungen und Fahrspuren beispielsweise, aufgenommen. Es sollen historische Verkehrsdaten dazukommen sowie verschiedene Ampelprogramme sowie mehr Straßen, Kreuzungen und Verkehr. Auch über Echtzeit denken die Projektmanager nach.
Dafür müsste der Hafen aber das Bezugsmodell ändern. Denn genau wie Main Incubator nutzt HPA die DAU-Kapazitäten per Cloud. Das aber wäre im Falle von Realtime-Steuerungen wahrscheinlich wegen der Latenzen unmöglich.
(ID:46225793)