Suchen

Gesponsert

Container-Technologien und künstliche Intelligenz Warum KI-Anwendungen von Container-Technologien profitieren

Für Unternehmen, die eine 'Data-Driven Transformation' erfolgreich absolvieren möchten, spielen Technologien wie Künstliche Intelligenz, Maschinelles Lernen und Deep Learning eine Schlüsselrolle. Wichtig ist, dass für solche Anwendungen eine leistungsfähige und flexible IT-Infrastruktur bereitsteht, die sich in der Cloud und im eigenen Datacenter nutzen lässt. Ein zentrales Element solcher Plattformen sind Container-Technologien.

Gesponsert von

Die spanische Bank BBVA nutzt ManageNow for Data Analytics (MN4DA), um die Ausfallwahrscheinlichkeit ihrer Geldautomaten zu ermitteln.
Die spanische Bank BBVA nutzt ManageNow for Data Analytics (MN4DA), um die Ausfallwahrscheinlichkeit ihrer Geldautomaten zu ermitteln.
(Bild: BBVA)

„Wie schaffe ich es, mithilfe von Daten neue Geschäftsfelder zu erschließen?“ Mit dieser Frage sehen sich Unternehmen aus vielen Sparten konfrontiert. Doch den Datenschatz zu heben, ist keine triviale Aufgabe. Zu den größten Herausforderungen gehört, aus der großen Menge von Informationen verwertbare Erkenntnisse (Insights) herauszufiltern. Dies ist ein maßgeblicher Grund, weshalb Anwender Technologien wie künstliche Intelligenz (KI), basierend auf Machine Learning (ML) und Deep Learning (DL), einsetzen, und dies in Verbindung mit Ansätzen wie Data Analytics.

Einer Studie Marktforschungsinstituts Freeform Dynamics zufolge sehen 55 Prozent der Unternehmen in KI eine Technologie, die ihre Konkurrenzfähigkeit stärkt. In der Fertigungssparte sind es sogar rund 70 Prozent. Zum selben Ergebnis kommt auch das Beratungshaus McKinsey in einer Studie von 2019.

Demnach verzeichneten Unternehmen, die KI-Lösungen einsetzen, im Durchschnitt eine Umsatzsteigerung von zehn Prozent. Gleichzeitig konnten die Anwender die Kosten um bis zu 20 Prozent reduzieren. Das gilt vor allem für die Bereiche Fertigung, Supply-Chain-Management sowie Services.

Anwendungsbeispiele

Wie sich KI in der Industrie einsetzen lässt, zeigt das Beispiel eines Herstellers von Windkraftanlagen. Durch den Einsatz eines KI-gestützten visuellen Inspektionsverfahrens von Fujitsu reduzierte sich die Zeit für die Überprüfung der Turbinenblätter der Systeme von sechs Stunden auf 90 Minuten.

Dies entlastet die Fachleute, die bislang mit dieser monotonen Aufgabe betraut waren. Ein weiterer Vorteil: Die Analyse gibt Aufschluss darüber, an welchen Stellen der Rotoren bevorzugt Fehler auftreten können.

Fujitsus KI-Plattformen nutzen Software-Container. Dadurch können Anwender parallel mit unterschiedlichen Hardware-Komponenten und Deep-Learning-/Machine-Learning-Frameworks arbeiten.
Fujitsus KI-Plattformen nutzen Software-Container. Dadurch können Anwender parallel mit unterschiedlichen Hardware-Komponenten und Deep-Learning-/Machine-Learning-Frameworks arbeiten.
(Bild: Fujitsu)

Ein weiteres Einsatzfeld von KI-Techniken ist die proaktive Wartung von IT-Systemen und Maschinen (Predictive Maintenance). Auch dazu ein Beispiel: Ein IT-Dienstleister möchte seinen Kunden einen Dienst anbieten, der diese vor dem ungeplanten Ausfall von IT-Systemen bewahrt.

Dazu werden Machine-Learning- und Deep-Learning-Algorithmen mit Event-Logs trainiert, die von den IT-Systemen stammen. Die KI-Lösung ist anschließend in der Lage, anhand der Datenmuster bereits im Vorfeld Unregelmäßigkeiten zu erkennen und die Wahrscheinlichkeit von Defekten zu ermitteln.

Fujitsu hat mit „ManageNow for Data Analytics“ (MN4DA) eine solche Software entwickelt. Sie macht transparent, ob bestimmte Verhaltensmuster von IT-Komponenten im Rechenzentrum auf einen bevorstehenden Schaden hindeuten.

Ein Beispiel aus dem Datacenter und eines von der Edge

Der Nutzer erhält beispielsweise auf einem Dashboard die Warnmeldung „Mit einer Wahrscheinlichkeit von 50 Prozent tritt innerhalb der nächsten acht Stunden beim Server A ein Festplattenfehler auf“. Ein IT-Fachmann hat dadurch die Möglichkeit, das Festplatten-Array und die Controller proaktiv zu überprüfen. Diese Aufgabe kann auch der Lieferant der IT-Lösungen übernehmen und dadurch sein Geschäftsfeld erweitern.

Durch KI ist das System so generalistisch ausgelegt, dass beispielsweise die BBVA, eine Bank in Spanien, die Ausfallwahrscheinlichkeit ihrer Geldautomaten mithilfe von MN4DA ermittelt. Die gleiche Technologie wird bei Fujitsu auch dazu eingesetzt, um beispielsweise in Gasturbinen von Kraftwerken Ausfälle vorherzusagen. Die Wahrscheinlichkeit, dass die Vorhersage eintrifft, liegt im Übrigen bei knapp 98 Prozent.

Hier zeigt sich ein wesentlicher Vorteil KI-gestützter Anwendungen: Sie sind in hohem Maße generalistisch. Das heißt: Früher wurden Applikationen geschrieben, die nur bestimmte Anwendungsszenarien abdecken konnten. Heute kann die gleiche Anwendung relativ einfach 'anders' trainiert werden. Dann lässt sie sich ohne weitere Änderung schnell in völlig anderen Szenarien einsetzen.

Wichtig: Leistungsstarke und variable IT-Plattform

Doch KI-basierte Analyselösungen benötigen einen soliden IT-Unterbau. Laut einer Untersuchung der Marktforschungsfirma ESG von 2019 sehen rund 30 Prozent der Unternehmen in einer unzureichenden IT-Infrastruktur einen Faktor, der die Umsetzung von KI-bezogenen Machine-/Deep Learning-Projekten verhindert.

An die 21 Prozent benötigen zudem bessere Entwicklungsumgebungen für solche Anwendungen. Hier kommen Container-Technologien wie Openshift ins Spiel. Ein Container enthält eine Anwendung, die dazu gehörige Laufzeitumgebung und alle Abhängigkeiten. Dies erfolgt getrennt von anderen Containern.

Diese Eigenschaften machen Container für Unternehmen interessant, die Anwendungen aus den KI-Bereichen ML und DL entwickeln und einsetzen wollen. Denn Entwickler experimentieren häufig parallel mit unterschiedlichen Algorithmen und neuronalen Netzwerken, um die beste Lösung für eine Problemstellung zu ermitteln.

Für solche Aufgaben eignen sich separate Container in idealer Weise: Sie geben einem Data Scientist die Möglichkeit, unterschiedliche Deep-Learning- und Machine-Learning-Modelle in separate Container-Umgebungen zu 'packen' und zu testen. Dabei kann der KI-Fachmann außerdem unterschiedliche Versionen von Trainingsdaten oder Machine-Learning- und Deep-Learning-Plattformen wie TensorFlow oder PyTorch einsetzen. Von solchen Faktoren hängt es ab, wie lange die Trainingsphase eines Deep-Learning-Modells ausfällt und welches am besten mit der zugrunde liegenden IT-Hardware zusammenarbeitet.

Hohes Maß an Flexibilität gefordert

Einer der größten Vorteile von Containern im Zusammenhang mit KI-Anwendungen besteht darin, dass sie auf unterschiedlicher Hardware laufen: der Workstation eines Entwicklers, auf High-Performance-Computing-Plattformen, integrierten Systemen wie etwa Fujitsu PRIMEFLEX, der Fujitsu DDTS Plattform oder einem Edge-Device wie den Appliances Fujitsu INTELLIEDGE A700 und G700. Diese kommen in IoT-Umgebungen (Internet of Things) zum Einsatz und dienen beispielsweise als Schnittstelle zwischen Fertigungssystemen und KI- beziehungsweise Machine-Learning-Lösungen.

Zudem lassen sich "containerisierte" ML- und DL-Modelle auf IT-Systemen in Cloud-Rechenzentren und in einer Hybrid-IT-Umgebung implementieren. Diese kombiniert Private, Public und Managed Clouds mit den IT-Systemen im Unternehmensrechenzentrum.

Eine KI-Infrastruktur lässt sich zusammen mit einem Software-Defined Data Center (SDDC) und Technologien wie IoT und Blockchain zu einer Plattform für die Data-Driven Digital Transformation (DDTS) ausbauen.
Eine KI-Infrastruktur lässt sich zusammen mit einem Software-Defined Data Center (SDDC) und Technologien wie IoT und Blockchain zu einer Plattform für die Data-Driven Digital Transformation (DDTS) ausbauen.
(Bild: Fujitsu)

Für den Nutzer bedeutet das ein hohes Maß an Flexibilität: Er kann KI-Modelle nach Bedarf erstellen und in der passenden IT-Umgebung implementieren. Wichtig ist dabei, dass die Skalierbarkeit gegeben ist. Lösungen wie die DDTS Plattform, die sich Kunden ins eigene Rechenzentrum stellen können, lassen sich beispielsweise nach Bedarf um weitere Server-, Storage- und Netzwerkkomponenten erweitern.

Dasselbe gilt für Cloud-Dienste. Benötigt der Anwender mehr Instanzen eines KI-Modells, kann er weitere Container erstellen und "on premises" oder in einer Cloud platzieren. Werden sie nicht mehr benötigt, lassen sich die Container auf einfache Weise deaktivieren.

Werden ganze Infrastrukturen on premises mit nutzungsabhängigen Verrechnungsmodellen wie Fujitsu uSCALE kombiniert, muss man sich auch keine Gedanken mehr um die Hardware machen, da man sie nicht mehr kauft, sondern einfach nutzt. Sozusagen die Cloud im eigenen Haus, nur in aller Regel günstiger als rein online.

Referenzarchitekturen nutzen

Möchte ein Unternehmen KI-Anwendungen entwickeln oder einsetzen, ist es hilfreich, wenn der Lösungsanbieter eine Referenzarchitektur vorweisen kann. Sie macht es einfacher, die passenden Hard- und Software-Komponenten sowie ergänzende Services zu finden und zu implementieren.

Fujitsu hat eine solche KI-Referenzarchitektur unter dem Namen „DDTS Plattform“ erstellt. DDTS steht dabei für Data Driven Transformation Strategy und soll deutlich machen, dass es sich hier um das Thema Daten und Ressourcen dreht. Sie umfasst dabei neben Lösungen von Fujitsu Hard- und Software von Partnern.

Zu diesen Partnern zählen NVIDIA (Grafikprozessoren), NetApp (Storage-Lösungen, Datenhaltung) und Intel. Hinzu kommen Open-Source-Lösungen, etwa ML- und DL-Frameworks, sowie Linux als Betriebssystem. Abgerundet wird das Portfolio von Container-Technologien und Tools, mit denen sich Container-Umgebungen verwalten lassen. Dafür steht beispielsweise Openshift von IBM Red Hat zur Verfügung.

Checkliste: Den richtigen KI-Partner finden

Eine Referenzarchitektur ist allerdings nur einer von vielen Faktoren, die bei der Auswahl eines Partners im Bereich KI eine Rolle spielen. Zum Abschluss daher eine Checkliste mit zehn Fragen, auf die ein Anbieter von KI-Lösungen schlüssige Antworten parat haben sollte:

  • Über welches Know-how im Bereich KI verfügt das Unternehmen? Fujitsu zählt beispielsweise zu den Pionieren im Bereich künstliche Intelligenz und verfügt über ein breites Angebot von Lösungen und Services. Weltweit betrachtet steht Fujitsu auf Platz sechs der Liste von Unternehmen, welche die meisten Patente im Bereich KI besitzen. Die Palette schließt sogar Supercomputer mit ein, etwa den weltschnellsten Superrechner "Fugaku" auf Basis des Fujitsu ARM-Prozessors A64FX, der für komplexe Aufgaben entwickelt wurde (Exaflop – Supercomputer) und auf dem auch TensorFlow und PyTorch implementiert wurden.
  • Welche KI-Frameworks und Libraries für die Entwicklung von Modellen und Anwendungen stehen bereit? Wichtig ist, dass alle führenden Lösungen unterstützt werden, etwa von NVIDIA und Intel, ebenso Open-Source-Software wie etwa TensorFlow und PyTorch.
  • Sind variable Referenzarchitekturen und Angebote für den Einstieg in KI verfügbar? Das ist wichtig, weil Anwender unterschiedliche Anforderungen haben. Industrieunternehmen bevorzugen beispielsweise eine Implementierung von KI-Lösungen vor Ort; etliche Anwender wollen erst einmal Erfahrungen mit künstlicher Intelligenz sammeln und benötigen dafür Einstiegslösungen.
  • Welche Container-Technologien lassen sich einsetzen? Eine KI-Plattform sollte zumindest Open-Source-Containerformate unterstützen. Gleiches gilt für eine Software, mit der sich Container orchestrieren lassen, etwa Openshift und Kubernetes.
  • Wie ist es um die Skalierbarkeit der KI-Plattformen bestellt? Der Nutzer sollte in der Lage sein, "klein" anzufangen und bei Bedarf die Plattform zu erweitern. Skalierbarkeit schließt den Zugang zu KI-Services und IT-Ressourcen in einer Cloud mit ein. Wichtig: Während früher Skalierbarkeit als Scale-up definiert wurde, also als eine Maschine, die sehr mächtig ist, kommen heute mehr und mehr Scale-out–basierte Konzepte zum Tragen, mit zig Maschinen im Verbund (Multi-Node). Dieser Ansatz ist weitaus flexibler und kostenseitig wesentlich besser kalkulierbar.
  • Steht eine durchgängige Datenplattform bereit? Sie sollte den Edge-Bereich, den Core und die Cloud umfassen. Am Edge werden Daten erfasst und konsolidiert; das Aufbereiten der Daten und das Training der ML-/DL-Modelle findet auf Systemen im Core-Bereich statt; weniger zeitkritische Analysen lassen sich bei Bedarf auch in einer Cloud durchführen. Eine solche durchgängige Datenplattform hat beispielsweise Fujitsus Partner NetApp entwickelt.
  • Welche Bereitstellungsmodelle unterstützt der Anbieter? Denkbar sind Modelle die "GPU as a Service", also der Zugriff auf die Rechenleistung von Grafikkarten in der Cloud im Rahmen von KI-Projekten. Wichtig ist, dass der Nutzer dabei Zugang zu den Ressourcen aller führenden Cloud-Service-Provider hat. Denkbar sind zudem Dienstleistungen wie „KI-Hardware as a Service“: Der Nutzer bucht die KI-Infrastruktur bei einem Anbieter wie Fujitsu. Diese steht dann im Rechenzentrum des Nutzers. Das vereinfacht auch das Thema Datenschutz in erheblichem Maße. Der Anwender rechnet mit dem Anbieter der Infrastruktur entsprechend der realen Nutzungsdauer der Systeme ab, etwa via Fujitsu uScale.
  • Stellt der Anbieter Managed Services bereit? Unternehmen, die eine KI-Lösung im eigenen Data Center oder einer Hybrid-IT-Umgebung implementieren, können auch den Betrieb an einen Serviceprovider wie Fujitsu auslagern. Das entlastet die eigene IT-Abteilung und gibt einem Unternehmen die Möglichkeit, die entsprechenden Fachleute nutzbringender einzusetzen.
  • Welche Apps des Anbieters sind verfügbar, auch von dessen Partnern? Eine solche "Ökosphäre" ermöglicht es Nutzern, auf bereits vorhandene Anwendungen im Bereich KI, ML und DL zurückzugreifen. Das spart Entwicklungsaufwand und Zeit. Fujitsu hat beispielsweise KI-gestützte Anwendungen für die Bildanalyse (FAIR) und ein Ticket-System für den Nahverkehr entwickelt.
  • Welche ergänzenden Services stehen bereit, etwa im Bereich Consulting? Ein Beispiel ist Fujitsus „AI Assessment“. Zusammen mit dem Anwender ermitteln Experten von Fujitsu, welches neuronale Netzwerk sich am besten für eine DL-Applikation eignet und welche Hardware dafür in Frage kommt. Der Nutzer sollte zudem eigene Daten bei diesem Assessment verwenden können. Wichtig ist weiterhin Hilfe bei der Konfiguration und dem Betrieb von KI-Umgebungen.

Advertorial - Was ist das?

Über Advertorials bieten wir Unternehmen die Möglichkeit relevante Informationen für unsere Nutzer zu publizieren. Gemeinsam mit dem Unternehmen erarbeiten wir die Inhalte des Advertorials und legen dabei großen Wert auf die thematische Relevanz für unsere Zielgruppe. Die Inhalte des Advertorials spiegeln dabei aber nicht unbedingt die Meinung der Redaktion wider.

(ID:46973942)

Über den Autor

 Bernd Reder

Bernd Reder

Freier IT- und Netzwerk-Fachjournalist