Suchen

KI und Machine Learning in Rechenzentren Wie lässt sich Künstliche Intelligenz verkabeln?

| Autor / Redakteur: Cindy Ryborz* / Ulrike Ostler

Künstliche Intelligenz (KI) und Machine Learning (ML) sind die wohl revolutionärsten Technologien seit der Einführung der Elektrizität. Diese Technologien sind mächtiger als das Internet und die Mobilitätsrevolution zusammen. Davon profitieren Co-Location und Techniken, die eine Dezentralisierung der Lasten, die in Rechenzentren gehören, erlauben.

Firmen zum Thema

Künstliche Intelligenz und Machine Learning im Rechenzentrum ist eine Frage des Datenvolumens, der Latenz und der verteilten Verarbeitung. Das Netzwerk droht zum Flaschenhals zu werden. Die denkbaren Lösungen sind alles andere als trivial.
Künstliche Intelligenz und Machine Learning im Rechenzentrum ist eine Frage des Datenvolumens, der Latenz und der verteilten Verarbeitung. Das Netzwerk droht zum Flaschenhals zu werden. Die denkbaren Lösungen sind alles andere als trivial.
(Bild: Corning)

Laut einer Studie von PwC wird die KI-Branche bis 2030 etwa 15 Billionen Dollar wert sein. Der Grund, warum diese Technologien so leistungsfähig sind, liegt darin, dass sie aus riesigen Datenmengen schnell und effizient neue Erkenntnisse gewinnen können. Wir leben in einer datengetriebenen Welt (Marktanalysten schätzen, dass über 80 Prozent der heute vorhandenen Daten erst in den vergangenen zwei Jahren erzeugt wurden), und ohne Werkzeuge, die diese riesigen Datenmengen auswerten können, würden wir in einem Datenmeer ertrinken.

Um ein kurzes Beispiel zu nennen: In diesem Jahr wird die Welt etwa 40 Zettabytes an Informationen generieren. Das sind 40 Trillionen Gigabyte an Informationen. Es ist nicht möglich, dass wir Menschen all diese Informationen verarbeiten können – selbst wenn alle Menschen Tag und Nacht zusammenarbeiten würden, wäre es mathematisch unmöglich. Durch den Einsatz leistungsfähiger und gut trainierter KI-/ML-Modelle können wir diese riesigen Datenmengen präzise verarbeiten und die Daten identifizieren, auf die wir reagieren müssen.

Künstliche Intelligenz und maschinelles Lernen bieten Unternehmen in jedem Sektor neue Möglichkeiten zur Optimierung ihrer Arbeitsabläufe. Praktisch jeder Teil einer Organisation kann davon profitieren, vom Kundenservice, Forschung und Entwicklung, Personalwesen und Finanzen bis hin zu Marketing, Vertrieb und Produktion. Viele Unternehmen in ganz Deutschland haben KI bereits erfolgreich in ihr Tagesgeschäft integriert.

Das Beispiel Otto

Die Otto Group setzt KI im E-Commerce ein, um Produktrückgaben zu reduzieren. Das Unternehmen identifizierte Faktoren, die überhaupt erst zu Rücksendungen führen, wie eine Bestellung, die in mehreren Paketen zu unterschiedlichen Zeiten eintrifft, oder Lieferungen, die länger als zwei Tage dauerten. Otto verwendet ein Programm, das mithilfe dieser Informationen prognostiziert, was Kunden zukünftig kaufen werden.

Diese Erkenntnisse nutzt das Versandunternehmen dann, um eben diese Produkte frühzeitig zu bestellen. KI analysiert über 3 Milliarden zurückliegende Transaktionen und über 200 Variablen wie Suchanfragen auf der Website des Unternehmens und Wetterinformationen, um vorherzusagen, was Kunden aller Voraussicht nach ordern werden.

Die Ergebnisse sind exzellent. Das Programm kann zukünftige Käufe in den nächsten 30 Tagen mit 90-prozentiger Genauigkeit vorhersagen und die Produktrückgabe so um über zwei Millionen Artikel pro Jahr reduzieren.

Das machen Banken und die Automobilbranche

Einige Banken verwenden KI für administrative Aufgaben. Die Commerzbank, die zweitgrößte Bank in Deutschland, verwendet KI für die Erstellung von Geschäftsberichten. Die Berichte basieren auf gängigen Berichtsstandards und -mustern und können daher über maschinelles Lernen leicht gelesen werden.

Im Energiesektor kann die KI auf andere Weise genutzt werden. Künstliche Intelligenz kann die Last in Stromnetzen verteilen, den Bedarf steuern und Aktionen koordinieren. Dafür analysiert KI unstrukturierte Daten, die in der Regel etwa 80 Prozent der Daten in einem Unternehmen ausmachen und daher zu einer effizienteren und effektiveren Versorgung führen können.

Automobilunternehmen setzen ebenfalls KI-Applikationen in verschiedenen Bereichen ein. Bei BMW führt KI Qualitätskontrollen von Autoteilen während des Herstellungsprozesses durch. Eine Kamera nimmt in Echtzeit Bilder der Teile auf, die dann von der KI beispielsweise auf Mikrorisse geprüft werden, um eine hohe Produktqualität und Sicherheit zu gewährleisten.

Volkswagen hingegen nutzt KI zur Prognose von Fahrzeugverkäufen. Das Programm arbeitet mit 250 verschiedenen Fahrzeugmodellen in 120 Ländern und verwendet kontextbezogene Informationen wie länder- und branchenspezifische Auflagen, Wetterentwicklungen und Wachstumsprognosen. Volkswagen setzt KI auch in virtuellen Ausstellungsräumen ein, um Fahrzeugmodelle nach den Vorlieben und Wünschen der Kunden zu präsentieren.

Die Anforderungen, Bedingungen und Restriktionen

Die Herausforderung an KI- und ML-Anbieter besteht darin, die höchste Servicequalität zu den niedrigsten Kosten zu liefern. Aber wie kann man die höchste Dienstleistungsqualität bieten?

Die Reduzierung von Latenzzeiten und die Bereitstellung von Bandbreitenbedarf für zukünftige (KI-Anwendungen spielen dabei eine Schlüsselrolle. Die Latenzzeit kann verbessert werden, indem die physische Distanz, die die Daten zwischen Gerät und Prozessor zurücklegen müssen, verringert wird.

Insgesamt begünstigen diese Latenzanforderungen kleinere Rechenzentren näher an dem Ort, an dem Daten erstellt und verarbeitet werden. Dadurch werden Übertragungskosten und Servicequalität optimiert. Dann müssen Anbieter nach den niedrigsten Kosten für die Nutzung dieser Anwendungen suchen.

Noch bedeutet lernende Intelligenz in Rechenzentren nicht der Einsatz von humanoiden Robotern, sondern Datenstreams und Algorithmen auf leistungsfähigen Rechnern, aber der DE-CIX stzt bereits einen Roboter ein, der Kabel steckt.
Noch bedeutet lernende Intelligenz in Rechenzentren nicht der Einsatz von humanoiden Robotern, sondern Datenstreams und Algorithmen auf leistungsfähigen Rechnern, aber der DE-CIX stzt bereits einen Roboter ein, der Kabel steckt.
(Bild: Corning Optical Communications)

In der Vergangenheit erhöhte die Netzwerk-Architektur die Kosten mit der Menge der bewegten Daten und der zurückgelegten Entfernung oder 'Sprünge'. KI und ML haben die Menge der zu übertragenden Daten und somit auch die Übertragungskosten drastisch erhöht.

Wegen ihrer Nähe zum Entstehungsort der Daten sind Edge-Rechenzentren zunehmend die Lösung und Co-Location Rechenzentren sind die Orte, an denen ein Großteil dieser Daten beherbergen. Sie sind vor allem für kleine und mittelständische Unternehmen eine Alternative zum Aufbau eines eigenen Rechenzentrums und stellen laut Corning die Investitionen mit dem geringsten Risiko dar, weil sie einen schnelleren Weg zu Umsätzen aufgrund der schnellen Bereitstellung durch Verfügbarkeit bieten.

Wie kann man KI und ML verkabeln und einsetzen?

Das ursprüngliche Problem der KI war der enorme Bedarf an Rechenleistung. Glücklicherweise schließen Unternehmen wie Nvidia, Intel, AMD und viele andere durch immer leistungsfähigere Prozessoren die Lücke in der Rechenleistung. Dies ermöglicht Unternehmen wie BMW, der Otto Group, Commerzbank und zahllosen anderen den Einsatz von KI-Applikationen im Bereich des Edge-Computing.

Dazu gehört die Installation leistungsfähiger Hardware direkt vor Ort, die die vor Ort generierten Daten nach dem trainierten Modell verarbeitet. Dadurch werden die Latenzzeit und der Bedarf an Echtzeit-Bandbreite drastisch reduziert.

Das Problem besteht jedoch darin, dass ein 'edge only' KI/ML-Ansatz in der Realität nicht machbar ist, denn die Hardware kann zwar die Datenverarbeitung von trainierten Modellen übernehmen, ist aber nicht leistungsfähig genug, um das vollständige Modell zu trainieren und zu verbessern - dafür wird eine viel leistungsfähigere Hardware benötigt.

Hier kommt ein hybrider Ansatz ins Spiel.

In einem typischen hybriden Design verarbeitet der Edge-Server alle Vor-Ort-Daten unter Verwendung des bereits trainierten Modells. Die perfekte Kombination aus Edge-Server und Co-Location Anbieter, ermöglicht ausreichend Flexibilität, wenn sich das Netzwerk und die Anwendungen weiterentwickeln.

Für die optische Infrastruktur setzen Co-Location Rechenzentren in der Regel Singlemode-Fasern ein, um den Endnutzern eine Skalierung zu ermöglichen. Für diejenigen Unternehmen, die KI / ML einsetzen, ist es wichtig, sowohl den heutigen Bandbreitenbedarf als auch den zukünftigen in der Netzwerkplanung zu berücksichtigen.

Eine Faustregel besagt, dass man die durchschnittlich erwartete Bandbreite mit 4 multipliziert. So viel Bandbreite sollte ein Unternehmen in seinem System berücksichtigen, da. Bandbreite das erste ist, was in KI-/ML-Implementierungen von den rasch wachsenden Anforderungen aufgefressen wird.

Es wird dicht

Dieser Anstieg der Bandbreite unterstreicht auch den Bedarf an Technik mit hoher Dichte sowohl für Co-Location-Betriebe als auch für Endnutzer. Co-Location-Rechenzentren maximieren ihre Einnahmen durch die Generierung von Whitespace, während Endnutzer den Whitespace, in den sie investiert haben, effizient nutzen können.

Ort und Infrastruktur können viele Formen und Größen haben, aber insgesamt ist es wichtig, einen Anbieter mit einer Produktbreite zu suchen, der alles unterstützt, was Sie tun möchten (Single- oder Multimode, LC oder MTP). Für den Endnutzer besteht eine Möglichkeit, die Gesamtbetriebskosten zu senken, darin, die Verbindungsdichte zu erhöhen und den Stromverbrauch zu reduzieren. Dies kann durch eine parallel-optische Übertragung der Daten und Port Breakout-Anwendungen ermöglicht werden.

Diese Anwendung ermöglicht den Einsatz von Hochgeschwindigkeits-Transceivern, zum Beispiel vier individuelle 10G-Transceiver, die eine hohe Schaltdichte bei gleichzeitig reduziertem Stromverbrauch zu betreiben. Um die Vorteile von KI und ML wirklich nutzen zu können, muss es ein Netzwerk von miteinander verbundenen Rechenzentren geben, die die Datenverarbeitung näher am Entstehungsort der Daten durchführen. Daraus ergibt sich die Notwendigkeit einer globalen Skalierung mit einem konsistenten und modularen Produktportfolio, das eine vollständige Lösung von der Peripherie bis zu den zentralen Rechenzentren bietet.

Warum Co-Location?

Co-Location Rechenzentren bieten hier Investitionen mit geringem Risiko und einen schnelleren Weg zu Umsätzen aufgrund der schnellen Bereitstellungs- und Verfügbarkeitszeiten. Zum Trainieren und Aktualisieren des Modells werden alle Daten an die Trainingsserver gesendet, die sich in einem privaten Rechenzentrum, primär in einem Co-Location-Rechenzentrum oder in der Cloud befinden. Diese Trainingsserver nutzen die neuen Daten, um automatisch zu lernen und die Genauigkeit des verwendeten Modells weiter zu verbessern.

Durch eine Entfernung von weniger als 10 Kilometer für die Übertragung der Daten können Anbieter die Latenzzeit oft um 45 Prozent reduzieren. Was bedeutet das? Ein zentrales Rechenzentrum bleibt weiterhin erforderlich, aber es wird auch ein Trend zu kleineren und regionalen Rechenzentren geben, die näher am Ort der Datenerzeugung liegen.

Co-Location Rechenzentren sind dabei das Hauptvehikel für diese kleineren und regionalen Datenzentren. Edge-Rechenzentren sind eine Erweiterung dieser Colos mit hoher Verbindungsdichte oder werden dort gehostet, wobei beide Dienste voneinander abhängen, um einen vollständigen Service für den Kunden und das Netzwerk zu bieten. Co-Locations mit den am stärksten vernetzten Einrichtungen und einem vielfältigen Kundenmix im Ökosystem profitieren von den anfänglichen Vorteilen des Edge-Rechenzentrums.

Zentralen der Telekommunikationsanbieter sind eine Form eines Edge Datacenter, so genannte CORD (Central Office Redesigned as a Data Center). Der Trend geht dahin, traditionelle Vermittlungsstellen in eine Art Edge-Rechenzentrum umzuwandeln, die in der Regel sehr nahe beim Kunden angesiedelt sind.

Was erwartet uns in Zukunft?

KI und ML sind Anwendungen, die auf Dauer bleiben werden. Es gibt einen klaren geschäftlichen und menschlichen Nutzen für den enormen Zuwachs an Umsatz und Produktivität, die diese Anwendungen den Endnutzern bieten werden. Die Verlagerung zu mehr verfügbarer Bandbreite auf regionaler Ebene ist mit der aktuellen Architektur nicht ausreichend abgebildet (unter Beibehaltung der niedrigsten Kosten und der höchsten Servicequalität).

Wir werden sehen, dass diese KI- und ML-Anwendungen vorwiegend an den äußeren Rändern der Netzwerke laufen, für die meisten Unternehmen also in den Co-Location Rechenzentren liegen. Colos bieten das geringste Risiko und die schnellste Möglichkeit für das Unternehmen Umsätze zu generieren. Dies führt dazu, dass zunehmend mehr miteinander vernetzte Einrichtungen mit hochdichten Lösungen an mehr Standorten gefordert werden, anstatt wie bisher in größeren zentralen Knotenpunkten.

Cindy Ryborz ist Marketing Manager EMEA im Bereich Data Centre bei Corning Optical Communications.
Cindy Ryborz ist Marketing Manager EMEA im Bereich Data Centre bei Corning Optical Communications.
(Bild: Corning Optical Communications)

* Über die Autorin

Cindy Ryborz Cindy ist bei Corning Optical Communications Marketing-Expertin für Rechenzentren für die EMEA-Region. Sie hat einen Abschluss der Humboldt Universität in Berlin.

Cindy begann ihre Karriere bei Corning im Jahr 2008 in der Kundenbetreuung, wo sie langjährige Beziehungen mit Kunden in verschiedenen Regionen aufbaute und sich für den besten Service und Support für das Tages- und Projektgeschäft der Kunden einsetzte.

Im Juni 2012 wechselte sie ins Marketing-Team und übernahm die Umsetzung von Cornings Local Area Network Strategie in der gesamten EMEA-Region. Dort arbeitete sie eng mit Vertriebspartnern und Mitgliedern von Cornings autorisierten Großhändlern und zertifizierten Installateuren zusammen und unterstützte diese mit technischem Fachwissen und Marketingmaßnahmen, bevor sie 2016 die Position des strategischen Marketing-Managers für IBN/LAN und 2018 ihre heutige Position übernahm.

(ID:46587613)