Ein Rechenzentrum in Schuss zu halten, kostet gutes Geld. Wer erst wartet, bis etwas richtig den Bach 'runtergeht, zahlt gleich mehrfach 'drauf. In Deutschland ist prädiktive Wartung jetzt sogar de facto gesetzlich vorgeschrieben. Wie das?
Predictive Maintanance bedeutet zweierlei: Ständige Bereitschaft, das übernehmen Tools, und ein entspanntes Handeln und Abwarten; denn ein Eingreifen durch die Reparatur- oder Wartungsmannschaft ist nur notwenig, wenn die Systeme anzeigen, dass demnächst mit kaputten Teilen oder Fehlfunktionen zu rechnen ist. Die Voraussetzung: Valide Daten und Prozesse, die ein solches Vorgehen erlauben.
Nein, nicht in einem einzigen Paragraph, aber immerhin: Betreiber stecken zwischen SLAs, Normen, Zertifizierungen und einem immer dichteren Dschungel an Effizienz- und Compliance-Vorgaben.
Gesetzliche Effizienzpflichten
Das deutsche Energie-Effizienzgesetz (EnEfG von 2023) hat einen verbindlichen Rechtsrahmen gschaffen, der die Einführung vorausschauender Instandhaltung im Rechenzentrum de facto zur Notwendigkeit macht. Besonders anspruchsvoll ist die gesetzlich vorgeschriebene Einführung des Energy Reuse Factor (ERF). Rechenzentren, die ab Juli 2026 in Betrieb gehen, müssen so geplant werden, dass sie einen ERF von mindestens 10 Prozent erreichen; für Inbetriebnahmen ab 2028 steigt dieser Zielwert auf 20 Prozent.
Diese Vorgaben zwingen Betreiber dazu, Wärme aus dem Rechenzentrum nutzbar zu machen. Spätestens dann rückt Flüssigkühlung in den Fokus - und damit die dringende Notwendigkeit für vorausschauende Wartung.
Übrigens: In der diesjährigen Abstimmung zu, 'DataCenter-Insider Award' haben wir eine Kategorie 'Colo-Heater!. Hier geht es um Co-Location-Anbieter, die Abwärme bereitstellen. Und hier können alle Leser über den Favoriten abstimmen.
Das sprichwörtliche „Licht im Tunnel“ versprechen Inspektionsroboter und ‑Drohnen von Anbietern wie Energy Robotics. Das in Darmstadt ansässige Software-Unternehmen ist aus der autonomen Robotikforschung an der TU Darmstadt („Team Hector“) hervorgegangen und hat sich zum Ziel gesetzt, autonome Inspektionsroboter und ‑Drohnen in praktischen Anwendungsszenarien nutzbar zu machen.
Eine Inspektionsdrohne, flankiert von zwei Inspektionsrobotern aus der Plattform von Energy Robotics, auf einem Shell‑Gelände in Rheinland
(Bild: Shell)
Roboter auf dem Vormarsch, Drohnen im Anflug
Inspektionsroboter übernehmen schon heute regelmäßige Rundgänge durch Rechenzentrumsgänge; sie messen Temperatur, Feuchte, Luftstrom, Geräuschpegel und Vibrationen oder erstellen hochauflösende Farb‑ und Wärmebilder von Racks, PDUs, USVs und Kälte-Anlagen. Drohnen leisten Vergleichbares aus der Luft: Sie prüfen Dichtungen an Dach-Tanks, erkennen stehendes Regenwasser oder inspizieren den Zustand anderer schwer zugänglicher Anlagen.
Auf Basis dieser Sensordaten lassen sich Anomalien identifizieren, Wartungsbedarfe vorhersagen, etwa Hotspots, Lager‑ oder Lüfterprobleme, Alterungserscheinungen oder Leckagen, und zunehmend auch konkrete Maßnahmen anstoßen.
Prädiktive Wartung mit Robotik im Rechenzentrum Quelle: Boost Robotics / Youtube
Boost Robotics, ein Startup mit Finanzierung von Y‑Combinator, entwickelt fernsteuerbare, teils autonome Roboter für Rechenzentren, die als „Robot Remote Hands“ Anzeigen ablesen, Knöpfe drücken, Neustarts durchführen, Kabel verschalten und Module austauschen können. Das Unternehmen sucht gerade Datencenter‑Betreiber für Pilotprojekte und Kooperationen, insbesondere für Standorte mit Personalmangel oder abgelegene Infrastrukturen.
Aktuelle Marktanalysen sehen in KI‑gestützter prädiktiver Wartung einen erheblichen wirtschaftlichen Hebel. So zeigt eine branchenübergreifende Auswertung von Oxmaint, dass Industrie-Unternehmen durch strategische Predictive‑Maintenance‑Programme Wartungskostensenkungen von 25 bis 30 Prozent, Downtime‑Reduktionen von 70 bis 75 Prozent und typischerweise Amortisationszeiten von 12 bis 18 Monaten erreichen.
Ergänzend dazu kam das Deloitte Analytics Institute in einem aktualisierten Positionspapier zu Predictive Maintenance aus dem Jahr 2024 zu dem Ergebnis, dass datengetriebene Instandhaltung die Anlagenverfügbarkeit um 10 bis 20 Prozent erhöhe, die Wartungskosten um 5 bis 10 Prozent senke und den Planungsaufwand für Wartung um 20 bis 50 Prozent reduziere. Einige Betreiber haben es bereits vorgemacht.
Die Etamind AI Suite bei Equinix FR6 in Frankfurt
Ein wegweisendes Beispiel für die erfolgreiche Implementierung von Predictive Maintenance und KI-gestützter Betriebsoptimierung im deutschen Rechenzentrumsmarkt ist die Zusammenarbeit zwischen Equinix (Germany) GmbH und dem Darmstädter Spezialisten Etalytics. Im Fokus des Projekts stand das IBX-Rechenzentrum „FR6“ in Frankfurt am Main. Mit einer Kapazität von über 3.000 Cabinets auf 6.600 Quadratmetern zählt die Anlage zu den kritischsten Vernetzungspunkten der Region.
Vor der Implementierung stand FR6 vor der branchenüblichen Herausforderung, maximale Ausfallsicherheit bei gleichzeitig steigenden Energiekosten zu gewährleisten. Die komplexe Kühlinfrastruktur – bestehend aus Kompressionskältemaschinen, Hybridkühlern, Wasserpumpen, Plattenwärmetauschern und Pufferspeichern – wurde historisch so betrieben, dass sie auch seltenste Extremszenarien wie extreme Hitzeperioden in Frankfurt problemlos abdeckte. Dies führte jedoch zu einer permanenten energetischen Überversorgung (Over-Provisioning).
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Proaktiver Rechenzentrumsbetrieb mit Etalytics: Vorausschauende KI-Modelle können den Energieverbrauch voraussagen; Betreiber können Kostenspitzen vermeiden, die Beschaffung optimieren und den Betrieb an die Nachfrage anpassen.
(Bild: Etalytics)
Das Ziel der Etalytics-Einführung besteht unter anderem darin, die Steuerung der Energie-Erzeuger so zu harmonisieren, dass sie stets am optimalen Betriebspunkt arbeiten und sowohl interne IT-Lasten als auch externe Wetterdaten in Echtzeit berücksichtigen. Der Implementierungsprozess spannt mehrere technologische Ebenen auf:
Über die „Etaone“-Plattform werden Tausende Datenpunkte in einer Echtzeit-Dateninfrastruktur im Plug-and-Play-Verfahren angebunden. Spezialisierte Algorithmen bereinigen die eingehenden Telemetriedaten von Rauschen und Verzerrungen, etwa dann, wenn direkte Sonneneinstrahlung Sensorwerte verfälscht.
Auf dieser Basis entstehen physikbasierte Digitale Zwillinge: Statt auf reine Black-Box-Modelle zu setzen, koppelt Etalytics die KI mit thermodynamischen Modellen. Dadurch bleiben Optimierungsvorschläge physikalisch plausibel und betriebssicher. In der Closed-Loop-Steuerung berechnet das System kontinuierlich optimale Sollwerte und regelt die Kühlleistung in 99 Prozent der jährlichen Betriebszeit exakt auf das tatsächlich benötigte Niveau herunter.
Das Herzstück der Lösung bildet die „Etamind AI Suite“, die über Etaedge-IIot"-Gateways direkt in die Gebäudeleittechnik (GLT) eingebunden wird. Klassische Predictive‑Maintenance‑Systeme konzentrieren sich vor allem auf den Zustand einzelner Komponenten, zum Beispiel Lüfter, Pumpen oder Server, und sagen anhand von Schwingungs‑, Temperatur‑ oder Logdaten den wahrscheinlichen Ausfallzeitpunkt voraus.
Etaone verfolgt einen anderen Ansatz: Die Plattform modelliert das gesamte Energie‑ und Kühlsystem des Rechenzentrums und optimiert dessen Fahrweise mit Hilfe von KI und digitalen Zwillingen.
Dabei entstehen detaillierte Zustands‑, Effizienz‑ und Belastungsprofile für alle relevanten Assets, zum Beispiel Kältemaschinen, Pumpen, Türme und Wärmetauscher, aus denen sich Zustandsbewertungen, Alarme und Wartungsaufgaben für Betriebsoptimierung ableiten lassen.
Aus der Perspektive eines Inspektionsoboters: Feuerlösch- und Sprinklerpumpe mit Steuer und Schaltschrank Einheiten („TOTALPAC“).
(Bild: Equinix)
Das Ergebnis kann sich sehen lassen: Equinix kann den elektrischen Energiebedarf der Facility um rund 900 Megawattstunden (MWh) pro Jahr reduzieren. Gleichzeitig läuft die Kälte-Anlage näher an ihrem optimalen Arbeitspunkt und vermeidet unnötige Lastzyklen, was wiederum ihre Lebensdauer verlängern dürfte.
... und die Stromversorgung?
Während sich mit Kühlungsoptimierung die größten Energie-Einsparungen erzielen lassen, bleibt der kritischste Anwendungsfall prädiktiver Wartung der Power Path – konkret die unterbrechungsfreien Stromversorgungen (USV), die Batterien und die Notstromaggregate.
Prädiktive Wartung von Backup-Generatoren umfasst unter anderem die Überwachung der Qualität von HVO100- oder synthetischen Kraftstoffen in den Tanks, um Startausfälle durch das Eindringen von Wasser oder Keimbildung zu vermeiden. Parallel erfassen Sensoren Vibrationen und Temperatur an Motor und Generator. Dadurch lassen sich Lagerschäden oder Kühlprobleme erkennen, bevor im Ernstfall ein Aggregat stehenbleibt. In integrierten EPC‑/O&M‑Modellen fließen diese Zustandsdaten schließlich in zentrale, KI‑gestützte Plattformen ein, über die Anbieter Verfügbarkeiten im Bereich von 95 bis 99 Prozent garantieren können.
Schwingungsüberwachung ermöglicht die frühzeitige Erkennung von Verschleißerscheinungen an Lüftern, Pumpen und Motoren anhand charakteristischer Frequenzmuster. Das ermöglicht gezielte Wartungsmaßnahmen und verhindert teure Folgeschäden.
Prädiktive Wartung auf Basis manueller Inspektionen: Pilotprojekt in einem Rechenzentrum von Digital Edge in Indonesien.
(Bild: PT. Ekagrata Data Gemilang)
Multi‑modale Sensorintegration führt unterschiedliche Sensortypen – etwa Strom-, Temperatur-, Druck- und Vibrationssensoren – logisch zusammen, um ein konsistentes Zustandsbild der betreffenden Anlage zu errechnen. Gerade bei hochverdichteten Umgebungen mit AI‑ und GPU‑Lasten ermöglicht diese kombinierte Sicht, Kettenreaktionen entlang der Infrastruktur zu erkennen und zu stoppen.
Platzhirsche, Nischenanbieter und DIY-Pioniere
Der Markt im Rechenzentrumsumfeld ist wettbewerbsintensiv. Spezialisierte Anbieter fokussieren auf Industriesensorik, Edge‑Analytics und C5‑konforme Cloud‑Plattformen. DCIM-Anbieter liefern Rundumglücklichpakete mit KI/ML-Ansprüchen. Die Cloud-Hyperscaler bauen wie üblich ihr eigenes “Zeug”.
Die Wärmebildkamera registrierte einen Temperaturanstieg an einer Schalttafel, woraufhin umgehend Schrauben nachgezogen wurden, um einen möglichen Stromausfall oder Brandgefahren zu verhindern.
(Bild: PT. Ekagrata Data Gemilang)
Die großen Player der Szene verfügen über viele Jahre Betriebserfahrung und entsprechend gereifte Analytik‑ und KI‑Modelle.
Schneider Electric positioniert „Ecostruxure IT“ als herstellerneutrale DCIM-Software für Monitoring, Management, Planung und Modellierung – vom Einzelrack bis zu sehr großen Umgebungen, on-premises, in der Cloud und am Edge. Praktisch relevant sind „smart alarms“ über Geräte unabhängig vom Hersteller sowie Risiko-Prognosen über Benchmarks/Analytics im „Ecostruxure-Data-Lake“. Umsetzungsnah gedacht: Vor dem Rollout Alarmklassen (kritisch/warn/info), Eskalationszeiten und den Ticket-Zielprozess definieren – sonst skaliert im Zweifel nur die Alarmflut.
Vertiv setzt mit Next Predict auf ein gemanagtes, KI-gestütztes PdM-Modell: Anomalie-Erkennung, Risikopriorisierung, Root-Cause-Analyse sowie „prescriptive actions“ bis zur Ausführung durch Vertiv-Servicepersonal. Für AI-Factories ist wichtig, dass Vertiv die Abdeckung explizit über Power- und Cooling-Plattformen hinaus auf BESS und Liquid-Cooling-Komponenten ausweitet.
Siemens adressiert Predictive Maintenance zweistufig: „Datacenter Clarity LC“ liefert den integrierten, hochvernetzten Infrastruktur‑Zwilling, während „Senseye“ als darüberliegende Analytik‑ und GenAI‑Schicht konkrete, vorausschauende Wartungsentscheidungen ermöglicht.
Die prädiktive Wartungsplattform „Senseye“ von Siemens - hier beim australischen Stahlhersteller Bluescope - adressiert explizit auch die Datacenter-Branche.
(Bild: Bluescope)
Datacenter Clarity LC positioniert Siemens als die DCIM-Plattform mit klarer Engineering-DNA: Sie bietet einen 3D-Digital-Twin des Rechenzentrums, Echtzeit-Monitoring, Asset‑ und Workflow-/Change-Management, Kapazitätsplanung sowie „What‑if“-Simulationen bis hin zu CFD-Analysen für Luftstrom und Temperaturverteilung. Entscheidend ist dabei die Konnektivität: Clarity LC unterstützt mehr als 450 Kommunikationsprotokolle, unter anderem OPC, Modbus, BACnet, SNMP, und stellt über offene Web-APIs die „northbound“-Integration in ERP-, CMMS- und ITSM‑Systeme sicher.
Senseye ergänzt diese Infrastruktur-Backbone als skalierbare Predictive-Maintenance-Schicht. Die Senseye-Plattform analysiert Sensordaten aus Maschinen und Anlagen, erkennt Anomalien und leitet Wartungsempfehlungen ab - im Chat mit dem Fachpersonal. Über eine dialogfähige Oberfläche können Nutzer dem System Fragen in natürlicher Sprache stellen: „Warum hast du der Pumpe 12 im Kaltwasserkreis eine hohe Risikostufe zugewiesen?“ oder „Welche Maßnahmen haben wir beim ähnlichen Vorfall im Frankfurter Rechenzentrum im vergangenen Jahr ergriffen?“ Die KI-Engine von Senseye kann historische Fälle über Sprachen und Datensilos hinweg auswerten und kontextualisierte, preskriptive Reparaturstrategien vorschlagen. Gleichzeitig erfasst sie das Erfahrungswissen der Techniker, um es standortübergreifend auffindbar zu machen.
Rittal spielt seine Stärken an der physischen Schicht aus: „Rimatrix Micro Data Center“ bündelt Gehäuse, Power, Klimatisierung, Monitoring und Security. Das System adressiert Edge-/Industrie-Standorte mit kurzen Installationszyklen. Der MDC-Konfigurator mit Plausibilitätschecks ist hier ein handfester Praxisvorteil, weil Spezifikationsfehler, zum Beispiel Last versus Kühlklasse, Sensorik/Access, früh auffallen. Und genau diese Fehler machen „schnelle“ Edge-Rollouts später teuer.
Datenhoheit, Datenschutz und Regulierung
Im deutschen Markt ist die Einführung von Predictive Maintenance untrennbar mit den Anforderungen der EU-DSGVO und des Bundesdatenschutzgesetzes (BDSG) verknüpft. Zwar betreffen viele Sensordaten primär technische Zustände von Anlagen, doch in dem Moment, in dem Wartungsprotokolle, Tickets oder Einsatzpläne mit Mitarbeiter- oder Technikerinformationen verknüpft werden, können personenbezogene Daten mit im Spiel sein.
Eine Einwilligung zur Verarbeitung personenbezogener Daten ist im Beschäftigungsverhältnis mit nur wenigen Ausnahmen unwirksam. Das zwingt Betreiber zur strikten Einhaltung unter anderem der Grundsätze der Zweckbindung und Datenminimierung. Alle Systeme müssen von Grund auf so konzipiert sein, dass sie so wenig personenbezogene Daten wie möglich erfassen, Stichwort: Privacy by Design.
Wenn technische Systeme zur Überwachung von Leistung oder Verhalten geeignet sind (was bei Wartungsprotokollen fast immer der Fall ist), hat in Deutschland zudem der Betriebsrat ein zwingendes Mitbestimmungsrecht (§ 87 Abs. 1 Nr. 6 BetrVG). Ohne eine entsprechende Betriebsvereinbarung ist der Einsatz solcher Überwachungsfeatures ungeachtet der Einwilligung aller Techniker in vielen Fällen schlicht illegal.
Darum stützen viele deutsche Unternehmen ihre PdM-Systeme, um rechtssicher zu arbeiten, meist nicht auf eine Einwilligung, sondern auf:
Erforderlichkeit zur Durchführung des Arbeitsvertrags (§ 26 Abs. 1 BDSG) und/oder
Kollektivvereinbarungen (Betriebsvereinbarungen), die Schutzmaßnahmen wie Pseudonymisierung festschreiben.
Eine zentrale Rolle spielt zudem das Cloud Computing Compliance Criteria Catalogue (C5) des BSI, ein maßgeblicher Prüfmaßstab für den sicheren Betrieb von Cloud-Diensten. In stark regulierten Sektoren wie Finanzdienstleistungen oder Gesundheitswesen ist eine C5-Attestierung (Typ 2) faktisch Voraussetzung, wenn eine Cloud-basierte Plattform für Wartung und Monitoring genutzt werden soll. Das C5-Regelwerk adressiert typische Cloud-Risiken wie Mandantentrennung in Mehrmandantenumgebungen und verlangt den Nachweis von Betriebsredundanz über mehrere Standorte hinweg mit definierten Entfernungen, um echte Georedundanz sicherzustellen.
Die nächste Überarbeitung des Kriterienkatalogs (C5:2025 mit Finalisierung und Rollout in 2026) führt granulare Anforderungen für neue Technologien ein und adressiert dabei ausdrücklich unter anderem Lieferkettenrisiken und Datensouveränität. Vor dem Hintergrund der zunehmenden Verbreitung hochdichter KI-Workloads in Rechenzentren schärfen die aktualisierten C5-Kriterien die Anforderungen an KI-bezogene Verarbeitung und Confidential Computing und schaffen eine transparentere Struktur für die Prüfung von „Physical AI“ in Wartungs-Workflows.
Alle C5-Assessments, die ab dem 1. Januar 2027 beginnen, müssen zwingend die neuen Kriterien anwenden. Das Jahr 2026 gilt als offizielle Übergangsfrist für Cloud-Anbieter.
Generative KI, Failure Simulation und Re-Identifikationsrisiken
Der Einsatz generativer KI für Ausfallsimulation, What-if-Szenarien und Optimierung von Wartungsstrategien bringt eigene juristische Risiken mit sich. Sobald pseudonymisierte Betriebs- oder Wartungsdaten so verarbeitet werden, dass einzelne Personen wieder identifizierbar werden, entsteht im Sinne der DSGVO neues personenbezogenes Datenmaterial – mit allen daraus folgenden Pflichten wie Rechtsgrundlage, Informationspflichten und technisch-organisatorischen Schutzmaßnahmen.
Um Innovation nicht zu bremsen, prüfen deutsche Aufsichtsbehörden den Einsatz so genannter „regulatorischer Sandboxes“. In solchen kontrollierten Umgebungen können neue Algorithmen, Datenmodelle und KI-basierte Auswertungen getestet werden, ohne sofort das volle Risiko eines produktiven Betriebs zu tragen. Ziel ist es, ausreichend große Datensätze für das Training prädiktiver Modelle verfügbar zu machen, ohne die Datenschutzanforderungen zu verletzen.
Der EU‑AI‑Act verpflichtet alle Mitgliedstaaten, bis spätestens 2. August 2026 mindestens eine KI‑Regulatory‑Sandbox zu betreiben; Deutschland setzt das unter anderem mit dem BfDI‑„ReguLab“ und einem KI‑Reallabor der Bundesnetzagentur um.
Hürden des Erfolgs
Aus pilotierten Sandbox‑Ansätzen dürfte sich in den kommenden Jahren ein regulärer Pfad für prädiktive Wartungslösungen entwickeln: Wer seine KI‑Modelle im ‚regulatorischen Sandkasten‘ zur Reife bringt, erhält früh Rechtssicherheit, bezahlt aber mit zusätzlicher Dokumentation und engerer Einbindung der Aufsicht.
Prädiktive Wartung scheitert in der Praxis an einer ganzen Reihe von Herausforderungen. Das größte technische Hindernis stellen laut Marktanalysen von Oxmaint die technische Anbindung von Altsystemen (Legacy Systems) und das Aufbrechen von Datensilos dar (gemeldet in 70 bis 85 Prozent der Projekte). Lückenhafte Sensorenabdeckung oder unzuverlässige Messwerte führen in 60 bis 75 Prozent der Implementierungen zu Fehlprognosen, die das Vertrauen in das System untergraben.
Satte 55 Prozent bis 70 Prozent aller Implementierungen plagt zudem organisatorischer Widerstand. In 65 Prozent bis 80 Prozent der Betriebe fehlen die notwendigen Fachkenntnisse in der Datenanalyse, was die Akzeptanz der Systeme erschwert.
*Über das Autorenduo
Das Autorenduo besteht aus Anna Kobylinska und Filipe Pereira Martins. Die beiden arbeiten für McKinley Denali, Inc., USA.
Ihr Fazit lautet: Prädiktive Wartung entwickelt sich zu einem zentralen Instrument des Rechenzentrumsbetriebs.
Die Wartungskultur im deutschen Markt bewegt sich dabei erkennbar in Richtung hochgradiger Autonomie. Die Konvergenz von Digital Twins, Edge-AI und KI-gestützten Wartungssystemen ebnet den Weg zum selbstheilenden Rechenzentrum, in dem die große Mehrheit der Routineprobleme in recht naher Zukunft automatisch erkannt und behoben wird.