Klassische Monitoring-Lösungen müssen in zunehmend komplexen IT-Strukturen zwangsläufig an ihre Grenzen stoßen, meint Alexander Weber. Was das für moderne Infrastrukturen bedeutet, erläutert der Regional Vice President Central Europe von DataDog im Gespräch mit Dev-Insider.
DevOps kann zu einem sehr komplexen Ökosystem von Tools führen, so dass es gerade auf Entscheiderebene schwieriger wird, Einblicke und Erkenntnisse zu gewinnen.
Alexander Weber: „Das inzwischen weithin akzeptierte DevOps-Modell muss im Bereich der Sicherheit erweitert werden, um auch dieses Silo abzubauen.“
(Bild: DataDog)
Dev-Insider: Hi Alex, in deinem Gastbeitrag „Container-Probleme mit Security und Monitoring“ wirfst du die Frage nach der Sicherheit in modernen Infrastrukturen auf. Für welche Infrastrukturen eignen sich klassische Monitoring-Ansätze überhaupt noch und wo sind sie – oder auch die, die den Überblick behalten müssen – maßlos überfordert?
Alexander Weber: Eigenständige, monolithische Anwendungen werden nach wie vor häufig eingesetzt, vor allem in sich langsam entwickelnden Branchen, so dass die klassischen Ansätze bis heute überleben konnten. Da jedoch der Druck wächst, neue Werte zu liefern und das Unternehmen in hart umkämpften Märkten über Wasser zu halten, nimmt auch die Komplexität der unterstützenden Softwaresysteme zu, und die klassischen Werkzeuge können nicht mehr mithalten.
Zunächst einmal erfordern sie viel manuelle Arbeit, die sich nicht gut skalieren lässt. Darüber hinaus sind mittlerweile nicht mehr nur Anwendungen gefährdet, da Angreifer jetzt zum Beispiel auch die zugrunde liegenden Infrastrukturen und Delivery-Pipelines angreifen können. Klassische Tools konzentrieren sich in der Regel nur auf einen Teil des Systems und können moderne Architekturen nicht unterstützen, bei denen die vollständige Beobachtung des Stacks für den erfolgreichen Betrieb von Softwaresystemen, die Ursachenanalyse oder die Threat-Evaluation erforderlich ist.
Mit der Umstellung auf die Cloud werden die Ressourcen der Unternehmen noch dünner, denn der Aufwand muss nun verdoppelt werden, um die gesamte Landschaft abzudecken. Insbesondere im Bereich der Sicherheit, der schon immer als ein spezielles Silo innerhalb einer Organisation betrachtet wurde, muss das inzwischen weithin akzeptierte DevOps-Modell erweitert werden, um auch dieses Silo abzubauen.
Wir brauchen also DevSecOps. Moderne Tools müssen diesen Ansatz verfolgen und umsetzen, verschiedene Datenquellen aus allen Teilen des Systems korrelieren sowie eine Threat-Erkennung (möglicherweise mit Hilfe von KI) und Analyse-Dashboards out-of-the-box bieten, damit sich die Teams auf die Schaffung neuer Werte konzentrieren können.
Dev-Insider: Ab welcher Ausprägung oder Größe wird es in einem Container-Cluster denn eurer Meinung nach richtig unübersichtlich?
Weber: Wie bei allen technischen Fragen ist die Antwort sehr einfach: „Es kommt darauf an!“ Nicht jeder Cluster ist gleich aufgebaut und organisiert, und es können viele verschiedene Container eingesetzt werden. Glücklicherweise sind Container-Technologien mit bekannten Best Practices bereits gut etabliert und ermöglichen sehr effiziente Lösungen.
Wenn es jedoch um das Monitoring geht, kann selbst ein kleiner Cluster mit nur einer Handvoll Knoten unüberschaubar werden, wenn ein Entwickler viel manuelle Arbeit leisten muss, etwa die Ausführung vieler kubectl-Befehle. Ein intelligenter Ansatz ist es, diesen Prozess zu automatisieren.
Eine inhärente Eigenschaft von DevOps ist aber, dass jeder dafür verantwortlich ist, dass sein Microservice wie erwartet läuft, was auch das Monitoring einschließt. Dies kann zu einem sehr komplexen Ökosystem von Tools führen. Daher wird es schwieriger, Einblicke gerade auf Entscheiderebene zu gewinnen. Die Daten sind zwar vorhanden, lassen sich aber nur schwer zusammenbringen und auswerten.
Um dieses Problem zu lösen, ist es notwendig, ein umfassendes Monitoring-Tool zu haben, das – auch unter Verwendung von Autodiscovery – eine einheitliche Sicht auf alle Teile eines Systems bietet. Letztlich muss es dem Team ermöglichen, zusammenzuarbeiten, ihre Daten zu korrelieren, Erkenntnisse zu gewinnen und geschäftskritische Entscheidungen zu treffen.
Dev-Insider: In Microservice-Strukturen kann ja jederzeit irgendwo ein Dienst oder Container „aufploppen“. Wie funktioniert das Aufspüren von Containern genau bzw. welche Mittel und Wege gibt es?
Weber: Container-Orchestrierungstechnologien wie Docker, Kubernetes oder OpenShift legen ihre APIs offen, so dass Monitoring-Tools mit ihnen interagieren und verschiedene Metriken in ihren der Plattform erfassen können. Auf dieselbe Weise können wir diese APIs nutzen, um neue Container (und auch andere Architekturelemente) zu entdecken. Um die Aufgaben für die Teams noch einfacher zu machen, ist es auch möglich, diesen Prozess anzupassen, zum Beispiel durch die Bereitstellung von Benennungsregeln oder die automatische Zuweisung von Tags für eine einfachere Analyse später.
Dev-Insider: Datadog fährt ja gerade eine Expansionsstrategie im deutschsprachigen Raum. Liegt hier noch mehr Potenzial als in anderen Märkten?
Weber: Die deutschsprachige, also DACH- Region bietet ein großes Potenzial in Europa, weshalb wir sie zu einem wichtigen strategischen Schwerpunktgebiet gemacht haben. Weltweit wachsen wir schnell, sowohl in Bezug auf die Mitarbeiterzahl als auch auf den Umsatz, und das gilt auch für Europa und die deutschsprachige Region.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Dev-Insider: Wer oder was sind im Observability-Markt die größten Treiber?
Weber: Der Wettbewerbsdruck verlangt nach immer mehr und immer digitaleren Services für die Endkunden. Diese Services müssen sehr agil aufgesetzt und anpassbar sein und hohe Stabilität aufweisen. Genau hier kommt Datadog ins Spiel. In den Unternehmen sehen wir die Entwickler als größten Treiber, denn diese haben natürlich eine hohe Neigung, entsprechende Lösungen einzusetzen. Aber auch im Top-Management ist das Thema inzwischen durchaus angekommen.
Alexander Weber ist Regional Vice President Central Europe bei Datadog, der Überwachungs- und Sicherheitsplattform für Cloud-Anwendungen. Weber, der über knapp 20 Jahre Vertriebs- und Managementerfahrung verfügt, zeichnet in der Rolle das operative Geschäft und das Wachstum von Datadog in den Kernregionen DACH, BeNeLux sowie Osteuropa verantwortlich. Vor seinem Wechsel zu Datadog Ende 2021 war Alexander Weber bei dem IT-Security-Anbieter Tanium als Regional Vice President für Deutschland beschäftigt. Davor war er Director of Sales bei ServiceNow. Weitere Stationen seiner Karriere umfassen unter anderem Juniper Networks, CA Technologies und Dell. In seiner neuen Position bei Datadog berichtet Weber direkt an Patrik Svanström, Vice President EMEA Sales.