Fünf Best Practices von Consol Observability geht über reines Monitoring hinaus
Anbieter zum Thema
Eine komplexere Anwendungslandschaft mit Cloud, Containern und Microservices bringt klassisches Monitoring an seine Grenzen. Observability vereint dagegen Logging, Tracing und Monitoring zentral. Der IT-Dienstleister Consol nennt fünf Best Practices für Unternehmen.

Klassisches Monitoring alarmiert Administratoren bei Fehler und hilft bei der Suche nach den betroffenen Systemen. Für die Suche nach der Ursache ist dagegen ein detaillierter, ganzheitlicher Einblick in Systeme und Microservices erforderlich. Während sich Monitoring insbesondere auf die Überwachung möglicher Problemfälle konzentriert, erhält das Unternehmen im Rahmen einer Observability-Strategie Daten aus dem gesamten System. Administratoren können dadurch flexibel analysieren, was in den miteinander verknüpften Umgebungen vor sich geht.
Die Überwachung von hochkomplexen Systemen ist selbstverständlich keine triviale Aufgabe. Der IT-Dienstleister Consol hat deshalb die folgenden fünf Best Practices zusammengestellt, nach denen Unternehmen ihre Observability-Strategie ausrichten sollten.
Zielgruppen im Blick behalten
Logs sind nur dann wirklich hilfreich, wenn ihre Inhalte auf die Zielgruppe ausgerichtet sind. Dabei gibt es drei relevante Zielgruppen: Betrieb, Entwickler und Fachbereiche. Im Kontext der Observability bedeutet zielgruppengerechtes Logging also, dass die Logs genau die Informationen enthalten müssen, die für Wartung und Betrieb von Anwendungen relevant sind. Während Entwickler beispielsweise in ihren Logs haargenau sehen wollen, in welcher Code-Zeile ein Fehler auftritt, sind für Administratoren seine Auswirkungen auf andere Systemteile interessanter. Fachbereiche hingegen interessieren sich vor allem dafür, wie die geschäftlichen Use Cases laufen und ob es dort Probleme gibt.
Kosten-Nutzen-Faktor abwägen
Umfangreiches Logging ist die Basis für erfolgreiche Observability. Dennoch kann weniger manchmal mehr sein, insbesondere bei der Abwägung des Kosten-Nutzen-Faktors. Das Sammeln von Daten ist gerade im Cloud-Kontext ein großer Kostenfaktor: Nicht nur die Speicherung ist teuer, zu Buche schlagen zudem Netzwerk-Traffic und Konfigurationsaufwand. Auch die Wartung und Aktualisierung der Logging-Infrastruktur verursacht durch hohen Personalaufwand Kosten. Unternehmen sollten daher nur die Daten sammeln, die für ihre Zwecke wirklich notwendig sind.
Langfristiges und holistisches Monitoring betreiben
Gutes Monitoring als Teil einer Observability-Strategie geht weit über die Beobachtung technischer Standardmetriken wie Prozessorlast oder Arbeitsspeicherbedarf hinaus. Fachliche Metriken, etwa wie lange das Rendern von Komponenten auf einer Webseite dauert, müssen Unternehmen individuell und je nach Anwendungsfall selbst definieren. Darüber hinaus ist Monitoring erst dann wirklich effektiv, wenn es langfristig angelegt ist. Unternehmen sollten etwa nach jedem Software-Release oder der Implementierung neuer Features genau hinschauen, wie und ob sich die Performance und Gesundheit des Systems verändert haben. Voraussetzung dafür ist, entsprechende Logs in Form einer Monitoring-Historie vorrätig zu haben.
Gutes Alerting definieren
Zur holistischen Observability-Strategie gehört auch die Definition von Alerting-Regeln. Das Monitoring versorgt Administratoren mit Informationen über das System in Echtzeit, sodass sie jederzeit nachschauen können, ob alles in Ordnung ist. Weniger zeitraubend ist es, wenn das System eigenständig Alarm schlägt, zum Beispiel sobald innerhalb von fünf Minuten ein gewisser Prozentsatz von Zugriffen auf eine Anwendung Fehler aufweist. Dann können die Verantwortlichen gezielt prüfen, was nicht stimmt und wo ein Eingreifen nötig ist. Voraussetzung dafür sind geeignete Metriken, die die Applikation bereitstellt. Dazu gehören neben technischen auch fachliche Metriken, die individuell die Business Use Cases überwachbar machen, für die das System verantwortlich ist.
Offene Standards nutzen
Open-Source-Software (OSS) setzt sich auch im professionellen IT-Umfeld immer mehr als lukrative Alternative zu proprietären Varianten durch. Gerade im DevOps-Bereich sind Open-Source-Tools wie Prometheus (Monitoring und Alerting), Jaeger (Tracing), Logstash (Logging) und Kibana (Visualisierung) weit verbreitet. Die meisten von ihnen setzen auf offene Standards wie OpenMetrics, OpenTracing und OpenTelemetry. Die Vorteile von OSS und offenen Standards sind ihre Vielseitigkeit, die große Innovationskraft der Community sowie die hohe Kompatibilität und Anpassbarkeit.
(ID:48432855)