Verloren im Labyrinth der IT-Begriffe? Hier finden Sie Definitionen und Basiswissen zu Rechenzentrums-IT und -Infrastruktur.

Ressourcenplanung mit Mathe Was ist Big O Notation?

Von Andreas Th. Fischer 3 min Lesedauer

Anbieter zum Thema

Big O Notation ist ein mathematisches Konzept, das auch im Datacenter eine große Rolle spielen kann, da sich damit die eingesetzten Algorithmen und Lösungen auf ihre Effizienz und Skalierbarkeit prüfen lassen.

Big O Notation lässt sich unter anderem einsetzen, um den aktuellen Ressourcenverbrauch in einem Rechenzentrum zu verstehen und zu optimieren.(Bild:  © djarma/ Fotolia.com)
Big O Notation lässt sich unter anderem einsetzen, um den aktuellen Ressourcenverbrauch in einem Rechenzentrum zu verstehen und zu optimieren.
(Bild: © djarma/ Fotolia.com)

Der ungewöhnliche Begriff „Big O Notation“ (mit großem Buchstaben O und nicht mit einer Null) beschreibt die Effizienz von Algorithmen (PDF) und hilft dabei zu verstehen, wie diese sich mit zunehmender Größe eines Problems oder auch einer Aufgabe verhalten. Big O Notation lässt sich unter anderem einsetzen, um den aktuellen Ressourcenverbrauch in einem Rechenzentrum zu verstehen und zu optimieren.

Sowohl in der Informationstechnik als auch im Datacenter spielen effiziente Algorithmen eine wichtige Rolle. Mathematiker haben daher das Konzept der Big O Notation (auch verkürzt als „O Notation“ oder im Deutschen als „Landau-Symbole“ bezeichnet) entwickelt, um damit Algorithmen zu analysieren und besser zu verstehen. Damit lässt sich prüfen, wie schnell oder langsam ein Algorithmus ausgeführt wird, wenn sich ein Faktor wie die Eingabegröße ändert.

Big O Notation in der Praxis

Auch in der Informatik gibt es zumeist mehr als nur eine einzige mögliche Lösung eines bestimmten Problems. Entwickler haben trotzdem meist das Ziel, genau die eine Lösung zu finden, die am effizientesten zu sein verspricht.

Aber was ist eine effiziente Lösung? Nach Ansicht der meisten Datacenter-Betreiber dürfte es diejenige sein, die am wenigsten Ressourcen benötigt und daher auch die geringsten Kosten verursacht. Oder vereinfacht gesagt: Je weniger Ressourcen er benötigt, desto effizienter ist ein Algorithmus.

Zwei der Ressourcen werden im Datacenter dabei immer wichtiger. Das liegt zum Einen an der benötigten Zeit, um eine Aufgabe zu lösen und zum Anderen an den dafür erforderlichen Speicher. Beide Ressourcen lassen sich relativ leicht messen. Für die Zeit genügt eine Stoppuhr, während der benötigte Speicher in Byte, KByte, MByte oder GByte quantifiziert werden kann.

Beispiel für die Notation von Big O(Bild:   / CC BY )
Beispiel für die Notation von Big O
(Bild: / CC BY )

Die benötigte Zeit hängt noch von vielen Faktoren ab. Ein schnellerer Prozessor, mehr Arbeitsspeicher und moderne Speichermedien sorgen für eine beschleunigte Ausführung im Vergleich zu einem älteren System, das auf dieselbe Aufgabe angesetzt wird. Dazu muss man allerdings anmerken, dass selbst bei vollständig baugleichen Systemen aus verschiedenen Gründen zumindest leichte Schwankungen bei der Durchführung von Prozessen auftreten, die sich aber messen lassen.

Bedeutung von Big O Notation für Datacenter-Betreiber

Big O Notation kann genutzt werden, um vorherzusagen, wie sich Systeme bei wachsenden Datenmengen verhalten und wie ihre Hardware dafür angepasst werden muss. Auch lassen sich damit ineffiziente Algorithmen identifizieren und durch effizientere Alternativen ersetzen. Letztlich führt das zu einer besseren Planung und Nutzung der vorhandenen Ressourcen.

Big O Notation lässt sich zudem nutzen, um herauszufinden, wie sich ein Algorithmus verhält, wenn die erforderliche Zeit beziehungsweise der benötigte Platz steigen. Das ist bei Datenbankanfragen nützlich, um zu prüfen, wie schnell sie auf wachsende Datenmengen zugreifen kann.

Es gibt verschiedene Möglichkeiten, wie sich Änderungen messen lassen. So spricht man von linearen Verteilungen, wenn Daten nacheinander bearbeitet werden, um das gewünschte Ergebnis zu erhalten. Probleme lassen sich jedoch auch logarithmisch lösen, indem bei jedem Schritt die Problemgröße halbiert wird. Wenn dagegen immer alle Daten mit allen anderen Daten verglichen werden, spricht man von einem quadratischen Verhalten.

Fazit

Mit Big O Notation steht den Technikern ein Werkzeug zur Verfügung, mit dem sie Effizienzen bewerten können. Statt der Zeit in Sekunden oder Minuten werden dann etwa die Schritte gezählt, die bis zur Erfüllung einer Aufgabe benötigt werden. Beim Platzbedarf geht man dagegen von den benötigten Bytes aus.

Auch die Effizienz von Algorithmen zur Lastverteilung im Datacenter lässt sich mit Big O Notation analysieren. So führt etwa ein ineffizienter Algorithmus zu Verzögerungen, wenn die Zahl der Anfragen in großen Cloud-Rechenzentren steigt. Sie müssen sicherstellen, dass die Datenpakete möglichst effizient von einem Server zum nächsten transportiert werden, was wiederum eine hohe Effizienz der Routing-Algorithmen erfordert, um Engpässe und Latenzen zu minimieren.

Mit Big O Notation lässt sich herausfinden, wie sich die Laufzeit oder der Ressourcenverbrauch eines Algorithmus verhalten, wenn sich die Menge an Daten ändert, die er verarbeiten muss. Gerade in Anbetracht der zunehmenden Bedeutung von Big Data und Large Language Models (LLMs) in Rechenzentren kommt der Effizienz der genutzten Algorithmen eine entscheidende Rolle zu.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu RZ- und Server-Technik

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung

Artikelfiles und Artikellinks

(ID:50288377)