Netzwerke durch Überlastung gefährdet Vermessung des IT-Rückgrats: Netzwerke im Gesundheitscheck

Redakteur: Ulrich Roderer

Um einen Fehler in einem optischen Netzwerk ausfindig zu machen und auch zu lokalisieren, sind drei wesentliche Messungen nötig: die Dämpfungsmessung, die Dispersionsmessung und die Spektralanalyse.

Firmen zum Thema

Damit das gesamte Leistungspotential der modernen Netzwerke voll ausgenutzt werden kann, muss auch der physikalische Zustand der Leitungen optimal sein. Schon kleinste Fehler bei der Verlegung der Leitungen können deutliche Leistungseinbußen zur Folge haben. (Bild: dacoso)
Damit das gesamte Leistungspotential der modernen Netzwerke voll ausgenutzt werden kann, muss auch der physikalische Zustand der Leitungen optimal sein. Schon kleinste Fehler bei der Verlegung der Leitungen können deutliche Leistungseinbußen zur Folge haben. (Bild: dacoso)

Netzwerke jeglicher Art sind heute eine Selbstverständlichkeit. Dabei werden in Unternehmen immer mehr Glasfaserkabel gelegt, um Rechenzentren oder Speichernetzwerke leistungsstark miteinander zu verbinden. Sie sind das Rückgrat ohne das weder Standardanwendungen im Unternehmen zu realisieren sind noch moderne Umgebungen mit Virtualisierung oder Cloud-Diensten.

Doch schon ein kleiner Fehler bei der Verlegung der Kabel kann empfindliche Leistungseinbußen zur Folge haben – und diese kann sich heutzutage kaum noch ein Unternehmen leisten. Eine Lösung, um Mögliche Probleme ausfindig zu machen und den vollen Nutzen aus den Investitionen in das Netzwerk zu erhalten, sind spezielle Messverfahren und die Lokalisierung von Fehlern.

Es ist offensichtlich, dass Netzwerke im Laufe der Zeit stetig mehr zu leisten haben. Datenmengen steigen, die Dateien werden größer, Anwendungen benötigen mehr Netzwerkleistung. Während noch vor einigen Jahren kaum ein Unternehmen den Leistungseinbußen im Netzwerk allzu große Bedeutung schenkte, sind Firmen mittlerweile auf alle theoretisch nutzbaren Ressourcen angewiesen. Selbst geringe Performance-Verluste sind heute kaum noch akzeptierbar und dies nicht nur vor dem Hintergrund der Kosten, sondern auch in Hinblick auf die Zuverlässigkeit und Leistung.

Zuverlässige Leistung nur bei intakter Leitung

Unternehmen investieren aufgrund der immer höheren Anforderungen in schnellere Netzwerktechnologien. Beispielsweise 8 Gbit FC SANs sind heute im Rechenzentrum keine Seltenheit. Damit das gesamte Leistungspotential der modernen Netzwerke voll ausgenutzt werden kann, muss auch der physikalische Zustand der Leitungen optimal sein. Schon kleinste Fehler bei der Verlegung der Leitungen können deutliche Leistungseinbußen zur Folge haben.

„Die Vorgehensweise bei deutlichen Leistungsverlusten in einem Netzwerk besteht im ersten Schritt aus der Fehlersuche bei den Endgeräten. Switche, Router, Netzwerkkarten oder FCPs beispielsweise werden genau geprüft. Dabei zeigt sich jedoch immer wieder, dass die Endgeräte ihren Dienst einwandfrei verrichten und der Fehler im Netzwerk selbst liegt“ sagt Klaus Petry, Senior System Consultant von der dacoso GmbH. „Die Messverfahren für Netzwerke sind kompliziert und erfordern viel Erfahrung und ein spezielles Equipment, das von Messinstrumenten bis hin zu hochspezialisierten Softwarekomponenten reicht. In Deutschland gibt es dabei nur eine Handvoll Unternehmen, die Fibre-Netzwerkmessungen über die gesamte Bandbreite hinweg durchführen können.“

weiter mit "Fehlersuche durch drei verschiedene Messverfahren"

Fehlersuche durch drei verschiedene Messverfahren

Um einen Fehler in einem optischen Netzwerk ausfindig zu machen und auch zu lokalisieren, sind drei wesentliche Messungen nötig: die Dämpfungsmessung, die Dispersionsmessung und die Spektralanalyse.

In Fibre Netzwerken nutzen optische Übertragungsgeräte einen Wellenlängenbereich von 1530 nm bis 1615 nm den man mit einer Dämpfungsmessung überprüfen kann. Bei Verlege-Fehlern des Glasfaserkabels zeigt sich im Bereich höherer Wellenlänge eine stark ansteigende Dämpfung. Dies lässt sich mit einer OTDR-Messung bei 1625 nm testen. In besonders anspruchsvollen Umgebungen empfiehlt sich daher die Messung der optischen Parameter der Faser, bevor diese in Betrieb genommen wird.

Dispersionsmessung

Bei der Dispersionsmessung muss man zwischen der Chromatischen Dispersion und der Polarisations-Moden-Dispersion unterscheiden. Die chromatische Dispersion (CD) beschreibt das Phänomen, dass nicht alle Wellenlängen, die durch eine Faser übertragen werden, die gleiche Geschwindigkeit haben. Vielmehr pflanzt sich jede Wellenlänge mit ihrer eigenen, spezifischen Geschwindigkeit fort. Dadurch kommt es zu Signalverzerrungen. Benutzt man verschiedene Wellenlängen in einer Faser, sollte man wissen, ob dadurch die Daten beeinflusst werden. Die Polarisations-Moden-Dispersion (PMD) beschreibt das Phänomen, dass sich eine Lichtwelle, welche in unterschiedlichen Richtungen schwingen kann, beispielsweise horizontal und vertikal, unterschiedlich schnell in diesen Schwingungsrichtungen ausbreiten kann. Dies wird verstärkt durch Umwelteinflüsse, wie Dehnung oder Biegung der Faser und macht sich bei unterschiedlichen Wellenlängen verschieden stark bemerkbar. Auch hier ist vor der Verwendung der Faser eine Beurteilung der optischen Charakteristik notwendig, um einen fehlerfreien Betrieb zu garantieren.

Spektralanalyse

Im Gegensatz dazu grenzt die Spektralanalyse die Fehlerquellen von der Übertragungstechnik oder dem Übertragungskanal ab. Insbesondere in WANs kommen Übertragungssysteme mit einer Vielzahl von Übertragungskanälen auf einer Faser in Form von CWDM- und DWDM-Systemen zum Einsatz. Treten in einem oder mehreren Übertragungskanälen Bit-Fehler auf, kann eine detaillierte Analyse des Übertragungssystems die Fehlerquelle zeigen.

Messung der Protokolle

Mit Hilfe spezieller Messverfahren und dem entsprechenden Equipment kann zusätzlich zur Messung der eigentlichen Glasfaser die einwandfreie Datenübertragung über die Protokolle geprüft werden. In Ethernet Netzwerken sind folgende Messungen möglich: Loop up/down oder far-end-device, Bitfehlermessung, Durchsatzmessung/Auslastung, Latency gemäß RFC2544, QoS/CoS Messungen,Ethernet L2 (constant, burst, ramp, flood), IP (L3 – konfigurierbare Quell/Ziel-IP-Adresse, DNS Typ, DNS Server Tx Payload, Packet Size (34-1500 bytes, Jumbo Frames), Ping, Trace route), Class of Service, Quality of Service. ESCON hingegen erfordert spezifische Analysen, die sich mit einem ESCON-Protokollanalyzer testen und eingrenzen lassen. Bei der Protokollanalyse für Fibre Channel und FICON ist eine Suche nach Problemen auf Bauteilebene fast unerlässlich.

weiter mit "Analyse plus Statistiken"

Analyse plus Statistiken

Die Messung der Glasfaser und der Protokolle ist nur der erste Schritt zur Lokalisierung von möglichen Fehlerquellen bei der Datenübertragung im Netzwerk. Ein weiterer Schritt ist die Error-Log-Analyse, die einen genauen Aufschluss darüber geben kann, wo der Flaschenhals im Netzwerk zu finden ist. Hinzu kommt eine Performance-Analyse, denn die tatsächlich übertragene Datenmenge im SAN ist von vielen Faktoren abhängig. Auch wenn man heutige Speichernetzwerke mit 8 Gb/s betreibt, kann es insbesondere durch den Einsatz von Virtualisierungstechnologien zu Engpässen oder Überlastungen kommen. dacoso beispielsweise bietet dafür selbst entwickelte Testgeräte (dEGboxen), mit denen man valide Fibre Channel Daten mit einer Geschwindigkeit von bis zu 8Gb/s dauerhaft erzeugen kann. Zusammen mit einem zwischengeschalteten Fibre Channel Analyzer kann so die maximal mögliche Datenübertragungsrate ermittelt werden. Statistiken der beteiligten Geräte werden zeitsynchron mit protokolliert. In diesem Zusammenhang kann auch das Zusammenspiel unterschiedlicher Komponenten getestet werden. Nicht selten kommt es vor, dass die einzelnen Systeme ihre volle Leistung bringen, jedoch Probleme bei der Kommunikation untereinander entstehen. In heterogenen Umgebungen ist dies nicht selten der Fall.

Kostenfalle Netzwerk vermeiden

Während noch vor wenigen Jahren die Netzwerktechnologie den Anforderungen in der Industrie weit voraus war, hat sich die Situation heute weitgehend geändert. Immer größere Datenmengen müssen in wesentlich kürzerer Zeit bereitgestellt werden, was oftmals Speichernetze an ihre Grenzen bringt. Selbst modernste Technologien wie 8 Gbit SANs werden heute in voller Bandbreite genutzt. Grund hierfür ist im Wesentlichen die Virtualisierungstechnologien, die auf der Server-Seite existierende Ressourcen wesentlich besser nutzen - dadurch aber, im Zusammenspiel mit hochperformanten Speichersystemen, das Netzwerk deutlich stärker belasten. Unternehmen sind darauf angewiesen, dass die hohen Investitionen in die IT auch den maximalen Nutzen bringen und dabei darf das Netzwerk nicht zum kostspieligen Flaschenhals werden.

(ID:32881330)