Verwaltete Dienste wie AWS SageMaker unterstützen die Bereitstellung von ML-Frameworks mit Cloud-nativer Skalierbarkeit. In der Abbildung: Zeitreihenvisualisierung in TensorBoard, einem beliebten Toolkit für PyTorch und TensorFlow, im Rahmen von SageMaker.
(Bild: AWS)
TensorFlow ist ein quelloffenes ML-Framework von Google mit einer beispiellosen Erweiterbarkeit. Es findet Anwendung in einem breiten Spektrum von maschinellen Lernmodellen in nahezu beliebigem Umfang. Es skaliert von einer einzelnen CPU oder GPU bis hin zu Infrastrukturen im Cloud-Maßstab.
Bibliotheken wie TF-Slim zum Aufbau von neuronalen Netzwerken oder TFX für Produktionsworkflows verleihen TensorFlow eine beachtliche Vielseitigkeit. Sie umfasst Aufgaben der Bild- und Spracherkennung bis hin zur prädiktiven Analytik für die Vorhersage von Ereignissen wie Maschinenausfallzeiten basierend z.B. auf Sensordaten.
Eine Zeitreihe von Sensordaten, die verschiedene Messwerte wie Temperatur, Druck oder Vibration umfasst, muss nach dem Einlesen die sogenannte Normalisierung durchlaufen, um das Training des Modells zu ermöglichen, zum Beispiel hier in Python:
Für die Verarbeitung von Zeitreihendaten bietet sich ein neuronales Netzwerk mit LSTM-Schichten (kurz für Long Short-Term Memory) an, eine spezielle Art von rekurrenten neuronalen Netzwerken (RNNs). Diese Modelle sind darauf ausgelegt, langfristige Abhängigkeiten in sequenziellen Daten zu erfassen – also beispielsweise auch Zusammenhänge zwischen fortschreitender Materialermüdung (gemessen an Metriken wie Hitze- oder Lärmentwicklung oder Vibrationen) und der Qualitätsminderung der resultierenden Erzeugnisse. Am Beispiel einer Python-Implementierung:
Erst dann kann man es trainieren. In dieser Phase müssen die Daten bereits in einem geeigneten Format vorliegen. Für die Eingabe in ein LSTM sollten sie in 3D-Numpy-Arrays organisiert sein (Samples, Time Steps, Features). Die Aufteilung der vorliegenden Daten in Trainings- und Testdaten ist in nur wenigen Zeilen Python erledigt:
Eine TensorBoard-Visualisierung eines TensorFlow-Graphen in AWS SageMaker.
(Bild: AWS)
Dem TensorFlow-Framework liegt eine graphenbasierte Architektur zugrunde. Die Knoten in einem TensorFlow-Berechnungsgraphen repräsentieren die Rechenoperationen (z. B. Matrixmultiplikation, Aktivierungsfunktionen usw.); die Kanten bilden die Datenflüsse nach. Dieser Ansatz erleichtert die visuelle Darstellung der funktionalen Bausteine und Abhängigkeiten. Die graphenbasierte Architektur erleichtert auch die Parallelisierung und Optimierung von Berechnungen. Allerdings kann sie in einigen Fällen die Ausführung verlangsamen, insbesondere wenn der Graph sehr groß ist.
In einem Betriebsmodus namens „Eager Execution“ führt TensorFlow die Berechnungen sofort aus, ohne einen statischen Berechnungsgraphen zu erstellen. Der Verzicht auf den Aufbau von Graphen erlaubt ein höheres Maß an Interaktion und ein verbessertes Debugging-Erlebnis. TensorFlow fühlt sich dann an wie leichtgewichtiger Python-Code, nicht wie ein massives ML-Framework.
TensorFlow unterstützt die Ausführung leistungsoptimierter, komprimierter Modelle auf mobilen und eingebetteten Plattformen mit TensorFlow Lite. Mit TensorFlow.js können Machine-Learning-Modelle direkt im Browser laufen.
Googles Plattform Kaggle.com ist eine beliebte Anlaufstelle für Machine-Learning-Developer und Data Scientists.
(Bild: Martins & Kobylinska / Google)
TensorFlow Hub, das offizielle Repository für wiederverwendbare Module und vorab trainierte Lernmodelle, ging kürzlich in Kaggle auf. Diese Plattform bietet eine breitere Sammlung von Lernmodellen und ist nicht an ein bestimmtes Framework gebunden. Sowohl Unternehmen und Forschungseinrichtungen als auch Einzelpersonen können ihre Notebooks, Datasets, Lernmodelle und Kaggle-Wettbewerbe veröffentlichen.
Keras
Keras ist eine beliebte High-Level-API für neuronale Netzwerke, die auf TensorFlow aufbaut. Keras bietet einfachere Mechanismen, um mit Deep-Learning-Modellen zu experimentieren, und senkt dadurch die Einstiegshürden.
Die Klassifikation von Bildern mit Keras ließe sich zum Beispiel mit einem CNN (kurz für Convolutional Neural Network a.k.a ConvNet) umsetzen. Diese Deep-Learning-Architektur bewährt sich bei Aufgaben wie Bilderkennung, Objekterkennung und Segmentierung aufgrund ihrer Fähigkeit, hierarchische Merkmale in Rohpixeldaten wahrzunehmen.
Stand: 08.12.2025
Es ist für uns eine Selbstverständlichkeit, dass wir verantwortungsvoll mit Ihren personenbezogenen Daten umgehen. Sofern wir personenbezogene Daten von Ihnen erheben, verarbeiten wir diese unter Beachtung der geltenden Datenschutzvorschriften. Detaillierte Informationen finden Sie in unserer Datenschutzerklärung.
Einwilligung in die Verwendung von Daten zu Werbezwecken
Ich bin damit einverstanden, dass die Vogel IT-Medien GmbH, Max-Josef-Metzger-Straße 21, 86157 Augsburg, einschließlich aller mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen (im weiteren: Vogel Communications Group) meine E-Mail-Adresse für die Zusendung von Newslettern und Werbung nutzt. Auflistungen der jeweils zugehörigen Unternehmen können hier abgerufen werden.
Der Newsletterinhalt erstreckt sich dabei auf Produkte und Dienstleistungen aller zuvor genannten Unternehmen, darunter beispielsweise Fachzeitschriften und Fachbücher, Veranstaltungen und Messen sowie veranstaltungsbezogene Produkte und Dienstleistungen, Print- und Digital-Mediaangebote und Services wie weitere (redaktionelle) Newsletter, Gewinnspiele, Lead-Kampagnen, Marktforschung im Online- und Offline-Bereich, fachspezifische Webportale und E-Learning-Angebote. Wenn auch meine persönliche Telefonnummer erhoben wurde, darf diese für die Unterbreitung von Angeboten der vorgenannten Produkte und Dienstleistungen der vorgenannten Unternehmen und Marktforschung genutzt werden.
Meine Einwilligung umfasst zudem die Verarbeitung meiner E-Mail-Adresse und Telefonnummer für den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern wie z.B. LinkedIN, Google und Meta. Hierfür darf die Vogel Communications Group die genannten Daten gehasht an Werbepartner übermitteln, die diese Daten dann nutzen, um feststellen zu können, ob ich ebenfalls Mitglied auf den besagten Werbepartnerportalen bin. Die Vogel Communications Group nutzt diese Funktion zu Zwecken des Retargeting (Upselling, Crossselling und Kundenbindung), der Generierung von sog. Lookalike Audiences zur Neukundengewinnung und als Ausschlussgrundlage für laufende Werbekampagnen. Weitere Informationen kann ich dem Abschnitt „Datenabgleich zu Marketingzwecken“ in der Datenschutzerklärung entnehmen.
Falls ich im Internet auf Portalen der Vogel Communications Group einschließlich deren mit ihr im Sinne der §§ 15 ff. AktG verbundenen Unternehmen geschützte Inhalte abrufe, muss ich mich mit weiteren Daten für den Zugang zu diesen Inhalten registrieren. Im Gegenzug für diesen gebührenlosen Zugang zu redaktionellen Inhalten dürfen meine Daten im Sinne dieser Einwilligung für die hier genannten Zwecke verwendet werden. Dies gilt nicht für den Datenabgleich zu Marketingzwecken.
Recht auf Widerruf
Mir ist bewusst, dass ich diese Einwilligung jederzeit für die Zukunft widerrufen kann. Durch meinen Widerruf wird die Rechtmäßigkeit der aufgrund meiner Einwilligung bis zum Widerruf erfolgten Verarbeitung nicht berührt. Um meinen Widerruf zu erklären, kann ich als eine Möglichkeit das unter https://contact.vogel.de abrufbare Kontaktformular nutzen. Sofern ich einzelne von mir abonnierte Newsletter nicht mehr erhalten möchte, kann ich darüber hinaus auch den am Ende eines Newsletters eingebundenen Abmeldelink anklicken. Weitere Informationen zu meinem Widerrufsrecht und dessen Ausübung sowie zu den Folgen meines Widerrufs finde ich in der Datenschutzerklärung.
Ein neuronales Netz vom Typ CNN für Bildklassifikation.
(Bild: AIM India)
CNNs folgen einer hierarchischen Struktur. Ein einfaches CNN besteht aus einer Abfolge von Faltungs-Schichten (im Fachjargon CONV, kurz für Convolutional) und Pooling-Schichten (POOL), gefolgt von vollständig verbundenen Schichten (dense layer oder FC für fully connected) für die Klassifikation.
Die Faltung-Schichten extrahieren lokale Muster (Merkmale) aus dem Eingangsbild. Eine Pooling-Schicht reduziert die räumlichen Dimensionen nach jeder CONV-Schicht und somit die Anzahl der Parameter, um das Netzwerk robuster gegenüber Variationen zu machen. Zu guter Letzt nehmen vollständig verbundene („dichte“) Schichten die von den vorherigen Schichten gelernten Merkmale auf und kombinieren sie, um Vorhersagen zu treffen.
In Python entsteht das benötigte ML-Modell nach dem Importieren der erforderlichen Keras-Module mittels:
Um das ML-Modell zu trainieren, können Entwickler zum Beispiel den Dataset Fashion MNIST verwenden, eine Sammlung von 60.000 Trainingsbildern und 10.000 Testbildern, die in 10 Kategorien klassifiziert sind.
Die Einspeisung und Aufbereitung der Daten erfolgt in Python mittels:
(train_images, train_labels), (test_images, test_labels) = fashion_mnist.load_data()# Skalieren der Bilder auf einen Wertebereich von 0 bis 1 train_images = train_images / 255.0 test_images = test_images / 255.0# Erweitern der Bildmatrix für die Nutzung in einem CNN train_images = train_images[..., tf.newaxis] test_images = test_images[..., tf.newaxis]
Beim Kompilieren des Modells muss man den Optimierer, die Verlustfunktion und die Metriken festlegen, die während des Trainings und in der Validierungsphase des Modells bewertet werden sollen: