Prozessanlagen in der Datenanalyse So werden Datensammler zu Datenverstehern
Anbieter zum Thema
Mit Datenanalyse-Tools können Betreiber verdeckte Zusammenhänge zwischen Prozessparametern aufdecken – Viele haben vor Data Analytics-Projekten großen Respekt. Doch man muss nicht immer gleich die ganzen großen Räder drehen. Drei Beispielprojekte zeigen: Wer mit kleinen Schritten startet, schafft eine solide Basis für größere Vorhaben.

Prozessanlagen sind üblicherweise automatisiert und generieren eine Unmenge an Daten über Sensoren, zum Beispiel: Temperaturen, Durchflüsse, Füllstände und Druck, manuellen Analyse-Eingaben, LIMS und mehr. Daraus lassen sich mit Trendlinien einfache Zusammenhänge zwischen zwei oder drei Parametern erkennen, eine tiefere Analyse ist jedoch nicht möglich. (Big) Data-Analytics ermöglichen tiefere Einblicke und schaffen neue Zusammenhänge.
Von Daten zur Analyse bis zu Machine Learning
Dazu müssen in einem ersten Schritt die Daten aus verschiedenen Bereichen einander zugeordnet werden, beispielsweise via eindeutigen Batch-Nummern und Zeitstempeln. Das können Daten aus automatisierungstechnisch völlig getrennten Produktionsbereichen sein oder auch aus verschiedenen Automationsebenen einer Anlage – SPS, PLS, MES und ERP. Darüber hinaus können zusätzliche Messinstrumente für einige Zeit installiert werden, deren Werte separat aufgezeichnet werden – heute kabellos sehr einfach möglich.
Auch händische Aufzeichnungen eines Betriebshandbuches und Laboranalysen müssen in eine Datenbank mit einheitlichem Zeitstempel übertragen werden. Im nächsten Schritt erfolgt die Analyse dieser Daten mit ausgeklügelter Datenbereinigung, modernen Machine Learning Algorithmen und aussagekräftigen Visualisierungen.
In der Datenbereinigung werden fehlerhafte Messwerte ausgeschlossen, Daten einander zugeordnet, verschiedene Quellen vereint, Datentransformationen vorgenommen, zum Beispiel aus der Produktionszeit errechnen ob die Tag- oder Nachtschicht produziert.
So klappt es mit der Verständigung
Obwohl moderne Datenanalyse-Tools bei dieser Datenbereinigung unterstützende Funktionen bereitstellen, bleibt dies oft der aufwändigste Teil der Analyse. Anschließend sagen die Algorithmen wichtige Zielwerte einer Produktion selbstlernend vorher und alle Nutzer erkennen verdeckte Zusammenhänge zwischen den Zielwerten und den übrigen Produktionsparametern und Daten. Die zielgruppengerechte Präsentation der Analyseresultate ermöglicht einen ein konstruktiven Austausch zwischen Fach- und Datenspezialisten – ein Erfolgsfaktor für gelungene Datenanalyse-Projekte.
Eine Auswahl von Projekten, welche mit einem Aufwand von weniger als zehn Arbeitstagen bewältigt wurden, verdeutlichen den Nutzen kleinerer (Big) Data-Projekte. Bei den folgenden Projekten wurde auf eine bestehende Datensammlung zugegriffen.
Schlechte Ausbeuten in der Fermentation
Bei drei neuen baugleichen Fermentern in einem Pharmabetrieb lieferte ein Bioreaktor unter gleichen kontrollierten Bedingungen schlechtere Ausbeuten. Da die Betriebsmannschaft die Ursache nicht finden konnte, wurden die Produktions- und Prozessdaten offline mit dem Machine earning Algorithmus „Random Forest“ ausgewertet: Dieser analysiert gleichzeitig den Einfluss der verschiedenen Produktionsparameter auf die Ausbeute und prognostiziert die Ausbeute der drei Fermenter (siehe: Grafik).
Der deutliche Einfluss des Parameters Substrat-Temperaturwertes (temp_Sub1) auf die Ausbeute war aus verfahrenstechnischer Sicht unerwartet, da solche Schwankungen nur sehr sporadisch auftraten. Angeregt durch diese neuen Information hat ein Verfahrensingenieur die Isolierung einer Zulaufleitung genauer untersucht, wobei er einen Isolationsfehler entdeckte, der die Substrat-Temperatur und in der Konsequenz auch die Ausbeute beeinflusste.
Mit einer neuen intakten Isolation konnte das Problem einfach behoben werden. Dies ist eines der eindrücklichsten Beispiele einer Zusammenarbeit zwischen Fach- und Datenexperten. Denn vor der Analyse hatten Fachexperten erfolglos die Ursache gesucht, noch viel weniger hätten die Datenexperten mit ihren Algorithmen allein diesen Isolationsfehler gefunden. Doch zusammen und durch die Datenanalyse war der Fehler schnell behoben. Mit einem Aufwand von rund 80 Stunden war dies ein überschaubarer Prozess.
Predictive Maintenance bei Kompressorschäden
In einer großen Polyolefin-Produktion fiel die Gleitringdichtung des Hauptkompressors in den letzten Jahren mehrfach und unvorhersehbar mit direkten Kosten von über 100.000 Euro aus sowie einigen Tagen Stillstand pro Ausfall. In nur 40 Stunden wurde eine offline-Datenanalyse aus vorhandenen Daten von 150 Stell- und Messgrößen entwickelt.
Mit dieser Methode wurden Zusammenhänge zwischen Stillständen und einigen der gegebenen Parameter entdeckt. Dank einer Neueinstellung der relevanten Maschinenparameter durch den Hersteller und die Produktion konnten neue Schäden an der Gleitringdichtung bis dato verhindert werden.
Inbetriebnahme einer Destillationskolonne
In einer neu automatisierten Destillationskolonne schwankte die Batch-Destillation deutlich, und überschritt die Vorgabezeit um bis zu 30 Prozent, was zu einem Rückstau in der vorgelagerten Produktion führte. Vermutete Einflüsse auf die Destillationsdauer, wie die Aufheizgeschwindigkeit, konnten auf die Schnelle mit den Algorithmen nicht bestätigt werden und es gelang auch nicht die Destillationsdauer vorherzusagen.
Eine neu erstellte Visualisierung offenbarte den Grund der teilweise langen Destillation: Es gab teilweise lange Totzeiten am Ende des ersten Destillationsschritts sowie beim finalen Prozessschritt. Der Grund war dank der datenbasierten versachlichten Diskussion schnell gefunden: Die Automation erkannte nicht, dass der jeweilige Schritt beendet hätte werden können und wartete daher stundenlang vergebens. Eine kostengünstige Korrektur der Steuerung reichte, um das Problem des Rückstaus wegen langsamer Batch-Destillation zu beheben.
Diese eher simple Analyse benötigte nur zwölf Stunden, die Auswirkung auf die Produktion war aber groß. Dieses Beispiel zeigt – egal ob mit Algorithmen oder Visualisierungen – das Wesentliche ist die Datennutzung, um in Zusammenarbeit mit Fach- und Datenexperten effizient zu einer Lösung zu kommen.
Geringer Aufwand – Hoher Nutzen
Die Beispiele zeigen, dass (Big) Data Analytics auch mit sehr geringem Aufwand einen hohen Nutzen bringen. Oft gibt es eine Scheu vor dem Schritt zur Unterstützung durch solche Methoden, weil Betreiber das Schreckgespenst eines jahrelangen Softwareprojektes vor Augen haben.
Auch bei Großprojekten ist ein schrittweises Vorgehen anzuraten. In Piloten, wie den oben beschriebenen, lernt einerseits der Betreiber den Nutzen kennen und andererseits gewinnt der Data Scientist den Überblick über die bestehenden Daten. Zusätzlich erlaubt dies die nächsten Schritte zu langfristiger Datennutzung fachmännisch aufzugleisen.
Weitere Schritte auf Basis von Datenanalysen ergeben sich zum Beispiel aus datengetriebenen Online-Optimierungen der Prozessregelung bis zu ganzen Unternehmensprozessen weit über den Anlagenbetrieb hinaus (Wartung, Lieferketten, Marketing etc.). Die langfristigen Möglichkeiten gehen bis zur selbstlernenden, selbstoptimierenden, selbststeuernden und selbständig eingreifenden Künstlichen Intelligenz. Doch auch hier sollte in kleinen Schritten begonnen werden und später mit dem Erfolg zu wachsen.
Hinweis:Das Artikeloriginal ist zunächst beim Partnerportal „Process“ erschienen.
* Der Autor ist Senior Data Scientist bei VTU.
(ID:46765229)