Echtzeitauswertung In-Memory-Computing für Analyseprojekte in Unternehmen

Autor / Redakteur: Mathias Golombek* / Franz Graser

In-Memory-Datenbanken verarbeiten sehr große Datenmengen direkt im Hauptspeicher. Dadurch ist eine Datenanalyse quasi in Echtzeit möglich – unter anderem eine wichtige Voraussetzung für Industrie 4.0.

Firmen zum Thema

Datengetriebenen Unternehmen bieten In-Memory-Datenbanken Flexibilität: Die Lösungen sind leicht zu implementieren und höchst skalierbar, was zu einer deutlichen Entlastung der eigenen IT-Ressourcen beiträgt.
Datengetriebenen Unternehmen bieten In-Memory-Datenbanken Flexibilität: Die Lösungen sind leicht zu implementieren und höchst skalierbar, was zu einer deutlichen Entlastung der eigenen IT-Ressourcen beiträgt.
(Bild: EXASOL)

Die Industrie ist dabei, Big Data und ihre Potenziale für sich zu entdecken: Produzierende Unternehmen setzen Business-Intelligence-Tools immer vielfältiger ein. Die Machine-to-Machine-Kommunikation sorgt hier dank umfassender Analysemöglichkeiten sowie schneller Datenbanktechnik für eine immer größere Vielfalt an ‘Value Data‘, die den Weg zur ‘Smart Factory‘ ebnet.

Wer das richtige Werkzeug einsetzt, kann die durch Big Data-Analysen gewonnenen Erkenntnisse in unternehmerisches Gold verwandeln: Damit lassen sich nicht nur Produktionsprozesse analysieren und optimieren, sondern auch strategische Entscheidungen präziser an den realen Anforderungen des Unternehmens ausrichten.

In-Memory-Computing – Vorteile und Nutzen

Die Welt der Daten ist im Zuge der fortschreitenden Digitalisierung deutlich komplexer geworden, Datenquellen und Datenmengen wachsen rasant an – für Unternehmen eine immense Herausforderung. Die gezielte Befragung der Datenflut sowie das Erkennen und Darstellen der Zusammenhänge sind für sie unerlässlich geworden: Unternehmens-, Produkt- oder Kundendaten müssen im Subsekundenbereich analysiert werden; Engpässe in der Lieferkette sind zu identifizieren, am besten noch bevor sie entstehen oder ernste Probleme erwachsen.

Für solch komplexe und schnelle Analysen liefern so genannte In-Memory Datenbanken die notwendige Geschwindigkeit. Dabei werden sehr große Datenmengen im Hauptspeicher – und damit nahezu in Echtzeit – gehalten und verarbeitet.

Die Datenanalyse vereinfacht sich erheblich, da hier strukturierte und unstrukturierte Daten aus verschiedenen Vorsystemen direkt analysiert werden können – ein vorheriges Aggregieren von Basisdaten ist nicht mehr zwingend erforderlich. Herkömmliche Datenbanken sind zwar für sämtliche Prozesse auf Festplatten optimiert, diese sind im Vergleich zum Hauptspeicher jedoch sehr viel langsamer.

Ergänzendes zum Thema
Vorteile von In-Memory-Datenbanken
  • Schnellste Analysetechnik für große Datenmengen (Big Data)
  • Beliebige Skalierbarkeit
  • Branchenunabhängig
  • Ideale Datenbank-Ergänzung, da nahtlos integrierbar
  • Echtzeitanalyse großer Datenmengen bei geringem TCO (Total Cost of Ownership)

Der Zugriff auf im Hauptspeicher liegende Daten ist um den Faktor 50.000 schneller als der Zugriff auf Daten, die sich auf der Festplatte befinden. In der Praxis lassen sich zum Beispiel Analysen, die einst mehrere Stunden in Anspruch genommen haben, auf nur wenige Minuten oder sogar Sekunden verkürzen.

Datengetriebenen Unternehmen bieten In-Memory-Datenbanken zudem das benötigte Maß an Flexibilität: Die Lösungen sind leicht zu implementieren und höchst skalierbar, was zu einer deutlichen Entlastung der eigenen IT-Ressourcen beiträgt.

Das für In-Memory-Lösungen zu investierende Gesamtbudget hängt stark vom Einzelfall und der bereits bestehenden Infrastruktur ab. Allerdings geht es oft gar nicht darum, existierende Systeme abzulösen und teure Migrationsprojekte durchzuführen. In-Memory Datenbanken werden oftmals als zusätzliche Hochleistungs-Schicht implementiert, die anstelle von kostenintensiven Aufrüstungen existierender Datenbank-Systeme in Erwägung gezogen werden. Durch eingesparte Hardware-Investments, höherer Produktivität und geringem Administrationsaufwand ergibt sich somit sogar oftmals ein positiver Return on Investment.

Big-Data-Projekte kostengünstig umsetzen

Selbst bei knappem Budget lassen sich mithilfe von flexibel skalierbaren Software-as-a-Service- oder Cloud-Lösungen Big-Data-Projekte erfolgreich und kostengünstig umsetzen. So können auch mittelständische Unternehmen leistungsfähige Lösungen einsetzen, da für die Implementierung nur wenig Know-how im eigenen Haus aufgebaut werden muss und initiale Investitionen sowie die Verantwortung für die gesamte Hard- und Software entfallen. Auch Projektdauer und -komplexität können hierdurch reduziert werden. Zudem bieten flexible Laufzeiten und Skalierungsmöglichkeiten im SaaS-Bereich mehr Agilität und weniger Risiko.

Technik und Budget alleine genügen jedoch nicht, um die verborgenen Big-Data-Schätze zu heben. Auch eine fundierte Technologie-Expertise im Unternehmen ist eine essentielle Entscheidungsgrundlage für die Einführung von In-Memory-Datenbanken. Big Data sollte deshalb fester Bestandteil der Unternehmensstrategie sein, und nicht nur eine rein technische IT-Diskussion.

Auch deshalb gibt es in immer mehr Firmen einen Chief Data Officer. Eine enge Verzahnung zwischen analytischer Expertise, Know-how der eigenen Fachbereiche sowie der IT-Landschaft sind hier der Schlüssel zum Erfolg. Dem aktuellen Trend folgend bilden sich hier immer öfter hochspezialisierte Data-Science-Teams heraus, die es verstehen, die unterschiedlichen optimalen Daten-Management-Technologien zu einem funktionierenden Ökosystem zu kombinieren.

Mit Big-Data-Analyse zur smarten Fabrik der Zukunft

Im „Rohstoff“ Daten verbergen sich vielfältige Quellen zur Optimierung betrieblicher Prozesse, von Arbeitsabläufen sowie der Qualität. Dieses Potenzial erkennen deutsche Industrieunternehmen bereits: Eine aktuelle Erhebung von Capgemini zeigt, dass unter 1.000 Entscheidern ganze 61 Prozent in Big Data bereits jetzt eine eigenständige Umsatzquelle sehen, die für Unternehmen genauso wertvoll wird, wie Produkte und Dienstleistungen. 43 Prozent der Befragten gaben an, sich zu reorganisieren, um neue Geschäftschancen durch Big Data zu nutzen.

Traceability in der Elektronikfertigung: Produktions- und Qualitätskennzahlen der verkauften Leistungshalbleiterkomponenten lassen sich bei Semikron innerhalb der vorgeschriebenen Aufbewahrungsfristen zurückverfolgen.
Traceability in der Elektronikfertigung: Produktions- und Qualitätskennzahlen der verkauften Leistungshalbleiterkomponenten lassen sich bei Semikron innerhalb der vorgeschriebenen Aufbewahrungsfristen zurückverfolgen.
(Bild: Tilman Weishart/Semikron)

Von den Vorteilen des Einsatzes einer Big-Data-Analysesoftware im Produktionsumfeld profitiert das Unternehmen Semikron Elektronik: Der Hersteller für Leistungselektronik setzt seit einigen Jahren für sein Spezialgebiet Messdatenarchivierung ein flexibles In-Memory-Datenbank-Management ein. Bis dahin wurden Messergebnisse in auftragsspezifischen Dateien auf einen Fileserver kopiert und mit einem einfachen Index (Auftragsnummer, Anlage, Datum) in einer SQL-Tabelle versehen, um vertragliche Vereinbarungen zur Aufbewahrung dieser Daten zu erfüllen.

Für das monatliche Berichtswesen wurden relevante Qualitätskennzahlen manuell in Excel kopiert und zusammengestellt, um anschließend Diagramme für den Vormonat zu generieren. Der monatliche Zeitaufwand betrug je nach Bedarf fünf bis zehn Personen-Wochen.

Echtzeit-Auswertungen der Produktion waren aufgrund des hohen manuellen Aufwands unmöglich, ebenso wenig ein Zuordnen der einzelnen Messergebnisse aus vorgehenden oder nachfolgenden Prozessen aus der internationalen Wertschöpfungskette.

Anforderungen an die Datenbank

Die Datenbank sollte nicht nur vielschichtige Ad-hoc-Analysen ermöglichen, sondern vor allem einen schnellen Zugriff auf alle Messdaten garantieren. Ziel war, die Daten in eine relationale Datenbank einzugeben und daraus – je nach Bedarf – verschiedene Export-Formate wie qs-STAT (Q-DAS), MiniTab und CSV bereitzustellen.

Eine Praxisherausforderung an das Berichtswesen war es beispielsweise, für bestimmte Produktgruppen und ausgewählte Merkmale einen Boxplot zur Ermittlung der Wertverteilung aller Aufträge des vergangenen Monats zu erstellen. Für eine einzige Produktgruppe betrug der ursprüngliche Aufwand eine Woche pro Monat. Dieses Pensum konnte durch die neue Datenbank auf eine Minute pro Monat reduziert werden.

Neue Dimension der Datenanalyse

Die größte Herausforderung war aber der Anschluss diverser internationaler Standorte sowie von 60 Messanlagen an die Hochleistungsdatenbank. Bei der Fertigung von Leistungshalbleitermodulen und -systemen, etwa am Standort in der Slowakei, sorgen in einem ersten Schritt spezielle Eingabe-Plugins dafür, dass die ankommenden heterogenen Mess- und Prozessdaten vereinheitlicht und auf einem internationalen Server abgelegt werden.

In einem zweiten Schritt erfolgt der Transfer dieser standardisierten Daten vom internationalen Server auf einen zentralen Server in Deutschland. Dann werden die Daten entpackt und an die In-Memory-Datenbank weitergegeben: Dort stehen sie für analytische Abfragen und Reports bereit.

Die Verteilung der Daten im Cluster erfolgt automatisch, so dass bei Berechnungen sämtliche Hardware-Ressourcen optimal genutzt und alle Informationen während des Prozesses in Spalten – und nicht in Zeilen – gespeichert werden. Das Datenbanksystem ermittelt zudem selbständig, wie die ideale Systemkonfiguration aussieht. Dem Administrator bleiben damit die Analyse der Queries sowie die manuelle Erstellung der dafür benötigten Indizes erspart.

Alles bestens

Durch den Einsatz der In-Memory-Datenbank konnte der Leistungselektronik-Hersteller ein ganzheitliches Mess- und Prozessdatenarchiv über alle Standorte hinweg etablieren. Produktions- und Qualitätskennzahlen der verkauften Leistungshalbleiterkomponenten lassen sich nun innerhalb der vorgeschriebenen Aufbewahrungsfristen vornehmen.

Zudem können die einzelnen Fachbereiche präventive Analysen (Statistical Process Control) auf Basis gewonnener Messdaten ad-hoc und ohne Informationsverlust durchführen. Prozess- und Qualitätsingenieure in der Fertigung profitieren etwa davon, dass sie nun unabhängig von anderen Abteilungen sind und ihre Standard- oder Ad hoc-Reports auf Knopfdruck erstellen können.

Darüber hinaus ist es nun möglich, alle Produktionsnachweise mit allen verfügbaren Daten zu einem einzelnen Bauteil bei Bedarf jederzeit abzurufen. Eine Realtime-Versorgung und damit auch Echtzeit-Analysen sind als nächste Schritte geplant.

Fazit: Fast Facts zu In-Memory-basierter Big-Data-Analyse

Grundsätzlich: Big Data sollte als fester Bestandteil in der Unternehmensstrategie integriert sein.

Die durchgängige Lösung von einem einzigen Anbieter gibt es nicht. Erfahrungsgemäß wählt man einen Best Practice Ansatz und überlegt genau, welche Aufgaben wer/was erfüllen sollte. Die Abhängigkeit von nur einem Anbieter kann sehr kostspielig werden und den Erfolg ausbremsen.

Datenvolumen und -anforderungen ändern sich ständig: Abteilungen müssen in die Lage versetzt werden, ihren Analyse- und Datenbedarf schnell und einfach realisieren zu können.

Compliance-Vorgaben erfüllen: Es gilt hier, Mitarbeiter zu schulen, Transparenz und Vertrauen zu schaffen sowie gut zu überlegen, welche Daten und Prozesse sinnvoll im Haus bleiben sollen beziehungsweise welche in die Cloud gelegt werden.

Data Scientists: Immer mehr Unternehmen sind datengetrieben. Mitarbeiter sind gefragt, die mit dem Thema Big Data und Datenanalyse umgehen können.

* Mathias Golombek ist Chief Technology Officer des Nürnberger Datenbankspezialisten Exasol.

Artikelfiles und Artikellinks

(ID:43877864)