Produktionsdaten dauerhaft speichern

Mit der skalierbaren Big-Data-Lake-Infrastruktur lassen sich Produktionsdaten dauerhaft günstig speichern.
740px 535px

Ob kleines oder mittleres Unternehmen (KMU), Großunternehmen oder Forschungseinrichtung – jede produzierende Einrichtung stand mit großer Wahrscheinlichkeit bereits einmal vor der Frage, welche Daten relevant sind und erfasst werden müssen. Am Lehrstuhl für Technologie der Fertigungsverfahren des Werkzeugmaschinenlabor WZL der RWTH Aachen lautet die Antwort: Alle. "Nie mehr auch nur ein Datum der eigenen Fertigung verlieren, ob aus der Maschine, den Werkzeugen oder der Qualitätskontrolle", so sollte die Vision sein, statiert Prof. Thomas Bergs, Geschäftsführender Direktor des WZL und Inhaber des Lehrstuhls für Technologie der Fertigungsverfahren. "Mit dem Big-Data-Lake-Konzept ist uns das nun gelungen. Fertigungsdaten werden nach einer minimalen Vorverarbeitung so roh wie möglich auf einem leicht skalierbaren, mehrfach verteilten Dateisystem im eigenen Netzwerk zentral persistiert. So können wir auch in Zukunft, wenn sich Fragestellungen ändern oder neue Blickwinkel auf die Daten relevant werden, auf valide historische Daten zurückgreifen", führt Dr. Daniel Trauth, CDO und Oberingenieur für Digitale Transformation am Lehrstuhl für Technologie der Fertigungsverfahren, weiter aus. Zwei Probleme fertigungsüblicher Daten werden laut dem WZL mit dem Big-Data-Lake-Konzept gleichzeitig gelöst: Zum einen lassen sich große Datenmengen näherungsweise im Rohformat dauerhaft günstig speichern, sodass sie eine perfekte Datenbasis für das Anlernen und Modellieren von präzisen KI-Algorithmen sind. Zum anderen können diese entwickelten KI-Algorithmen wiederum auf die rasanten Datenströme fertigender Maschinen angewandt werden, um näherungsweise in Echtzeit eine Entscheidungsfindung für Prozess, Maschine oder Peripherie abzuleiten.

Stabile Hardware und Metadateninformationen

Hardwareseitig setzt das WZL dabei auf die stabile und zuverlässige Hardware von Dell Technologies. Softwareseitig kommt eine Lambda-Architektur basierend auf der Apache Hadoop Familie zum Einsatz, die durch ein semantisches Datenmanagement der HotSprings GmbH ergänzt wird. Das semantische Datenmanagement gewährleistet die lückenlose und präzise Anreicherung der Fertigungsdaten um entscheidende Metainformationen, wobei eine Künstliche Intelligenz bereits bei der Datenaufnahme typische Datenmuster erkennt und Zusammenhänge und Metainformationen vorschlägt. "So werden auch in Zukunft wichtige Zusammenhänge nachvollziehbar und rekonstruierbar bleiben, selbst wenn die aktuelle Generation der Mitarbeiterinnen und Mitarbeiter nicht mehr am Institut ist," erklärt Dr. Max Haberstroh, CEO der Hot-Springs GmbH.

In einem nächsten Schritt wird das Konzept um ein dezentrales Edge-Computing-Netzwerk ergänzt, mit dessen Hilfe schnell und effizient bereits an den Fertigungsmaschinen eine Prozessüberwachung und Datenanalysen durchgeführt werden können. Edge Computing bezeichnet im Gegensatz zum Cloud Computing die dezentrale Datenverarbeitung am Rand des Netzwerks. Für rechenintensive Aufgaben können die Produktionsmaschinen so auf den zentralen "Big Data Lake" zurückgreifen. Im Anschluss erfolgt die Implementierung einer Machine Cloud, die als Multiplattform aus Edge und Cloud insbesondere den Datenaustausch über die verschiedenen WZL-Standorte und -Stakeholder hinweg ermöglicht. Abgesichert über eine Blockchain können Datenintegrität und Daten-souveränität der Urheber jederzeit lückenlos gewährleistet werden.

Autor(en): Wi

Mehr zu Software

Alle Branche News