Analytics in vernetzen Fabriken

Bild: ©metamorworks/istockphoto.com

MES, Sensoren, Edge Devices: Auf einem digital ausgerüsteten Shopfloor entstehen in jeder Sekunde unzählige produktionsrelevante Daten. Doch das Erheben einzelner Zahlen und Werte bringt zunächst keinen Vorteil. Erst wenn alle Informationen zusammengeführt, aggregiert und mit Analytics-Modellen ausgewertet werden, kann das realistische und transparente Bild der Prozesslandschaft entstehen. Diese Übersicht bildet die Grundlage für Optimierungsmaßnahmen. Wer beispielsweise den Zustand seiner Anlage anhand von Sensor- und Betriebsdaten überwacht, erkennt schneller beeinträchtigende Faktoren und kann mit einem Predictive-Maintenance-Konzept ungeplante Produktionsunterbrechungen verhindern.

Anomalien und Muster finden

Auch bei der Produktqualität spielen Daten aus verschiedenen Phasen des Produktionsprozesses eine wichtige Rolle. Die Analyse bestimmter Muster und Anomalien kann drohende Qualitätsprobleme früh erkennbar machen. So können Gegenmaßnahmen rechtzeitig starten. Und schließlich spielen Fertigungsdaten auch eine wichtige Rolle, wenn es darum geht, die gesamte Produktion nachhaltiger zu gestalten, wie das weiter unten angeführte Beispiel zeigt. Doch egal, ob Wartung, Qualität oder Nachhaltigkeit – um ihre jeweiligen Ziele zu erreichen, sollten Unternehmen auf Analytics-Lösungen setzen, die ihnen schnell und effizient genau die Informationen liefern, die sie brauchen.

Maschinennahe IoT-Analytics

Auf dem Shopfloor laufen in der Regel viele Prozesse neben- und miteinander ab. Unternehmen, die ihre Fertigungsprozesse optimieren möchten, müssen sich in einem ersten Schritt darum kümmern, dass die produktionsrelevanten Informationen für die Auswertung gesammelt werden können. Dafür eignen sich klassische Sensoren und sogenannte Edge Devices, die die erhobenen Datenpunkte in ein IoT-Netzwerk senden, in dem die Daten zusammenfließen. Doch nicht alle Daten, die erhoben werden, sind zwangsläufig auch relevant. So wird die Temperatur in einem Härtungsofen während des Brennvorgangs beispielsweise alle fünf Sekunden erhoben, für das Auswertungsmodell der späteren Effizienzanalyse hingegen reicht der stündliche Mittelwert. Um das Speichern und den Transfer unnötig großer Datenmengen zu vermeiden, bietet sich Edge Analytics an. Entsprechende Softwaresysteme aggregieren und strukturieren die Daten direkt dort, wo sie entstehen und verhindern so nicht erforderlichen und leistungsbeeinträchtigenden Datenverkehr.

Wissen, was gerade läuft

Genauso wichtig wie das Auswerten gesammelter Daten-Batches ist die Analyse und Überwachung der aktuell fließenden Informationsströme via Event-Streaming-Analytics. Gerade in Verbindung mit einem IoT-Netzwerk kann die kontinuierliche Analyse von Ereignisströmen nützlich sein. So lassen sich beispielsweise in Echtzeit komplexe Muster identifizieren, wenn etwa die Qualität der aktuellen Charge durch eine versehentlich falsche Eingabe im MES gefährdet ist. Darüber hinaus kann Event-Streaming-Analytics die Qualität von Sensordaten verbessern. Diese sind oft unvollständig, beispielsweise weil aufgrund von Netzwerkproblemen Zeitstempel fehlen oder weil beim Einsatz mehrerer Sensoren Formate und Übertragungszeitpunkte variieren. Eine Reihe von Verfahren, die direkt in die Datenströme eingebettet sind, können Muster erkennen und die Datenqualität dauerhaft erhöhen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert