Wie Maschinendaten auf das Dashboard kommen

Visualisierung des Glue-Workflows zum Aufbereiten der Rohdaten und Indizieren der Ergebnisdaten nach der Transformation.
Visualisierung des Glue-Workflows zum Aufbereiten der Rohdaten und Indizieren der Ergebnisdaten nach der Transformation.
Bild: Transition Technologies PSC Germany GmbH

Die Anwendungsmöglichkeiten, die unter dem Schlagwort Industrie 4.0 zusammengefasst werden reichen vom vermeintlich einfachen Monitoring der wichtigsten Betriebsdaten, über die KI-gestützte Analyse von kritischen Kennzahlen bis zu automatisierten Steuerungssignalen für zentrale Produktionsprozesse. Doch wo sollen Unternehmen einsteigen? Dieser Beitrag stellt erste Lösungsbausteine bereit. Die Herausforderungen lassen sich dabei in drei folgenden Kategorien einteilen:

  • Konnektivität
  • Datenanalyse
  • Visualisierung der Ergebnisse
Visualisierung des Glue-Workflows zum Aufbereiten der Rohdaten und Indizieren der Ergebnisdaten nach der Transformation.
Visualisierung des Glue-Workflows zum Aufbereiten der Rohdaten und Indizieren der Ergebnisdaten nach der Transformation.Bild: Transition Technologies PSC Germany GmbH

Konnektivität zwischen lokalen Maschinen und der Cloud

Wie konnektieren Unternehmen ihre lokalen Maschinen mit der Cloud? Am Beispiel von Amazon Web Services (AWS) zeigen verschiedene Möglichkeiten:

  • Ein bestehender MQTT-Broker leitet die Nachrichten direkt an AWS IoTCore weiter, dazu kann dieser beispielsweise als IoT Thing angelegt werden und sich per Zertifikat authentifizieren.
  • Devices können auch direkt mit IoTCore verbunden werden..
  • Greengrass als OT-Software auf dem Shopfloor ist die Standardsoftware von AWS, um eine Verbindung zwischen Shopfloor-Devices und der AWS-Cloud herzustellen. Sie wird als Container bereitgestellt und über die AWS-Konsole administriert.

Zu beachten ist, dass ein einzelner GreenGrass-Container nicht darauf ausgelegt ist, alle Verbindungen für eine gesamte Firma zu verwalten, sondern dass mehrere Container abhängig von der Anzahl zu erfassenden Datenpunkte benötigt werden. Im Folgenden wird von einer Anbindung über IoTCore ausgegangen.

Architekturüberblick über die Datenanalyse 
mittels Amazon Athena und Amazon SageMaker
Architekturüberblick über die Datenanalyse mittels Amazon Athena und Amazon SageMakerBild: Transition Technologies PSC Germany GmbH

Zwischen kalten und heißen Daten

Die Telegramme werden in der Cloud empfangen, sodass die tatsächlichen Pain Points, wie der Energieverbrauch oder die Früherkennung fehlerhafter Bauteile, adressiert werden. Im Wesentlichen muss zu Beginn zwischen zwei unterschiedlichen Arten der Analyse unterscheiden:

  • Echtzeit-Prozessierung von Daten (hot-data),
  • Langzeit-Betrachtung von Daten (cold-data).

Aufgrund der höheren Komplexität und meist höheren Kosten, wird mit dem cold-data-Pfad für die Langzeitanalyse begonnen. Das weitere Vorgehen hängt von den individuellen Gegebenheiten und Anforderungen ab, da sich die Anwendungen durchaus in Durchsatz, Latenz und Komplexität unterscheiden können. Zu Beginn eines Projektes gilt es, die Komplexität gering zu halten, da bei der Einführung einer IoT-Plattform selten die Grenzen der ‚Standard‘-Services erreicht werden. Natürlich sollte die Anwendung mit wachsender Datenmenge skalieren.

Aufbau eines Amazon QuickSight Dashboards mit Amazon Athena als Datenquelle
Aufbau eines Amazon QuickSight Dashboards mit Amazon Athena als DatenquelleBild: Transition Technologies PSC Germany GmbH

Regeln für die kalten Daten

Wenn die Daten per IoT-Core entgegengenommen werden, kann das weitere Aussteuern der Daten über IoT-Rules umgesetzt werden. Diese ermöglichen es anhand von Topics und einigen Body-Informationen, unterschiedliche Folgeaktionen auszulösen. Beispielsweise kann anhand der Topic-Struktur definiert werden, welche Daten in den hot- und welche in den cold-data-Pfad fließen. Dieser Artikel beschränkt sich auf den Aufbau des cold-data-Pfades. Dazu wird in der IoT-Rule eine Aktion definiert, die ankommenden Daten direkt in Kinesis Data Firehose übergibt. Dieser Service puffert und aggregiert die Daten, bis eine gewisse Menge (etwa ein Megabyte) erreicht ist oder nach einem Zeitintervall, um diese dann an den Objektspeicher (S3) weiterzugeben. So wird eine stabile und skalierbare Datenstrecke aufgebaut, über welche die Rohdaten etwa im Json-Format entgegengenommen und abgespeichert werden können.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert