Die Anwendungsmöglichkeiten, die unter dem Schlagwort Industrie 4.0 zusammengefasst werden reichen vom vermeintlich einfachen Monitoring der wichtigsten Betriebsdaten, über die KI-gestützte Analyse von kritischen Kennzahlen bis zu automatisierten Steuerungssignalen für zentrale Produktionsprozesse. Doch wo sollen Unternehmen einsteigen? Dieser Beitrag stellt erste Lösungsbausteine bereit. Die Herausforderungen lassen sich dabei in drei folgenden Kategorien einteilen:
- Konnektivität
- Datenanalyse
- Visualisierung der Ergebnisse
Konnektivität zwischen lokalen Maschinen und der Cloud
Wie konnektieren Unternehmen ihre lokalen Maschinen mit der Cloud? Am Beispiel von Amazon Web Services (AWS) zeigen verschiedene Möglichkeiten:
- Ein bestehender MQTT-Broker leitet die Nachrichten direkt an AWS IoTCore weiter, dazu kann dieser beispielsweise als IoT Thing angelegt werden und sich per Zertifikat authentifizieren.
- Devices können auch direkt mit IoTCore verbunden werden..
- Greengrass als OT-Software auf dem Shopfloor ist die Standardsoftware von AWS, um eine Verbindung zwischen Shopfloor-Devices und der AWS-Cloud herzustellen. Sie wird als Container bereitgestellt und über die AWS-Konsole administriert.
Zu beachten ist, dass ein einzelner GreenGrass-Container nicht darauf ausgelegt ist, alle Verbindungen für eine gesamte Firma zu verwalten, sondern dass mehrere Container abhängig von der Anzahl zu erfassenden Datenpunkte benötigt werden. Im Folgenden wird von einer Anbindung über IoTCore ausgegangen.
Zwischen kalten und heißen Daten
Die Telegramme werden in der Cloud empfangen, sodass die tatsächlichen Pain Points, wie der Energieverbrauch oder die Früherkennung fehlerhafter Bauteile, adressiert werden. Im Wesentlichen muss zu Beginn zwischen zwei unterschiedlichen Arten der Analyse unterscheiden:
- Echtzeit-Prozessierung von Daten (hot-data),
- Langzeit-Betrachtung von Daten (cold-data).
Aufgrund der höheren Komplexität und meist höheren Kosten, wird mit dem cold-data-Pfad für die Langzeitanalyse begonnen. Das weitere Vorgehen hängt von den individuellen Gegebenheiten und Anforderungen ab, da sich die Anwendungen durchaus in Durchsatz, Latenz und Komplexität unterscheiden können. Zu Beginn eines Projektes gilt es, die Komplexität gering zu halten, da bei der Einführung einer IoT-Plattform selten die Grenzen der ‚Standard‘-Services erreicht werden. Natürlich sollte die Anwendung mit wachsender Datenmenge skalieren.
Regeln für die kalten Daten
Wenn die Daten per IoT-Core entgegengenommen werden, kann das weitere Aussteuern der Daten über IoT-Rules umgesetzt werden. Diese ermöglichen es anhand von Topics und einigen Body-Informationen, unterschiedliche Folgeaktionen auszulösen. Beispielsweise kann anhand der Topic-Struktur definiert werden, welche Daten in den hot- und welche in den cold-data-Pfad fließen. Dieser Artikel beschränkt sich auf den Aufbau des cold-data-Pfades. Dazu wird in der IoT-Rule eine Aktion definiert, die ankommenden Daten direkt in Kinesis Data Firehose übergibt. Dieser Service puffert und aggregiert die Daten, bis eine gewisse Menge (etwa ein Megabyte) erreicht ist oder nach einem Zeitintervall, um diese dann an den Objektspeicher (S3) weiterzugeben. So wird eine stabile und skalierbare Datenstrecke aufgebaut, über welche die Rohdaten etwa im Json-Format entgegengenommen und abgespeichert werden können.