Infrastruktur für Deep Learning und Co.

Bild: ©Grispb/stock.adobe.com

Schlecht entgratete Metallteile, Einschlüsse in Lackschichten, zu viel Schwund beim Sintern – jedes Fertigungsverfahren hat spezifische Qualitätsprobleme. Um Mängel zu erkennen, müssen Mitarbeitende am Ende der Produktion einen Blick auf das fertige Werkstück werfen. Digitaltechnik bis hin zu künstlicher Intelligenz (KI) kann diese Qualitätskontrollen unterstützen. Dafür werden heute neuronale Netze für Computer Vision (Bilderkennung) eingesetzt, um Genauigkeit und Geschwindigkeit der Abläufe zu steigern. Ein Merkmal dieser Verfahren ist ihre Lernfähigkeit. Während der Qualitätskontrollen entstehen zahlreiche Daten über die Werkstücke, die anschließend in die KI-Anwendung eingespeist und verarbeitet werden. Dadurch wird die Produktionsumgebung weiter optimiert, ein Lerneffekt tritt ein. Auch die Qualitätskontrolle selbst verbessert sich im Laufe der Zeit und kann zudem leichter an einen Wechsel der Bearbeitungstechnik oder neue Produkte angepasst werden.

KI-Training in der Cloud

Anders als herkömmliche Algorithmen benötigen KI-Verfahren meist eine Vielzahl an Rohdaten. Mit ihnen wird das neuronale Netz trainiert, sodass es beispielsweise typische Fehler in Werkstücken erkennen kann. Das Verfahren heißt Deep Learning, das in den meisten Fällen außerhalb der Industrie in der Cloud aufgelegt ist. Durch das Training mit den Rohdaten in der Cloud entsteht ein KI-Modell, das Echtzeitdaten aus der Fertigungsanlage auswerten kann. Dieses Modell ist meist schlank genug, um sich vor Ort auf Edge-Rechnern ausführen zu lassen. Diese Server dienen oft auch als Gateway zum Cloud-Teil der KI-Anwendung. Die Edge ist für Computer Vision sinnvoll, da Videostreams erhebliche Anforderungen an die Bandbreite der Übertragung stellen. Die Übertragung aller Streams in ein privates oder Cloud-Rechenzentrum für zentrale Videoanalytik würde exzessive Netzwerkkosten verursachen.

Datenauswertung in der Edge

Die Modellanwendung in der Edge lässt sich ebenso wie das cloud-basierte Training durch den Einsatz sogenannter GPUs (Graphical Processing Units) deutlich beschleunigen. Das sind Grafikkarten, deren spezialisierte Chips auch für die Rechenoperationen der Bilderkennung geeignet sind, und die daher fester Bestandteil moderner Edge-Server sind. Der Markt für IIoT-Anwendungen bietet eine Vielzahl an unterschiedlichen Computerlösungen für die Edge. Die einfachen Varianten sind Mikrocomputer, die Daten von Modbus- oder Canbus-Sensoren in der industriellen Fertigung oder Gebäudeleittechnik zusammenfassen und sie über Industrial Ethernet oder 5G-Mobilfunk weitergeben. Am anderen Ende des Spektrums sind Videoanalytik-fähige Edge-Server mit GPUs. Manche werden von den Anwendern selbst verwaltet, andere von den sogenannten Hyperscalern bereitgestellt und betrieben. Die Betreiber der großen Cloud-Infrastrukturen, die sogenannten Hyperscaler können auch Rechen- und Speicherkapazitäten in Edge-Rechenzentren bereitstellen, oder eben in zentralen Cloud-Rechenzentren – für die forensische Videoanalytik im Nachhinein oder für das Training neuronaler Netze in der Cloud.

Cloud-native Lösungen

Sowohl Hyperscaler als auch private Systeme nutzen heute Server-Virtualisierung: Funktionen in Edge wie Cloud basieren auf virtuelle Maschinen (VMs). Die Zeit der virtuellen Server, die ein monolithischen Software-Paket ausführen, ist aber fast schon wieder vorbei. Durch neue Technologien wie Docker und Kubernetes hat auch in der KI sogenannte cloud-native-Software Einzug gehalten. Ein bestimmender Aspekt des Cloud-Native-Paradigmas ist, dass die Software als Netz (Mesh) sogenannter Microservices ausgeführt ist, die miteinander kommunizieren und nur lose gekoppelt sind. Sollte eine Microservice-Instanz ausfallen, übernimmt eine andere. Das Microservice Mesh ist dadurch selbstheilend und fast grenzenlos skalierbar, denn die Anzahl der Instanzen jedes einzelnen Microservice kann sehr groß werden. Ein Kubernetes-Cluster besteht aus mehreren VMs oder physischen Serverknoten, von denen jeder eine Anzahl an Microservices in Kubernetes-Containern ausführen kann. In der Cloud sind Kubernetes-Knoten auf virtuellen Maschinen üblich, im Edge-Computing hingegen ist bare-metal die Norm. Bei letzterem ist jeder Edge-Server ein physischer Kubernetes-Knoten – das macht auch den Durchgriff auf GPUs und andere HW-Beschleuniger einfacher.

Veröffentlicht am
Kategorisiert in Software

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert