ChatGPTs Brüder

Ein unkritisches Vertrauen in LLMs kann zu unerwartetem Maschinenverhalten und Sicherheitsrisiken führen.
Ein unkritisches Vertrauen in LLMs kann zu unerwartetem Maschinenverhalten und Sicherheitsrisiken führen.

In welchen Bereichen der Automatisierung sehen Sie das meiste Potenzial für LLMs?

Rainer Duda, Wago: Diese Frage ist nicht einfach zu beantworten, da sich das Potenzial von LLMs in immer kürzeren Zeitabständen deutlich erweitert und sich damit neue Möglichkeiten auftun. LLMs scheinen prädestiniert für den Einsatz als Schnittstelle zwischen Mensch und Maschine bzw. System. Scada-Systeme könnten durch die Integration von LLMs effizienter bedient werden, insbesondere mit Hilfe von Speech-to-Text-Fähigkeiten. Neben der reinen Benutzerinteraktion kann das LLM auch als persönlicher Agent zwischen Bediener, System und anderen Datenquellen fungieren. Konkret können z.B. benötigte Sensorwerte auf Abruf abgefragt und Ergebnisse fortgeschrittener Analysetätigkeiten automatisiert in Diagrammen dargestellt oder per Kommando in Berichte umgewandelt werden. Das Prinzip lässt sich auch auf die Planungsebene für MES-Systeme übertragen oder auf Edge Devices herunterbrechen, mit denen vor Ort durch autorisiertes Personal effiziente Diagnosen sowie Wartungen durchgeführt werden können.

Jannis Doppmeier, Beckhoff: LLMs können das Engineering um ein Vielfaches beschleunigen, indem sie z.B. Applikationscode zumindest in Teilen automatisch erzeugen bzw. vervollständigen. Daneben ist mit unserer Lösung zudem die Erstellung eines HMI-Projekts per Chatbot möglich. Darüber hinaus kann man sich von LLMs Tutorials erstellen lassen und bei aufkommenden Problemen gezielt nach Lösungen fragen. Ein weiterer Vorteil ist die Möglichkeit, Richtlinien und Best Practices im Automatisierungsbereich umzusetzen und einzuhalten.

Nicola Iovine, Rockwell: LLMs ermöglichen es Usern, mit einem System sprachlich zu interagieren. Bei der Wartung und Instandhaltung können LLMs virtuelle Unterstützung bei der effizienten Lösung von Problemen bieten. In der Dokumentation verbessern LLM-Funktionen zur Erstellung von Reportings und Protokollen das Datenmanagement. Zudem können LLMs große Datensätze analysieren und Betreiber unterstützen, fundierte Entscheidungen zu treffen. Bei der Beachtung gesetzlicher Vorgaben spielen LLMs ebenfalls eine Rolle, indem sie die Einhaltung entsprechender Vorschriften in automatisierten Systemen sicherstellen. Darüber hinaus ist es mit LLMs sogar machbar, die Widerstandsfähigkeit automatisierter Systeme gegen Sicherheitsbedrohungen zu erhöhen.

Hans Michael Krause, Rexroth: Wir sehen das Potenzial in der Code-Erstellung: Dort steigern LLMs die Geschwindigkeit, erhöhen Qualität sowie Konsistenz und ermöglichen eine fortlaufende Verbesserung. Zudem fördert die KI-Integration intuitive Benutzeroberflächen und eine nahtlose Systemintegration. Außerdem bieten generative KI und Foundation Models die Möglichkeit, synthetische Bilder zu erzeugen, um Lösungen für die optische Inspektion zu entwickeln, zu skalieren oder zu verbessern.

Jan Henze, Phoenix Contact: Large Language Modelle bieten sich insbesondere für kreativ generierenden Aufgaben wie das Zusammenfassen von Texten sowie die Erstellung von Programmcode an. Als solches eignen sie sich als Assistenzsysteme, um die Effizienz von Mitarbeitenden zu erhöhen. In der Produktion und Automatisierung fallen oft unstrukturierte und nicht standardisierte Daten an. LLMs eröffnen eine Möglichkeit, diesen Daten Struktur und Standards zu verleihen, was sonst ein aufwendiger manueller oder programmiertechnischer Prozess wäre.

Franz Menzl, Siemens: Bei Siemens setzen wir bereits heute auf KI-Tools wie ChatGPT, die natürliche Sprache verstehen, um eine neuartige Form der Zusammenarbeit für Mitarbeitende zu ermöglichen und Innovation voranzutreiben. Unser Ziel ist es, die menschlichen Fähigkeiten zu unterstützen und zu stärken – hier sehen wir das meiste Potenzial für LLM.

Welche Herausforderungen sind beim Einsatz von LLMs in der Automatisierung zu meistern?

Hans Michael Krause, Rexroth: Die automatische Erstellung von SPS-Applikationen durch KI birgt auch Risiken. Ein unkritisches Vertrauen kann zu unerwartetem Maschinenverhalten und Sicherheitsrisiken führen. Die Intransparenz automatisch generierter Applikationen kann die Fehlerbehebung erschweren und zu längeren Ausfallzeiten führen. Sicherheitsrisiken, insbesondere im Hinblick auf den von KI generierten Code, müssen sorgfältig abgewogen werden. Unternehmen müssen in der Lage sein, diesen Code zu verstehen, zu überprüfen und sicherzustellen, dass er zuverlässig funktioniert.

Jan Henze, Phoenix Contact: Eine große Herausforderung stellt die inhärente Halluzination von LLMs dar, also die Generierung von nicht faktisch gestützten oder sogar inkorrekten Aussagen. Sie sind auf den ersten Blick durch korrekte Ausformulierung schlüssig und nur schwer zu erkennen. Also müssen Mechanismen zur Qualitätsüberprüfung implementiert sowie der Wahrheitsgehalt kritisch betrachtet werden. Als solches sollten LLMs hauptsächlich als unterstützendes System verwendet werden oder in Anwendungsfällen, in denen hohe Genauigkeit lediglich eine untergeordnete Rolle spielt. Eine weitere Herausforderung ergibt sich aus der Größenordnung solcher Modelle. LLMs setzen sich aus mehreren Milliarden Parametern zusammen und sind in der Nutzung sowie im Training sehr kostspielig.

Jannis Doppmeier, Beckhoff: Nach wie vor gibt es noch einige technische Unklarheiten. Das ist aber nicht weiter verwunderlich, wenn man sich die aktuell sehr hohe Entwicklungsgeschwindigkeit vor Augen führt. Eine wichtige und für die Automatisierungsbranche derzeit zentrale Herausforderung ist das Halluzinieren von LLMs. Manchmal generieren sie Informationen, die nicht auf Fakten basieren oder falsch sind – insbesondere in Situationen, in denen sie unsichere oder unvollständige Daten interpretieren müssen. So haben wir in der frühen Entwicklungsphase eigener Lösungen bei generiertem SPS-Code auch Motion-Funktionen vorgefunden, die es gar nicht gibt – zumindest nicht in Twincat. Aber das sind Themen die adressierbar sind und sich mit der Zeit deutlich verbessern werden.

Rainer Duda, Wago: Zentral ist – unabhängig vom Anwendungsfall – die Klärung, wie Transparenz, Nachvollziehbarkeit, Fairness und insbesondere Sicherheitsaspekte im Umgang mit anwendungs- bzw. prozessbezogenen Daten und den verwendeten Sprachmodellen effizient umgesetzt werden können. Der Einsatz von LLMs erfordert das Vertrauen und die Akzeptanz der Nutzer. Seitens der Sicherheitsaspekte ist darauf zu achten, dass die rechtlichen Vorgaben umgesetzt und die im jeweiligen Anwendungsgebiet geltenden Regularien berücksichtigt werden. Man sollte sich bereits bei der Planung mit den Anforderungen z.B. des Data Governance Act, des AI Act und des Data Act auseinandersetzen.

Nicola Iovine, Rockwell: Für den erfolgreichen LLM-Einsatz ist ein umfassender Ansatz entscheidend: Zunächst gilt es, die Integration in automatisierte Prozesse in Bezug auf Datenqualität, Bias und Diskriminierung sorgfältig zu prüfen. Eine nahtlose Integration erfordert dann eine exakte Planung, um Unterbrechungen auszuschließen. Strategien zur Risikominderung sind unerlässlich, um Ungenauigkeiten zu vermeiden und sensible Informationen zu schützen. Ethische Überlegungen, wie etwa zum verantwortungsvollen Einsatz von KI und Transparenz, sind notwendig, um unbeabsichtigte Folgen oder juristische Probleme zu vermeiden.

Franz Menzl, Siemens: Der erfolgreiche Einsatz von KI-Tools in der Fabrik hängt von verschiedenen Faktoren ab, darunter die Qualität der Daten, die Komplexität der Anwendung, die Skalierbarkeit und die nahtlose Integration in bestehende Systeme. Wir bei Siemens setzen stark auf frühzeitige Zusammenarbeit in einem Ökosystem, um potenzielle Anwendungsfälle von Kunden und Partnern zu verstehen und zu erproben.

Wollen Sie LLMs künftig in Ihrem Angebot einsetzen? Oder haben Sie bereits entsprechende Produkte im Portfolio?

Jannis Doppmeier, Beckhoff: Mit Twincat Chat hat Beckhoff bereits eine LLM-Lösung präsentiert, die tief in die Entwicklungsumgebung integriert und auf die Anforderungen der Automatisierungsbranche abgestimmt ist. Das Feedback der Kunden ist seit der Vorstellung auf der Hannover Messe 2023 durchweg positiv. Sowohl Vertreter aus dem Management als auch direkte Anwender äußern ein hohes Maß an Interesse. Ein Großteil der Kunden sieht für den Automatisierungsbereich ein signifikantes Potenzial. Einige haben sogar konkretes Interesse daran, eine Beta-Version zu testen, sobald sie verfügbar ist.

Franz Menzl, Siemens: Auf der SPS-Messe 2023 haben wir mit dem Kunden Schaeffler bereits einen KI-basierten Assistenten gezeigt. Der Industrial Co-Pilot soll zukünftig Prozesse verbessern und den Mitarbeitenden in der Fabrik die Arbeit erleichtern. Zeitaufwand und Fehlerwahrscheinlichkeit reduzieren sich, indem SPS-Code per Spracheingabe generiert wird. Darüber hinaus werden KI-Tools Wartungsteams zur Seite stehen, um Fehler zu identifizieren und Schritt-für-Schritt-Lösungen schneller bereitzustellen. Auch unsere Kunden sehen großes Potenzial in der Anwendung des Industrial-Co-Piloten – sowohl im Engineering als auch im Operations-Umfeld.

Jan Henze, Phoenix Contact: Neben dem Einsatz zur Unterstützung bei alltäglichen Anwendungen untersuchen wir auch spezifischere Anwendungsfälle. Ein solcher ist die Entwicklung eines Chatbots, der technische Fragen über unser gesamtes Produktportfolio beantworten kann. Das wird allerdings durch die erwähnte Halluzination sowie unsere komplexe technische Domäne erschwert. Die schnell voranschreitende Forschung in diesem Gebiet bietet jedoch schon erste Lösungen für solche Problemstellungen durch die Nutzung von sogenannten Retrieval-Augmented-Generation-Systemen. Das muss man sich als Erweiterung der LLM-Fähigkeiten vorstellen, in dem man dem Modell beibringt, bei fehlenden Informationen in einer Wissensdatenbank relevante Ergebnisse anzufragen und danach als Antwort zu verwenden. Weiterhin untersucht Phoenix Contact im Rahmen der Plattform Industrie 4.0 die Möglichkeiten des LLM-Einsatzes zur Befüllung und Erstellung von Asset Administration Shells. Beide Projekte befinden sich derzeit noch in der Entwicklungsphase.

Rainer Duda, Wago: Bereits vor dem LLM-Hype hat Wago auf Messen beispielhaft die Anbindung eines Sprachmodells an eine Steuerung gezeigt. Damit konnte eine industrielle Anwendung auf dem PFC200 über Sprachbefehle gesteuert werden. Der Impuls, Sprachmodelle in dieser Anwendung zu präsentieren, entstand durch Erkenntnisse bei der Realisierung von kundenspezifischen Lösungen und dem vorhandenen Data-Analytics-Angebot. Das Kunden-Feedback ist hier durchweg positiv, da der Mehrwert klar erkennbar und einfach zu realisieren ist.

Nicola Iovine, Rockwell: Wir haben einen Prototyp im FactoryTalk Design Studio entwickelt, der die LLM-Funktionen von ChatGPT nutzt. Dabei hat sich die Entwicklungsplattform zunächst auf die Generierung kleiner Code-Snippets und die Abfrage von KI zur Codegenerierung konzentriert. Durch die Zusammenarbeit mit dem OpenAI-Designservice von Microsoft Azure konnte unser Team die natürlichsprachigen Prompts von ChatGPT nutzen, die die Grundlage für die Durchführung größerer Aufgaben bilden. Dieser Copilot hat nicht nur erfolgreich Code-Snippets produziert, sondern Usern auch Alternativen angeboten, was sein Potenzial als iteratives Lernwerkzeug für die Automatisierung gezeigt hat. Obwohl er den Nutzern noch nicht zur Verfügung steht, wollen wir domänenspezifisches Wissen einbeziehen, um seine Fähigkeiten zu verbessern.

Hans Michael Krause, Rexroth: Rexroth erweitert sein Netzwerk in der Partnerwelt ctrlX World, um mit Unternehmen im KI-Bereich zusammenzuarbeiten. Ein gutes Beispiel ist das Projekt mit der Firma Mairotec zu einem KI-gestützten Helpdesk für ctrlX Automation. Dieser Helpdesk basiert auf der Llama-2-KI und wurde mit Handbüchern und Foreneinträgen trainiert. Über ein Web Interface können Anwender produktbezogene Anfragen stellen und erhalten umgehend Unterstützung – sei es während der Inbetriebnahme oder bei technischen Problemen. Die so entstandene App Airo wurde auf der SPS-Messe präsentiert und kam sehr gut an.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert