Nutzen ziehen aus Large Language Models

KI-gestützte Predictive Maintenance oder Optimierung des Qualitätswesens wird seit langem in der Industrie praktiziert. Doch mit Large Language Models dürfte sich der KI-Einsatz signifikant erweitern, auch ihre einfache Anwendbarkeit senkt Einstiegsbarrieren. Im Kern liefert generative KI ein einfaches User Interface und generiert Texte im Stile natürlicher Sprache, aber auch Bilder, synthetische Daten oder Szenarien und Zusammenfassungen. Dabei stechen drei Anwendungsfälle von GenAI in der Industrie hervor: Einige sind ohne Aufwand und Vorleistung umsetzbar, andere erfordern Vorarbeiten.

Einsatz für Antworten und Analysen

Schnell und pragmatisch implementierbar sind Hilfestellungen der öffentlich zugänglichen LLMs im Arbeitsalltag. Statt in ein manuelles Handbuch zu schauen, können Mitarbeitende über ein User Interface, meistens ein Chat, ihre Fragen oder Problemstellungen eintippen oder einsprechen. Das ist interessant, wenn die Datengrundlage entweder öffentlich zugänglich ist oder z.B. von einem Softwarelieferanten zur Verfügung gestellt wird. So plant beispielsweise Siemens mit ihrem Industrial Co-Pilot, Anwendern die Programmierung von Werkzeugmaschinen wesentlich zu vereinfachen. Microsofts Co-Pilot unterstützt bei Online-Meetings, indem das Tool Entscheidungen, Aktionspunkte und Diskussionen protokolliert und vorbereitet. Bei Produzenten gehört die Unterstützung der Dateninterpretation für Analysen ebenfalls zu den Aufgaben, die ein LLM übernehmen kann. Auch die Kommunikation ließe sich erleichtern, indem Tools wie ChatGPT Sprachbarrieren überwinden, technische Berichte oder Arbeitsprotokolle, die von Technikern diktiert werden, anfertigen. Doch spätestens wenn die Anfragen vertrauliche Daten betreffen, gibt es Grenzen für die Nutzung externer LLM-Anwendungen, zumal vertrauliche Sachverhalte bereits in der Frage selbst stecken. Außerdem dürften die Lösungen für hier anfallende Probleme selten öffentlich zur Verfügung stehen.

KI-entwickelte Produkte und Qualitätstests

Bereits mit mehr individueller Vorarbeit verbunden sind Simulationen und Übertragungen in individuelle Modelle, die Input aus den öffentlich nutzbaren LLMs mit unternehmenseigenen Daten kombinieren. In diesem Umfeld spielen digitale Zwillinge als Datenlieferanten eine wichtige Rolle. Die komplette Digitalisierung eines Produkts (etwa im Automobilbau) beschleunigt die Produktentwicklung massiv, da sich Optimierungen am Digital Twin simulieren lassen, um Produktdesigns und Anforderungen anzupassen. Entwicklungen könnten sich so von sechs bis neun Monaten auf wenige Wochen reduzieren lassen. Aufbauend auf Machine Learning (ML)-Algorithmen zur Qualitätsprüfung, kann GenAI zudem eine Ursachenanalyse für Qualitätsprobleme erstellen, Gegenmaßnahmen vorschlagen und Berichte erzeugen. Weiter können LLM eingesetzt werden, um Arbeitsschritte zu protokollieren, um etwa die Erstellung von Handbüchern oder Dokumentationen zu automatisieren.

LLM mit internen Daten

In vielen Unternehmen werden täglich eine große Menge strukturierter und unstrukturierter Daten generiert. Dazu gehören Sensorenmetriken, Bilder, Video, Telemetrie-Daten, Nutzerhandbücher, technische Beschreibungen, Qualitätspläne, Anforderungskataloge und -konzepte, Sicherheitsdatenblätter, regulatorische Anforderungen und Liefervereinbarungen. Alle diese Daten lassen sich von LLMs integrieren und analysieren. Doch oft verfügen nur einzelne Bereiche über eine große Datenmenge, die unterschiedlich kodiert, daher nicht so einfach übertragbar und nutzbar sind. Ein zentrales Datenmanagement inklusive eines einheitlichen Unternehmensdatenmodell ist eine Grundlage, um Informationen aus Rohdaten zu schöpfen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert