Generative KI im Wissenssystem

Bild: ©PollyDot/Pixabay

Das Vergleichen von Requirements, die Optimierung von Bedienungseinstellungen an Maschinen, die Verbesserung von Trainings und weniger Schreibarbeit im Qualitätsmanagement: Die Einsatzszenarien von Gen AI sind vielfältig. Überall wo es etwa um das Zusammenfassen und Vergleichen komplexer Informationen geht, können schon jetzt integrierte KI-Assistenten wie Microsoft Copilot Arbeitszeiten deutlich verkürzen. Sie helfen auch bei der Recherche von Informationen. Die hohe Schule sind jedoch individuelle, hochspezialisierte Wissenssysteme.

Wissenssysteme mit GenAI

Gen AI kann beispielsweise einen Blick auf die Produktionsoptimierung werfen. Die Ergebnisse und Optimierungsvorschläge von KI-Assistenten, die auf Large Language Models (LLM) wie ChatGPT basieren, können Denkanstöße vermitteln. Wird die Technologie darauf angesetzt, wie sich der Deckungsbeitrag erhöhen lässt, kommen überraschende Kombinationen heraus: Ideen, die Menschen einfach nicht haben würden. Oft sind diese Vorschläge nicht direkt nachvollziehbar, aber oft einen zweiten Blick wert.

Manuelle Nacharbeit nötig

Wer derzeit mit LLM experimentiert, erhält derzeit rund 25 Prozent nutzlose Antworten – etwa weil im Detail nicht zueinander passende Parameter verglichen werden. Das liegt auch am Fokus auf teilweise unwichtige Details. Um das System zu verbessern, muss deshalb erarbeitet werden, welche Parameter wichtig sind. Die Technologie ist also mit Vorsicht zu genießen: Wer einerseits von den innovativen Hinweisen profitieren will, kommt andererseits nicht um manuelles Nachprüfen herum. Eine Schwäche aktueller LLM liegt darin, dass beim Verarbeiten sehr langer PDF-Dateien mit rund 300 Seiten der Mittelteil falsch verstanden wird. Soll also beispielsweise die Arbeit in der Produktentwicklung automatisiert und mit EU-Verordnungen abgeglichen werden, ist das eine Hürde. Auch die aktuelle Diskussion darüber, ob die Qualität von ChatGPT nachgelassen hat, weist auf einige Unwegbarkeiten der Technologie hin.

Anbieter arbeiten unter Hochdruck

Zugleich ist seit der Einführung von ChatGPT offensichtlich geworden, dass die LLM-Anbieter kontinuierlich an diesen Herausforderungen arbeiten. Es sollte für Unternehmen also einfacher werden, mit dieser Form von KI zu experimentieren. Aus Wettbewerbssicht ist das auch dringend notwendig. Denn je mehr eigene ‚GPTs‘ (Generative Pre-trained Transformer) ein Unternehmen mit den Daten für einen spezifischen Wissensbereich anreichert, umso höher kann der Nutzen ausfallen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert