Continual Learning

Das Feature ´Uncertainty Estimation´ fungiert als zusätzliche Prüfinstanz zur Klassifikation und validiert die unsichere Entscheidung durch eine realistische Schätzung. Christian Eckstein, MVTec
Das Feature ´Uncertainty Estimation´ fungiert als zusätzliche Prüfinstanz zur Klassifikation und validiert die unsichere Entscheidung durch eine realistische Schätzung. Christian Eckstein, MVTec
Das Feature ´Uncertainty Estimation´ fungiert als zusätzliche Prüfinstanz zur Klassifikation und validiert die unsichere Entscheidung durch eine realistische Schätzung.

Christian Eckstein, MVTec
Das Feature ´Uncertainty Estimation´ fungiert als zusätzliche Prüfinstanz zur Klassifikation und validiert die unsichere Entscheidung durch eine realistische Schätzung. Christian Eckstein, MVTecBild: MVTec Software GmbH

Deep Learning gilt heute als feste Größe in der industriellen Bildverarbeitung und kommt in immer mehr Applikationen zum Einsatz. Dabei nimmt die Performance von Hardware für Training und Inferenz permanent zu, während spezielle Deep-Learning-Beschleuniger die Schnelligkeit der Algorithmen auch auf Embedded Geräten ermöglichen. Dennoch müssen bei der Deep-Learning-Nutzung in der Praxis noch einige Herausforderungen gemeistert werden: So verursacht die Erzeugung großer Mengen von Trainingsbildern einen hohen Aufwand und entsprechende Kosten. Insbesondere Bilder von fehlerbehafteten Objekten (Schlechtbilder) sind oft nicht in ausreichender Menge verfügbar. Zudem ist Deep Learning sehr ressourcenhungrig, sodass die Performance herkömmlicher CPUs für das Training mit großen Datensätzen meist nicht ausreicht. Um Deep Learning weiterzuentwickeln, bringt MVTec im Jahr 2024 zwei neue Technologien auf den Markt:

Uncertainty Estimation

Zunächst sorgt das Feature Uncertainty Estimation für die verlässliche Erkennung von Veränderungen. Dazu zählen beispielsweise Schwankungen bei der Beleuchtung, neue Defekttypen, Abnutzung an der Produktionsanlage oder geänderte Objekte in der Inspektion. Klassische Deep-Learning-Anwendungen finden sich damit schwer zurecht. Sie begreifen die Welt nur in dem Rahmen, in dem sie trainiert wurden. Kommen Modifikationen ins Spiel, bewertet das Modell die Bilder weiterhin nach den bekannten Kriterien. Tritt etwa ein neuer, noch nicht trainierter Fehlertyp auf, oder erscheint ein ganz anderes Objekt, steht das System vor Herausforderungen: Es versucht nun, die veränderten Rahmenbedingungen in eine bekannte Kategorie einzuordnen. Dies misslingt jedoch, da die neuen Kriterien eben noch nicht bekannt sind. Uncertainty Estimation sorgt hier für Abhilfe: Die Technologie fungiert als zusätzliche Prüfinstanz zur Klassifikation und validiert die unsichere Entscheidung durch eine realistische Schätzung. Von entscheidender Bedeutung ist dabei, ob das neue Modell innerhalb oder außerhalb der Merkmalsverteilung des zugrundeliegenden Datensatzes liegt. Unterscheidet sich das inspizierte Bild nur gering vom Trainingsdatensatz, klassifiziert Uncertainty Estimation es als Near-Distribution, sodass eine manuelle Prüfung erfolgt. Befindet sich das Objekt jedoch komplett außerhalb des Merkmalsraums, wird es als Out-of-Distribution markiert. Tritt dieser Fall häufiger auf, ist der betreffende Trainingsdatensatz offensichtlich nicht mehr repräsentativ für die jeweilige Prüfaufgabe. Dann wird ein Nachtraining erforderlich.

Continual Learning

Um die Anforderungen an die Hardware und die Trainingszeit zu verringern, sollte das Nachtraining nur wenige neue Bilder benötigen. Dies bringt jedoch eine Herausforderung mit sich: Ähnlich wie ein Mensch neigt das System dazu, neue Informationen überzubewerten. Zwar werden die neuen Fälle erfolgreich klassifiziert. Dennoch vernachlässigt das Modell die alten Bilder, was Fehler zur Folge haben kann. Genau hierfür hat MVTec sein neues technisches Feature Continual Learning entwickelt: Dieses verringert den Aufwand für das Nachtraining und stellt gleichzeitig eine robuste Erkennungsrate sicher. Die Technologie ebnet den Weg, um ein bestehendes Modell mit wenigen neuen Bildern nachzutrainieren. Die Performance einer konventionellen CPU reicht hierzu völlig aus. Damit lässt sich das Training direkt an der Anlage durchführen. Dabei können sowohl bestehende als auch neue Bilder gleichermaßen klassifiziert werden. Ein weiterer Vorteil: Das Training nimmt je nach Anzahl der Bilder und verfügbarer Rechenpower nur wenige Sekunden in Anspruch. Hierbei werden einfach neue Instanzen zu einer bestehenden oder einer neuen Klasse hinzugefügt. Da hierfür kein tiefgehendes Bildverarbeitungs-Know-how erforderlich ist, kann der Bediener an der Maschine das Nachtraining selbst vornehmen, was den Aufwand hierfür signifikant reduziert. Dies führt nicht zuletzt auch dazu, das Vertrauen in Deep Learning zu stärken und den Einsatz der KI-Technologie in der industriellen Produktion zu fördern.

www.mvtec.com

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert