Sensorik 2025

Lasse-Pekka Thiem, Baumer
Lasse-Pekka Thiem, Baumer

Wie leistungsfähig werden Sensoren durch den Einsatz von künstlicher Intelligenz (KI)?

Mike Gonschior (IFM): Natürlich benötigt KI leistungsfähige Sensoren als Informationslieferant der Entscheidungen. KI ist ein breitgefächertes Spektrum an Methoden, die als Basis eine große Datenmenge benötigt. Dies wird in den meisten Fällen ein leistungsfähiges IT-System benötigen, denn die Informationsbasis sieht die Maschine als Ganzes. Dies kann ein Sensor aber allein meist nicht bereitstellen. Vermutlich werden daher zukünftige KI-Algorithmen hybride Programme im Sensor, dem Edge-Gateway und in der Cloud ausführen. Viele einfache Algorithmen zur Prozessqualität, Gerätediagnose oder für die zustandsbasierte Wartung sind bereits heute in unseren Sensoren implementiert.

Lasse-Pekka Thiem (Baumer): Wir erleben einen KI-Hype, was nicht schlecht ist, aber wir müssen doch immer mit beiden Beinen am Boden bleiben und den Kundenmehrwert darstellen. Wir unterstützen Kunden mit KI-Lösungen z.B. bereits im Bereich der Anomalieerkennung von Oberflächen sowie bei der Qualitätsinspektion. Wir nutzen auch neuronale Netze, um Sensoren einfacher zu kalibrieren. Bei der Steuerung von Maschinen und Anlagen wird die – nicht deterministische – Thematik kurzfristig nicht das Ziel sein. Spannend wird es dann, wenn wir nicht nur Fehler erkennen oder vorhersagen, sondern mit smarten Sensorlösungen Optimierungen in den Prozessen ermöglichen. Klar ist, dass die Sensorik ein wichtiger Baustein für Machine-Learning-Projekte in der Industrie ist. Ohne Daten können keine Modelle trainiert werden. Moore´s Law wird wohl weiterhin Bestand haben und dann werden wir auch in der Sensorik erleben, dass neuronale Netze auf dem Sensor ausgeführt werden und das System selbstlernend neue Aufgaben löst. Manches davon ist heute schon realisierbar, allein der Energieverbrauch der Systeme ist derzeit noch ein Problem.

Bernhard Müller (Sick): Stand heute erhöhen wir die Leistung unserer kamerabasierten Sensoren insbesondere unter drei Aspekten: Komplexität, Flexibilität und effiziente Entwicklung. Mittels Deep Learning als Teilbereich der KI lassen sich komplexere Aufgaben automatisieren, für die bislang menschliches Urteilsvermögen notwendig war. Diese Aufgaben können dann durch Sensoren auf Basis von Deep-Learning-Algorithmen schneller, konstanter und zuverlässiger verrichtet werden. Der Kunde profitiert von einer höheren Flexibilität, da sich der gleiche Sensor in sehr verschiedenen Szenarien einsetzen lässt, in dem man einfach ein neues Training mit entsprechenden Daten durchführt. Außerdem beschleunigt der Paradigmenwechsel vom ‚Programmieren‘ einer Lösung zum ‚Trainieren‘ einer Lösung die Lösungsentwicklung und macht diese auch für Nutzergruppen zugänglich, die bislang aufgrund fehlender Kenntnisse in Machine Vision und Machine Learning derartige Entwicklungen nicht durchführen konnten. Aktuell beteiligt sich Sick an einem Projekt, indem KI dazu dient, anhand ‚einfacher‘ Messwerte, wie z.B. Temperaturen, komplexe Messgrößen vorherzusagen. Damit sollen schwer zu messende Messgrößen indirekt erfasst werden. KI kann auch dafür eingesetzt werden, Pattern in Sensorwerten zu erkennen, um bei anormalem Verhalten zu warnen. Mit Hilfe von KI können u.a. Zusammenhänge in großen Datensätzen erkannt werden, die auf herkömmliche Weise nur schwer zu schließen sind.

Elmar Büchler (Balluff): Mit KI lässt sich sowohl im Sensor als auch in der Sensordatenanalyse eine Vielzahl von Vorteilen hinsichtlich Usability, Zuverlässigkeit, Qualität, Diagnose, Monitoring und Prozessoptimierung erzielen. Hier bietet uns KI im Vergleich zu statischen Methoden oder der Schwellwertüberwachung deutlich erweiterte Möglichkeiten. Balluff bietet mit seinen Vision-Systemen Produkte an, die KI-Funktionen zur Bildanalyse verwenden. Darüber hinaus verfügen wir über die entsprechende KI-Expertise und individuelle KI-Lösungen.

Oliver Marks (Turck): KI sorgt ja vor allem dafür, dass die von Sensoren ermittelten Messwerte schnell und sinnvoll verarbeitet werden können. Dort, wo ein einzelner Sensor genug Informationen sammeln kann, um KI sinnvoll zur Anwendung zu bringen, kann das durchaus im Sensor geschehen; ansonsten ist es sicher sinvoller, so etwas in einer nachgelagerten Ebene zu tun. Ein gutes Beispiel dafür ist unser Cabinet-Condition-Monitoring-Modul CCM. Das sieht zwar aus wie ein kompaktes Interface-Gerät für die Hutschiene im Schaltschrank, ist aber in Wirklichkeit ein Multisensor, der Luftfeuchte, Temperatur, Türöffnung usw. misst und so vorrausschauende Wartung von Schaltschränken ermöglicht.

Werden Vision-Sensoren klassische Sensoren ablösen (oder umgekehrt)?

Marks: Vision-Sensoren können in einigen Applikationen herkömmliche Sensoren durchaus ersetzen und so eine einfache Alternative darstellen. Gerade bei der gleichzeitigen Inspektion mehrerer Eigenschaften sind Vision-Sensoren klar im Vorteil. Dies ist aber sicherlich nicht zu verallgemeinern, denn auch Umgebungsbedingungen, Verschmutzungsanfälligkeit usw. müssen betrachtet werden. Insofern sehen wir Vision-Sensoren als gute Ergänzung klassischer Sensorik an, jedoch nicht als Ersatz.

Gonschior: Aus unserer Sicht werden sowohl Vision-Sensoren, als auch Sensoren, die auf anderen physikalischen Prinzipien beruhen, noch auf lange Sicht ihre Berechtigung haben. Die Frage sollte auch eher lauten, inwieweit Vision-Sensoren das Potenzial haben, neue Applikationsfelder/-gebiete zu schaffen und herkömmliche Bildverarbeitungslösungen zu verdrängen. Hier sehen wir auf jeden Fall einen wichtigen Ansatzpunkt. Mit unseren smarten Vision-Sensoren können wir viele Anwendungen sehr viel einfacher und schneller lösen, als das eine herkömmliche Bildverarbeitung könnte. Unsere Herangehensweise kommt stets aus der Sensorsicht – ein Vision-Sensor sollte sich ebenso einfach in Betrieb nehmen lassen, wie ein optischer Abstandssensor. Im Idealfall geht das sogar mit dem gewohnten Teach-In. Ein Bildverarbeitungsspezialist ist dafür nicht notwendig. Und natürlich haben Vision-Sensoren noch einen weiteren wichtige Vorteil: Sie haben ein deutlich besseres Preis-Leistungsverhältnis.

Thiem: Ich habe keine Ablösung wahrgenommen. Keiner unserer Kunden käme auf die Idee, einen zuverlässigen, robusten, unter extremen Bedingungen funktionierenden, kostengünstigen Induktivsensor durch einen Vision-Sensor zu ersetzen. Ich würde deshalb sagen, Vision-Sensoren sind eine gute Ergänzung am Markt. Dort wo hohe Qualität und komplexe Messungen gefragt sind, können sie eine Alternative sein. Z.B. mit unseren Profilsensoren in der Automobilindustrie, lassen sich mittlerweile bei der Endpositionierung von Robotern die Prozesse nennenswert optimieren.

Büchler: Nach Aussagen von Verbänden sowie Maschinen- und Anlagenbauern werden sich weltweit sowohl der Automatisierungsgrad als auch die -tiefe deutlich erhöhen und damit auch der Bedarf insbesondere an intelligenten Sensoren und Vision-Sensoren. Vision-Sensoren erfassen im Gegensatz zu klassischen Sensoren nicht nur einzelne Punkte, sondern eine zweidimensionale Fläche ab. Daher ist ein Vision-Sensor vorteilhaft, wenn mehrere Punkte erfasst werden sollen. Insbesondere für Maschinen und Anlagen, die eine sehr hohe Flexibilität und Modularität erfordern, z.B. für die hoch individualisierte, auftragsbezogene Fertigung (Losgröße 1) oder wenn sich die zu überwachenden Punkte in der Applikation verändern. Daher wächst sowohl der Bedarf an intelligenten Sensoren, als auch an Vision-Sensoren.

Müller: Obwohl die Entwicklung von 3D-Vision-Sensoren in den letzten Jahren einen enormen Sprung gemacht hat und diese mittlerweile auch Applikationen lösen können, welche bisher nur von klassischen Sensoren übernommen werden konnten, werden sie, Stand heute, diese nie gänzlich ersetzen. Dazu sind die Anwendungsfelder für Sensoren zu unterschiedlich: neben diversen Sensortechnologien gibt es Temperatursensoren, Gassensoren, Detektionssensoren, 1D optische Sensoren, u.v.m. Im Vordergrund der Auswahl nach der richtigen Sensorlösung steht die zu erfüllende Aufgabe: Das hängt u.a. mit der Frage nach dem Preis-Leistungsverhältnis, der Genauigkeit oder Anzahl der Sensoren oder den Inbetriebnahmekosten zusammen – alles in allem: den total costs of ownership. Will man also Temperaturen messen, ist der Vision-Sensor nicht immer die beste Wahl – für die optische Prüfung eines Bauteils jedoch schon. Vision-Sensoren (1D optische Sensoren, 3D-Vision-Kameras) finden ihre Anwendung vorrangig in Applikation, die eine ‚optische Wahrnehmung‘ erzeugen sollen, um beispielsweise die Qualität von Oberflächen zu prüfen.

Ergeben sich durch 3D-Sensoren neue Anwendungsgebiete?

Müller: Die 3D-Vision-Sensorik hat sich technisch enorm weiterentwickelt. Mittels höherer Performance hinsichtlich der Auflösung oder der 3D optischen Informationsdichte von der Umgebung können heute bereits Maschinen mit einfachen Gesten gesteuert werden oder existierende Anwendungsgebiete noch effizienter gelöst werden. Z.B. ist die Kollisionswarnung mit einer 3D-Kamera relativ neu, bietet aber durch die Dreidimensionalität ganz klar Vorteile gegenüber klassischen Einsätzen, da die Anwender Hindernisse erkennen oder auch Hindernisse klassifizieren (Gabelstapler, Mensch, etc.) können. Ein anderes Beispiel ist die statische Freight-Palette-Dimensionierung. Diese ist mit herkömmlichen Messsystemen sehr kostenintensiv, da bewegende Teile verbaut sind. 3D-Vision-Kameras arbeiten dort schneller und zuverlässiger.

Thiem: Die Welt ist dreidimensional und klar ergeben sich neue Möglichkeiten für die Sensorik beispielweise die Erfassung von Volumen oder in der Robotik.

Büchler: Im Vergleich zur binären oder messender Erfassung einzelner Punkte (1D) oder Flächen (2D) ist es mit 3D-Sensoren möglich, noch mehr und neue Anwendungen zu realisieren. Dazu gibt es eine Vielzahl an unterschiedlichen Sensorprinzipien. Mit dem Balluff-Condition-Monitoring-Sensor BCM lässt sich z.B. Vibration in drei Dimensionen (x,y und z-Achse) erfassen und ermöglicht so eine sehr umfassende und detaillierte 3D-Zustandsanalyse von Maschinen und Anlagen, Pumpen, Antrieben, usw. Aufgrund der drei Achsen ist auch die Montage und Ausrichtung deutlich einfacher. Zudem lassen sich sekundäre Einflüsse, Anomalien und Ereignisse leichter erkennen. Des Weiteren bietet Balluff intelligente 3D-Kameras an, um in den Bereichen Fabrikautomation, Robotik und Intralogistik Aufgaben wie Greifpunktbestimmung, Palettierung und Volumenbestimmung lösen zu können. 3D Anwendungen lassen sich auch durch die Kombination mehrerer Sensoren realisieren z.B. in dem die 2D-Information des BLA-Lichtbands mit der Geschwindigkeit des Transportbands korreliert wird, um daraus 3D-nformationen zu gewinnen. Vergleichbar haben wir auch Applikationen mit einer Kamera gelöst, die schichtenweise 2D-Bilder zu einem 3D-Bild fusioniert. Ein weiterer Ansatz sind virtuelle Sensoren bzw. Softsensoren, die fehlende direkte Messgrößen errechnen und somit eine 3D-Zielgröße ermitteln. Mit entsprechenden virtuellen Sensormodellen und dem Einsatz von KI lassen sich erstaunliche Ergebnisse erzielen.

Marks: Dank der dritten Dimension, die sich durch 3D-Vision erschließt, lassen sich zusätzliche Informationen über Volumen, Höhe, Position und tatsächliche Form eines Objekts gewinnen. Die Technologie bietet sich auch zur Unterscheidung von Objekten an, die dieselbe Farbe oder dasselbe Muster aufweisen, und ermöglicht so zuverlässigere Lösungen. Anwendungen sind beispielsweise Roboterführung oder der Ersatz für taktile Messungen. Es lassen sich gleichzeitig Position, Lageerkennung und Vollständigkeitskontrollen realisieren.

Gonschior: 3D-Sensoren und -Kameras liefern zusätzlich zu der Bildinformation, wie sie herkömmliche Kameras liefern, eine Abstandsinformation für jeden Bildpunkt. Mit diesem zusätzlichen Informationsgehalt ergeben sich auch neue Anwendungsmöglichkeiten. In der Intralogistik eignen sich unsere O3D-Sensoren beispielsweise für die schnelle und vollautomatische Erkennung von Paletten. Dieses Palettenerkennungssystem steigert die Leistung von autonomen und teilautonomen Fahrzeugen, indem die Erkennungsgeschwindigkeit der Palettenposition erhöht wird, ohne dass die Präzision beeinflusst wird. Eine weitere Anwendung ist ein Kollisionswarnsystem, das wir auf Basis unsere O3M-Sensoren entwickelt haben. Da dieses im Vergleich zu einer herkömmlichen Rückfahrkamera die zusätzliche Abstandsinformation an die Steuerung liefert, kann das System den Fahrer bei einer Gefahrensituation warnen und gegebenenfalls auch aktiv in das Fahrgeschehen eingreifen. Neben diesen vorgefertigten Sensorlösungen nutzen viele Kunden unsere 3D-Kameras auch zu Navigation von Robotern oder AGVs.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert