Bessere Hinderniserkennung für FTS und AMR

Weitere Sensoren, die im FTS oder AMR verbaut werden, können die Sicherheit gegenüber Kollisionen deutlich verbessern. Letztendlich geht es darum, die Wahrnehmungsfähigkeiten der Fahrzeuge zu verbessern. Gleichzeitig muss die Steuerungssoftware in der Lage sein, die Daten zu verarbeiten, um so die passenden Aktionen auszuführen. Es können verschiedene physikalische Sensorprinzipien, wie Ultraschall oder Radar, verwendet werden, Kameras spielen aber beim Wahrnehmen der Umgebung eine wichtige Rolle. Insbesondere 3D-Kameras, die mit dem TOF-Verfahren zu jedem Bildpunkt auch eine Abstandsinformation ermitteln, bieten große Vorteile. In der Vergangenheit waren solche Kameras vergleichsweise teuer, und die Software zur Bildverarbeitung war anspruchsvoll und verlangte entsprechendes Knowhow während der Entwicklung. Einen neuen Ansatz bietet das Perception-System O3R von IFM. Das Unternehmen stellt damit eine Hardware-Plattform zur Verfügung, die auf einer zentralen Video Processing Unit (VPU) basiert. An diese lassen sich über FPD-Link bis zu sechs Kameraköpfe verbinden. Zusätzliche Sensoren, z.B. Radar oder Lidar, können über eine GBit-Ethernet-Schnittstelle angeschlossen werden. Die Kameraköpfe können im Fahrzeug flexibel eingebaut und angeordnet werden. Somit lässt sich die gesamte Umgebung lückenlos erfassen. Da die Rechenleistung überwiegend von der VPU zur Verfügung gestellt wird, können die Kameras entsprechend einfacher ausgelegt und damit kostengünstiger angeboten werden. IFM bietet die passenden Kameras, die 3D-Sensoren oder eine Kombination aus 3D- und 2D-Sensoren mit verschiedenen Öffnungswinkeln und Auflösungen.

Software einfach implementieren

Die VPU der O3R-Plattform ist ein auf Nvidia basierendes leistungsfähiges Linux-System. Da die Leistungsfähigkeit skalierbar ist, kann sie auf die jeweilige Applikation angepasst werden. Die meisten der auf der Plattform laufenden Anwendungen verwenden die sogenannte Sensordatenfusion, bei der Informationen aus der Kombination der Daten verschiedener Sensoren gewonnen wird. Mit diesen Informationen können dann FTS und AMR besser betrieben werden. Mit den verfügbaren ROS2-Treibern lässt sich das System einfach in Robotikapplikationen integrieren. Sowohl für die Vorentwicklung als auch die Serienentwicklung stellt IFM umfangreiche Software-Tools sowie Entwicklungsplattformen zur Verfügung. Zugang erhalten Entwickler über die O3R-Website O3R.ifm.com sowie über Github.

Um Anwendungen möglichst einfach umsetzen zu können, bietet IFM mit seinem Vision Assistant eine leistungsstarke Lösung, in der zahlreiche typische Aufgaben bereits fertig implementiert sind. Die Idee hinter dem Vision Assistant: Möglichst viele Funktionen sollen durch einfache Parametrierung erledigt werden. Eine neue Funktion für die O3R-Plattform ist das Obstacle Detection System (ODS). Es erkennt Hindernisse, die sich auf dem Weg des FTS oder AMR befinden. Im Gegensatz zu einem einfachen Sicherheits-Laserscanner ist der Erfassungsbereich aber nicht auf die Knöchelhöhe limitiert.

Der Algorithmus im ODS ist so konzipiert, dass er möglichst sicher und zuverlässig Objekte erkennt. Verwendet wird dabei ein sogenanntes Occupancy Grid eine Art Schachbrettdarstellung der Umgebung mit Belegterkennung pro Schachfeld der Größe 5x5cm, oder Zonen, in denen Bereiche in Form von Polygonen definiert werden können. Diese werden je nach Fahrtrichtung, Geschwindigkeit und Lenkbewegungen dynamisch angepasst, so wie man es z.B. von Rückfahrkameras in PKW kennt. Dazu ist eine Kommunikation zwischen O3R und der Fahrzeugsteuerung notwendig. Gleichzeitig wurde bei der Entwicklung Wert darauf gelegt, dass es möglichst nicht zu Fehlerkennungen kommt. Indem jedes Objekt mehrfach hintereinander erkannt werden muss, unterdrückt das System Artefakte, die durch Staub oder Dunst im Sichtfeld der Kamera entstehen könnten. Generell kann die Empfindlichkeit des Systems angepasst werden, um Fehlerkennungen zu vermeiden.

Bodenerkennung ist sicher möglich

Um das ODS einzurichten, müssen die Kameras ausgewählt und deren Positionen am Fahrzeug festgelegt werden. Die Kalibrierung des Systems ist ebenfalls sehr einfach mit Hilfe eines Wizards im Vision Assistant und handelsüblicher Kalibrierplatten in Schachbrettmuster realisierbar. Die für den Anwendungsfall wichtige Erkennung des Bodens – oder besser die Trennung von Boden und Objekten auf dem Boden – ist hierbei der eigentliche Kern der Lösung. Der Clou liegt in der visuellen Odometrie, bei der die Kameras hinreichend markante Strukturen auf dem Boden erfassen. Unterstützt wird das durch einen in der O3R-Plattform integrierten Inertialsensor. Alternativ können die Eigenbewegungsdaten des Fahrzeugs genutzt werden, um Boden, Bewegungsartefakte und bewegte Objekte voneinander zu unterscheiden.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert