Umgebungsmodell lässt Roboter ihr Umfeld verstehen

Das Verstehen der Umgebung ermöglicht einen sicheren Einsatz in öffentlichen Umgebungen wie hier beispielsweise für Hol- und Bringdienste zu Testzwecken in einer Pflegeeinrichtung.
Das Verstehen der Umgebung ermöglicht einen sicheren Einsatz in öffentlichen Umgebungen wie hier beispielsweise für Hol- und Bringdienste zu Testzwecken in einer Pflegeeinrichtung.
Das Verstehen der Umgebung ermöglicht einen sicheren Einsatz in öffentlichen Umgebungen wie hier beispielsweise für Hol- und Bringdienste zu Testzwecken in einer Pflegeeinrichtung.
Das Verstehen der Umgebung ermöglicht einen sicheren Einsatz in öffentlichen Umgebungen wie hier beispielsweise für Hol- und Bringdienste zu Testzwecken in einer Pflegeeinrichtung.Bild: Fraunhofer – Institut IPA

Ob in Logistik, Inspektion, professioneller Reinigung, Einzelhandel, Dienstleistung, der Gesundheitswirtschaft oder natürlich im Produktionsumfeld: Autonome mobile Roboter sind ein immer wichtigeres und boomendes Schlüsselelement, um mehr Automatisierung zu ermöglichen. Verglichen mit Industrierobotern müssen AMR jedoch mehr Fähigkeiten mitbringen, um wirtschaftlich nutzbar zu sein. Denn während die klassischen Industrieroboter in einem klar definierten Umfeld agieren, gilt genau das nicht für AMR. Ganz im Gegenteil: Dadurch, dass sie selbst mobil sind und auch meist in veränderlichen und nicht roboterspezifischen Umgebungen, wie Lagerhallen, Fluren oder sonstigen größeren öffentlichen Bereichen, fahren, müssen sie ihre Aufgabenausführung an ein sich mehr oder weniger stark veränderndes Umfeld anpassen. Und ganz wichtig: Oft bewegen sie sich unter Menschen, was noch einmal eine erhöhte Herausforderung darstellt.

Das Erfassen, Erkennen und Interpretieren des Umfelds ist dementsprechend eine Kernfähigkeit von AMR. In den letzten Jahren wurden hier bereits gute Fortschritte erzielt und gerade das maschinelle Lernen, das aktuell am meisten verbreitete Teilgebiet der künstlichen Intelligenz, hat viele Neuentwicklungen ermöglicht und wird das auch weiter tun. Bisher lag der Fokus der Entwicklungen jedoch darauf, AMR domänenspezifisches Wissen für einen bestimmten Anwendungsfall und eine bestimmte Umgebung beizubringen. Es fehlt aber an der Fähigkeit, eine Szene insgesamt zu verstehen, wie wir Menschen es können. Die kog-nitiven Möglichkeiten eines Roboters sind noch limitiert. Es ist nur aufwendig möglich, eine einmal umgesetzte Anwendung zu erweitern oder nach der Inbetriebnahme des Roboters noch Anpassungen vorzunehmen. Das hemmt den Einsatz von AMR und kann auch ein Sicherheitsrisiko darstellen.

Menschliches Vorbild

Um hier einen entscheidenden Schritt weiterzukommen, hat Florenz Graf, wissenschaftlicher Mitarbeiter am Fraunhofer IPA, ein Umgebungsmodell für AMR entwickelt, das genau diese Hürden adressiert und überwinden möchte. Das Neue daran: Im Gegensatz zu bisherigen Arbeiten, die z.B. entweder die Objekterkennung oder die Kartierung mithilfe von SLAM (Simultaneous Localization and Mapping) voranbringen, verfolgt das Modell einen ganzheitlichen Ansatz. Es aggregiert vielfältige Umgebungsinformationen, speichert diese und kann sie über einen längeren Zeitraum analysieren und interpretieren. Damit unterscheidet es sich deutlich von bisherigen Entwicklungen im Robotikumfeld.

Graf nennt das Modell Human-Inspired Scene Perception (HIP) und ahmt damit die menschliche Wahrnehmung nach. Stark vereinfacht sieht das Vorgehen so aus: Für Menschen und Roboter gilt, dass sie Informationen erkennen, diese abspeichern und dann darauf basierend interpretieren müssen. Beim Menschen erfolgen diese drei Schritte durch neuronale Verarbeitungen von Informationen im Gehirn (allen voran visuellen Informationen), den Abgleich dieser mit einer eigenen Wissensbasis und dem Ableiten von dazu passenden Handlungen. Für einen Roboter bedeutet das: Er erkennt eine bestimmte Szene mithilfe von Sensoren, gleicht diese Informationen mit einer Datenbasis ab und plant daraufhin eine Handlung.

Erkennen

Die Sensordaten, die Roboter im ersten Schritt verarbeiten, können vielfältig sein und dem Einsatzszenario entsprechend angepasst werden. Die häufigsten und informationsstärksten Sensoren sind visuelle Sensoren, wie RGB- oder RGB-D-Kameras, Light Detection and Range (kurz: Lidar), Ultraschall und Radar. Sie können Informationen über Farben oder die Entfernung eines Objekts in einer Umgebung liefern. Diese Daten ermöglichen es AMR, Objekte in 2D oder 3D zu erkennen, Objekte zu segmentieren (also abzugrenzen, z.B. Vorder- und Hintergrund voneinander zu trennen), eine Karte ihrer Umgebung zu erstellen und sich in dieser zu lokalisieren oder auch sich bewegende Objekte zu verfolgen. Wenige andere Ansätze nutzen akustische Informationen oder haptische Sensordaten zur Objekterkennung. Geruch und Geschmack sind in der Robotik nahezu ungenutzt.

Verstehen

Die Herausforderung bei diesem zweiten Schritt des Wahrnehmens ist, dass die Software Informationen aus verschiedenen Quellen und Zeiten zusammenführen muss. Hierfür nutzt das entwickelte Modell eine Wissensbasis in Form einer Ontologie mit dem Ziel, dass bisherige Beobachtungen basierend auf einem digitalen Zwilling eine Analyse der Umgebung ermöglichen. Ein Analyseergebnis können z.B. erlernte Objekteigenschaften sein.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert