Reibungslose Kooperation zwischen Mensch und Roboter

Bild: Fraunhofer HHI

Zu den kritischen Stellen im Automobilbau gehören Schweißnähte. Deren Überprüfung wird zukünftig gemeinsam von Roboter und Mensch übernommen, bei der beide Seiten ihre Vorteile ausspielen können. Gesteuert durch Gesten und Sprachbefehle trägt und bewegt der Roboter die Bauteile – und die Facharbeiterin oder der Facharbeiter kann Fehlstellen leicht markieren und protokollieren. Das Fraunhofer HHI bringt damit seine langjährige Erfahrung in der 3D-Erfassung, -Informationsverarbeitung und -Visualisierung in das Verbundprojekt Easy Cohmo ein (Ergonomics Assistance Systems for Contactless Human-Machine-Operation). Die Sichtprüfung von Schweißnähten an wichtigen Bauteilen in der Automobilproduktion ist ein Paradebeispiel für eine funktionierende Mensch-Roboter-Kooperation (MRK), die in den nächsten Jahren konkret die Prüfung bei Volkswagen unterstützen wird. Bisher läuft der Prüfprozess wie folgt ab: Jedes Bauteil muss erst händisch in einen Drehpositionierer eingespannt werden, damit es von allen Seiten begutachtet werden kann. Dabei lassen sich ergonomisch ungünstige Haltungen nicht vermeiden. Zudem ist für diesen aufwändigen Prozess nur eine kurze Zeit vorgesehen, worunter die Begutachtungsqualität leidet. Auch ist der Prüfprozess oft nicht standardisiert und entdeckte Fehler meist gar nicht protokolliert oder müssen in einem separaten System eingetragen werden. Bei Easy Cohmo sollen Roboter den Prüfprozess unterstützen – beispielsweise indem sie die Prüfteile halten. Der Mitarbeiter interagiert mit dem Roboter mithilfe von expliziten und impliziten Gesten. Die vom Fraunhofer HHI entwickelte Middleware koordiniert verschiedene Sensoren, um die Arbeitssituation ganzheitlich zu erfassen. So werden aus der Position und den Körpergesten des Mitarbeitenden die nötigen Bewegungen des Greifarms abgeleitet. Auch individualisierte Eingaben zur Steuerung sind möglich. Über solche Gesten werden auch die Fehler am Bauteil virtuell markiert und mithilfe von Projektoren visualisiert, bevor sie vom Mitarbeitenden bestätigt werden. Dadurch erfolgt zusätzlich eine 3D-Dokumentation. Der Ansatz, über eine optimierte Middleware mit Hilfe passgenauer Regelanweisungen und maschinellem Lernen viele Sensoren mit multimodalen Steuerungsmöglichkeiten zu kombinieren, kann für weitere MRK-Anwendungen den Durchbruch bringen – etwa für interaktive Assistenzroboter in nicht-industriellen Anwendungen.

www.hhi.fraunhofer.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert