Automatisiertes Bestücken von Spulengattern

Für einen Kunden aus der Textilbranche dient das FTS Smart Robot Assistant von Ontec Automation der automatisierten Bestückung von Spulengattern.
Für einen Kunden aus der Textilbranche dient das FTS Smart Robot Assistant von Ontec Automation der automatisierten Bestückung von Spulengattern.
Für einen Kunden aus der Textilbranche dient das FTS Smart Robot Assistant von Ontec Automation der automatisierten Bestückung von Spulengattern.
Für einen Kunden aus der Textilbranche dient das FTS Smart Robot Assistant von Ontec Automation der automatisierten Bestückung von Spulengattern.Bild: Ontec Automation GmbH

Der Smart Robot Assistant von Ontec Automation ist vielseitig einsetzbar und übernimmt z.B. monotone, gewichtige Rüst- und Bestückungsaufgaben. Für einen Kunden aus der Textilbranche dient das FTS der automatisierten Bestückung von Spulengattern. Dafür nimmt es Paletten mit Garnspulen auf, transportiert sie zum dafür vorgesehenen Gatter und bestückt es zur Weiterverarbeitung. Über ein eigens entwickeltes Greifsystem werden damit bis zu 1000 Garnspulen pro Achtstundenschicht aufgenommen und auf einen Dorn des Gatters aufgeschoben. Das Schlichtschema und die Position der Spulen werden mittels einer am Greifarm installierten Ensenso-3D-Kamera (N45-Serie) erfasst.

Durch ihre kompakte Bauform und das leichte Kunststoffgehäuse eignet sich die verbaute Kamera gut für die 3D-Erfassung bewegter und statischer Objekte auf Roboterarmen.
Durch ihre kompakte Bauform und das leichte Kunststoffgehäuse eignet sich die verbaute Kamera gut für die 3D-Erfassung bewegter und statischer Objekte auf Roboterarmen. Bild: IDS Imaging Development Systems GmbH

Autonomes Transportsystem

Das autonome Transportsystem eignet sich für bodenebenes Anheben von Europaletten bis zum Container- oder Industrieformat sowie von Gitterboxen in verschiedenen Größen mit einer maximalen Last von 1.200kg. Die mit Industriegarnspulen bestückten Paletten werden vom Boden eines vordefinierten Stellplatzes aufgenommen und zum Standort des Gatters transportiert. Dort positioniert sich der Greifer vertikal über der Palette. Ein Bildtrigger wird an die Ensenso-3D-Kamera gesendet, ausgelöst durch die hauseigene Software Ontec SPSComm. Sie vernetzt sich mit der SPS des Fahrzeugs und kann so Daten auslesen und weitergeben. Im Anwendungsfall übernimmt die Software die Kommunikation zwischen den Softwareparts von Fahrzeug, Greifer und Kamera. Hierdurch weiß die Kamera, wann Fahrzeug und Greifer in Position für eine Bildaufnahme sind. Sie nimmt ein Bild auf und gibt eine Punktewolke an eine Softwarelösung auf Basis von Halcon weiter, die die Koordinaten der Spulen auf der Palette an den Roboter meldet. Der Roboter kann anschließend die Spulen ordnungsgemäß aufnehmen und weiterverarbeiten. Sobald der Greifer eine Schicht der Garnspulen abgeräumt hat, nimmt die Kamera ein Bild des Verpackungsmaterials auf, das zwischen den Garnspulen liegt, und liefert auch davon Punktewolken. Die Punktewolken werden analog verarbeitet, um dem Roboter die Informationen zu liefern, mit denen ein Nadelgreifer die Zwischenlagen entfernt.

Kompakte 3D-Kamera

Durch ihre kompakte Bauform und das leichte Kunststoffgehäuse eignet sich die Kamera gut für die 3D-Erfassung bewegter und statischer Objekte auf Roboterarmen wie dem des Smart Robot Assistant. Dabei ist sie auch anspruchsvollen Umgebungsbedingungen gewachsen. Herausforderungen bei dieser Anwendung finden sich vor allem in den unterschiedlichen Lichtverhältnissen, die sich in verschiedenen Räumen der Halle und zu verschiedenen Tageszeiten zeigen. Der integrierte Projektor der Kamera projiziert jedoch auch bei schwierigen Lichtverhältnissen eine kontrastreiche Textur auf das abzubildende Objekt und ergänzt somit die auf dessen Oberfläche nicht oder nur schwach vorhandenen Strukturen. Durch Vorkonfiguration innerhalb von NxView ließ sich die Aufgabe einfach lösen. Das Beispielprogramm mit Source-Code demonstriert die Hauptfunktionen der NxLib-Bibliothek, mit der sich eine oder mehrere Stereo- und Farbkameras öffnen lassen, deren Bild- und Tiefendaten visualisiert werden. Parameter wie Belichtungszeit, Binning, AOI und Tiefenmessbereich können für das angewendete Matching-Verfahren live angepasst werden.

Das Matching-Verfahren ermächtigt die 3D-Kamera, mittels der auf die Oberfläche projizierten Hilfsstrukturen eine sehr hohe Anzahl an Bildpunkten, inklusive ihrer Positionsänderung, zu erkennen und daraus eine vollständige, homogene Tiefeninformation der Szene zu erstellen. Das sorgt wiederum für die erforderliche Präzision, mit der das FTS vorgeht. Weitere Auswahlkriterien für die Kamera waren die GigE-Schnittstelle sowie der Global-Shutter-1.3MP-Sensor. „Die Kamera macht zugunsten einer schnelleren Durchlaufzeit nur ein Bild von der gesamten Palette, muss dabei aber aus verhältnismäßig großer Entfernung die Koordinaten mit einer Genauigkeit im Millimeterbereich liefern, um dem Roboterarm ein exaktes Greifen zu ermöglichen“, erklärt Matthias Hofmann, Leiter der IT-Abteilung bei Ontec. „Wir brauchen daher die hohe Auflösung der Kamera, um die Ränder der Spulen sicher mit der 3D-Kamera aufnehmen zu können.“ Die Lokalisierung der Ränder ist wichtig, um dem Greifer eine möglichst genaue Position der Spulenmitte weitergeben zu können.

Hand/Auge-Kalibrierung von Kamera zu Roboter

Ensenso SDK ermöglicht die Hand/Auge-Kalibrierung der Kamera zum Roboterarm, was eine einfache Translation bzw. Verschiebung der Koordinaten mithilfe der Roboterpose ermöglicht. Zusätzlich wird durch Verwendung der internen Kameraeinstellungen bei jedem Durchgang, das heißt bei jedem Bildtrigger, eine FileCam von der aktuellen Situation aufgenommen. Das ermöglicht später eine einfache Nachstellung von eventuellen Edge Cases, in diesem Anwendungsfall z.B. unerwartete Lichtverhältnisse, Hindernisse im Bild oder auch eine unerwartete Positionierung der Spulen im Bild. Das System erlaubt außerdem die Speicherung und Archivierung der internen Kamera-Log-Dateien für eine mögliche Evaluation.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert