Mit einer Ensenso N35 3D-Kamera und zwei Denso Roboterarmen haben Wissenschaftler der Nanyang Technological University in Singapur eine Roboterapplikation entwickelt, die einen Ikea-Stuhl selbständig montieren kann. Jeder Roboter ist dazu mit Parallelgreifern sowie Kraftsensoren an den Handgelenken ausgestattet. Die Sensoren bestimmen, wie stark die Finger greifen und wie stark sie Objekte in Kontakt miteinander bringen.
Der Roboter startet den Montageprozess, indem er mit der Ensenso 3D-Kamera nach dem Prinzip des räumlichen Sehens (Stereovision) Aufnahmen der auf dem Boden liegenden Teile macht, um eine Karte der geschätzten Positionen der verschiedenen Stuhlteile zu erstellen. Für eine möglichst genaue, schnelle und zuverlässige Lokalisierung der Bauteile auch in unübersichtlichen Umgebungen, sorgt der Projektor der Ensenso-Kameras.
Er projiziert mittels einer Pattern-Maske eine kontrastreiche Textur auf das Objekt und ergänzt somit die auf dessen Oberfläche nicht oder nur schwach vorhandenen Strukturen. Einen weiteren Vorteil bietet die Ensenso-Software durch die integrierte Funktion für die Roboter-Hand-Auge-Kalibrierung. Damit kann die Hand des Roboters exakt auf die Bildinformationen reagieren und kommt präzise zum Ziel.
Komplexer als es aussieht
„Für einen Roboter ist der Zusammenbau eines Ikea-Stuhls mit einer solchen Präzision komplexer, als es aussieht“, erklärt Professor Pham Quang Cuong von der NTU. „Die Montage muss daher in verschiedene Schritte aufgeteilt werden, wie das Erkennen, wo sich die verschiedenen Stuhlteile befinden, die zum Greifen der Teile erforderliche Kraft und die Sicherstellung, dass sich die Roboterarme bewegen, ohne miteinander zu kollidieren.“ Die Forscher nutzen daher die Algorithmen von drei Opensource-Bibliotheken. Das Ergebnis: Das Roboter-Duo montiert Stuhl Stefan in nur 8 Minuten und 55 Sekunden.
Künstliche Intelligenz soll die Anwendung laut Professor Pham Quang Cuong noch selbständiger machen: „Wir wollen mehr künstliche Intelligenz in diesen Ansatz integrieren, damit der Roboter die verschiedenen Schritte des Zusammenbaus eines Stuhls durch menschliche Demonstration, durch das Lesen der Bedienungsanleitung oder sogar durch ein Bild des zusammengesetzten Produkts erlernen kann“.
3D-Inspektion in der Linie
Neben der Roboterführung eignet sich die Ensenso-Kamera auch für die 3D-Vermessung, wie die automatischen 3D-Inline-Inspektionszellen von Sense-IT zeigen. Drei 3D-Kameras nehmen in den Zellen komplexe Bauteile unter die Lupe, und das in weniger als 30 Sekunden. Das System prüft und validiert die Vollständigkeit zusammengesetzter Produkte bis zur Größe eines Schuhkartons und erkennt dabei Abweichungen im Zehntelmillimeterbereich. „Abweichungen innerhalb eines Zehntelmillimeters zu erkennen, ist mehr, als das menschliche Auge kann“, erklärt Anouar Manders, Mitbegründer von Sense-IT.
In der Zelle wird das zu prüfende Bauteil auf einem zylindrischen Drehtisch platziert und dann von drei N35 3D-Kameras von allen Seiten aufgenommen. Während einer 360°-Drehung erzeugen die Kameras eine hochauflösende Punktewolke des Bauteils. Die spezielle Textur-Projektion ermöglicht, dass auch bei schwierigen Lichtverhältnissen glatte oder spiegelnde Objekte bzw. Objekte mit nur schwach vorhandenen Strukturen kontrastreich abgebildet werden.
Verarbeitungszeit unter 30 Sekunden
Für die Erfassung und Verarbeitung der Punktwolke verwendet Sense-IT die 3D-Machine-Vision-Algorithmen der Halcon-Bildverarbeitungsbibliothek von MVTec, die man um spezifische Mess- und Verarbeitungsalgorithmen erweitert hat. Mithilfe von Hardwarebeschleunigung stellt man sicher, dass die Verarbeitungszeit innerhalb von 30 Sekunden liegt.
Alle Informationen über die Teile werden in einer großen Datenbank gespeichert. So ist der val-IT Flex in der Lage, statistische Analysen durchzuführen, die über wiederkehrende Fehler im Fertigungsprozess informieren. Im nächsten Schritt will Sense-IT nun Ensenso-Kameras der X-Serie integrieren. Deren hochauflösende 5-MP-Sensoren sorgen für noch größere Genauigkeit und ermöglichen durch die größere Baseline der 2D-Kameras Arbeitsabstände bis über 5 m, wodurch sich Objekte mit Volumen von mehreren Kubikmetern erfassen lassen.
IDS Imaging Development Systems GmbH
www.ids-imaging.de; Hannover Messe Halle 17, Stand D40
Stereo-Kamera berechnet 3D-Punktwolken selbst
Während die Ensenso-Modelle der N- und X-Serie für die Berechnung der 3D-Punktwolken einen Industrierechner nutzen, kann die neue XR-Generation dank On-Board-Processing die 3D-Berechnung selbst übernehmen und so die 3D-Daten doppelt so schnell erstellen. Anschließend sendet die Kamera die Daten per Ethernet oder WLAN an einen Host-PC zur weiteren Verarbeitung. Das sorgt nicht nur für eine schnellere Datenerstellung, sondern senkt auch die Netzwerklast. Vorteile bringt dies bei Mehrkamerasystemen, bei denen die Belastung von Bandbreite und PCs erfolgskritische Faktoren sind, oder bei Bin-Picking-Anwendungen, die möglichst hohe Taktzahlen erfordern. Weiteres Plus der neuen Kamerareihe: Wenn Daten per WLAN übertragen werden, muss nur noch ein Kabel (für die Stromversorgung) an die Kamera angeschlossen werden. Das ist beispielsweise beim Einsatz auf Roboterarmen von Vorteil.
Hier finden Sie mehr über: