Intelligente Roboter üben sich in der Kunst des Greifens
Der Mensch hat sich in den letzten Jahrzehnten immer mehr auf sie verlassen und ihnen die Erfüllung vielfältiger Aufgaben übertragen. In der Produktion, beispielsweise in der Fahrzeugmontage, hat man Roboter im ganz großen Stil eingesetzt. Trotz der weitverbreiteten Erfolge auf diesem Gebiet besteht das Manko der automatischen Montage immer noch in der Zeit, die man für die Programmierung und Umprogrammierung von Robotern braucht. Um diese Herausforderung zu meistern, haben Forscher das EU-finanzierte Projekt SARAFun auf die Beine gestellt. Die neue Lösung des Projekts zielt darauf ab, Industrieroboter mit Fähigkeiten im Zusammenhang mit Wahrnehmung, Lernen und dem Ziehen von Schlussfolgerungen zu versehen sowie Werkzeuge zur Automatisierung der Roboterprogrammerstellung und Entwicklung aufgabenspezifischer Hardware bereitzustellen. Lernen durch Beobachtung des Verhaltens der Menschen „Das System baut auf dem Konzept eines Roboters auf, der in der Lage ist, Montageaufgaben wie Einsetzen oder Falten aus den Vorführungen eines menschlichen Lehrers zu erlernen und diese dann auszuführen“, erklärt Dr. Ioannis Mariolis. Nach Analyse der vorgeführten Aufgabe erzeugt der Roboter sein eigenes Montageprogramm und führt dieses aus. Auf Grundlage des Feedbacks des menschlichen Lehrers sowie der Sensorrückmeldungen von Bildverarbeitungs-, Kraft- und Tastsensoren kann der Roboter seine Leistung in Hinsicht auf Geschwindigkeit und Robustheit schrittweise verbessern. Das ehrgeizige Ziel von SARAFun bestand darin, ein System mit der Fähigkeit zu entwickeln, neue Montageaufgaben in weniger als einem Tag zu lösen. „Einer Reichweite ähnlich wie ein Mensch kommt bei der Montage von Kleinteilen auf engstem Raum entscheidende Bedeutung zu, um den Platzbedarf in der Fabrikhalle zu minimieren. Außerdem kann der Roboter dann in Arbeitsstationen eingebaut werden, die derzeit nur Menschen nutzen“, ergänzt Dr. Mariolis. Implementierung der Schnittstelle Die Arbeit beruhte hauptsächlich auf einer problemlosen und robusten Nutzerinteraktion mit dem System über die Mensch-Roboter-Schnittstelle. Letztere besteht aus verschiedenen Modulen, die es dem Bediener ermöglichen, dem Roboter die Montageaufgabe beizubringen und den Prozess des Lernens zu überwachen. In der Lernphase stellt der Nutzer die Montageaufgabe, indem er einen Namen angibt, die vom Roboter zusammenzubauenden Teile auswählt und die Art des Montagevorgangs definiert. Im nächsten Schritt werden die Montageteile in den Sichtbereich der Kamera platziert und das System dazu aufgerufen, sie zu identifizieren. Nachdem die Teile erkannt wurden, führt der Bediener die Montageaufgabe vor der Kamera vor. Dann werden die aufgezeichneten Informationen analysiert und wichtige Frames der Demonstration, sogenannte Schlüsselbilder, automatisch extrahiert. Nach der Nutzerbestätigung wendet das System die Keyframe-Informationen an, welche die nachverfolgten Positionen der Montageteile und der Hände des Trainers enthalten, und generiert das Montageprogramm für den Roboter. Es werden Beispielzugriffe für die Montageteile zusammen mit Bauformen von Roboterfingern zur Erhöhung der Griffstabilität vorgeschlagen. Nach dem Justieren der Greifpositionen und der Konstruktion geeigneter Finger, welche die geringere Fingerfertigkeit des Roboters gegenüber der Menschenhand ausgleichen, werden die realen Finger in 3D gedruckt und in die Robotergreifer eingebaut. Nach dem Laden des auszuführenden Programms werden die Roboterbewegungen unter Nutzung der aus den Schlüsselbilder gewonnenen Informationen generiert. Der Montagevorgang wird so lange wiederholt, bis der gewünschte Grad an Autonomie erreicht ist. Fast ohne Programmierung Forscher haben viele Demonstrationen unter Einsatz des zweiarmigen Kooperationsroboters YuMi von ABB mit Erfolg abgeschlossen. Ausgestattet mit seinen Greifern nutzt der Roboter die Komponenten des Designsystems von SARAFun, d. h. visuelle 3D-Sensoren, Greifplanung, Schlupferkennung, Bewegungs- und Kraftsteuerung für beide Arme und die physische Mensch-Roboter-Schnittstelle, um die vom menschlichen Ausbilder vorgeführten zweihändigen Aufgaben nachzuahmen. „Resultat ist ein flexibles Montageprogramm, das sich ohne spezielle Planung durch den Nutzer an die Arbeitsumgebung anpassen kann. Im Vergleich zum Stand der Technik ist die einfache grafische Benutzeroberfläche für Nichtfachleute viel einfacher zu bedienen“, so Dr. Mariolis. Das System wurde anhand vieler verschiedener Montageanwendungsfälle im Zusammenhang mit Mobiltelefonteilen und Notschaltern erprobt und erlernte die vorgeführten Montageaufgaben in weniger als einem Tag. Als revolutionärer Impulsgeber kann nun der Montageroboter von SARAFun die industrielle Fertigung weltweit deutlich verändern und eine Neubewertung der Montagefertigung in Gang bringen. Produkte mit kurzen Lebenszyklen bringen häufige Programmwechsel mit sich. Im Gegensatz zu den Robotern von heute, die nur ihre festgelegte Aufgabenstellung kennen, ist dieser intelligente Roboter zur bimanuellen Montage von Kleinteilen unbegrenzt in der Lage, auf regelmäßige Änderungen in der Produktionslinie zu reagieren.
Schlüsselbegriffe
SARAFun, Montage, Roboter, Robotersystem, bimanuelle Aufgabe, zweihändige Aufgabe, Mensch-Roboter-Schnittstelle, YuMi, ABB