Skip to main content
European Commission logo
Deutsch Deutsch
CORDIS - Forschungsergebnisse der EU
CORDIS
CORDIS Web 30th anniversary CORDIS Web 30th anniversary
Inhalt archiviert am 2024-05-28

Real-time understanding of dexterous deformable object manipulation with bio-inspired hybrid hardware architectures

Article Category

Article available in the following languages:

Roboter von morgen mit intelligenten visuellen Fähigkeiten

Die Fähigkeit zum Wahrnehmen und Verstehen der Dynamik der realen Welt hat für die nächste Robotergeneration. entscheidende Bedeutung. Eine EU-Initiative hat das Sehvermögen erforscht, das für die meisten Roboteraufgaben unerlässlich ist.

Roboter müssen an einem Ort maßgebliche Informationen auf anpassungsfähige Weise zur weiteren Verarbeitung auswählen können. Das erfordert vorheriges Allgemeinwissen darüber, wo ein Ziel zu finden ist, und der Roboter sollte gleichermaßen eine Vorstellung über dessen Größe, Form, Farbe oder Textur haben. Roboter brauchen Aufmerksamkeitsmechanismen, um zu entscheiden, welche Teile des sensorischen Arrays sie abarbeiten müssen. Aufmerksamkeit beinhaltet die Auswahl der relevantesten Informationen aus multisensorischen Eingaben, um eine Zielsuche effizient durchzuführen. Das von der EU finanzierte Projekt REAL-TIME ASOC (Real-time understanding of dexterous deformable object manipulation with bio-inspired hybrid hardware architectures) konzentrierte sich auf die Entwicklung neuer Mechanismen für visuelle Aufmerksamkeit. REAL-TIME ASOC setzte eine für Roboteranwendungen geeignete Spezialkamera mit der Bezeichnung Dynamic Vision Sensor (DVS) ein, die kurze Latenzzeiten erfordert, um in Echtzeit zu funktionieren. Sie erfasst alles, was sich in einer sehr hohen zeitlichen Auflösung innerhalb von Mikrosekunden verändert. DVS zeichnet ungefähr 600 000 Bilder pro Sekunde auf und reduziert die Menge an Informationen, indem die statischen Bereiche einer Szene entfernt werden. Die Projektpartner begannen mit dem Einsatz des DVS-Sensors, um Konturen und Zugehörigkeit von Begrenzungen allein aus Ereignisinformationen zu gewinnen. Da Ereignisse nur bei großen Luminanzänderungen ausgelöst werden, treten die meisten Ereignisse an der Grenze von Objekten auf. Das Erfassen dieser Konturen ist der wichtigste Schritt hin zur Weiterverarbeitung. Sie führten einen Ansatz ein, der die Lage der Konturen und die Zugehörigkeit von deren Randgrenze mit Hilfe von Merkmalen identifiziert, die Bewegung, Timing, Textur und räumliche Orientierungen repräsentieren. Konturerkennung und Randzuweisung wurden dann anhand einer Proto-Segmentierung der Szenerie demonstriert. Die Wissenschaftler arbeiteten an Algorithmen zur Abschätzung der Bildbewegung mittels asynchroner ereignisbasierter Informationen und einem Universalschaltkreis (Field Programmable Gate Array) zur Berechnung der visuellen Aufmerksamkeit. Zu guter Letzt erzeugten sie einen Datensatz, der sowohl Frame-freie Ereignisdaten als auch klassische Bild-, Bewegungs- und Tiefendaten bereitstellt. Auf diese Weise können verschiedene ereignisbasierte Methoden bewertet und mit Frame-basierter konventioneller Bilderkennung (Computer Vision) verglichen werden. REAL-TIME ASOC hat demonstriert, wie der Roboter von morgen ähnlich wie wir Menschen auf visuelle Weise Bilder auswählen und verarbeiten wird.

Schlüsselbegriffe

Roboter, REAL-TIME ASOC, Objektmanipulation, hybride Hardwarearchitekturen, visuelle Aufmerksamkeit

Entdecken Sie Artikel in demselben Anwendungsbereich