Roboter lernen durch Nachahmung: Der Schlüssel zur mobilen Manipulation in der realen Welt

Kategorien:
No items found.
Freigegeben:
June 26, 2024

In einer Welt, in der Robotik und künstliche Intelligenz immer mehr an Bedeutung gewinnen, stellt die Erschließung kostengünstiger und skalierbarer Lösungen für mobile Manipulation in realen Umgebungen eine der zentralen Herausforderungen dar. Wissenschaftler und Ingenieure arbeiten kontinuierlich daran, Systeme zu entwickeln, die nicht nur in wohlstrukturierten Laborumgebungen, sondern auch in den unstrukturierten und unbekannten Umgebungen unseres Alltags funktionieren.

Ein vielversprechender Ansatz in diesem Bereich ist das Lernen durch Nachahmung, auch als Imitation Learning bekannt. Durch die Beobachtung menschlicher Demonstrationen erlernen Roboter komplexe Aufgaben, indem sie menschliche Aktionen nachahmen und auf ähnliche Situationen anwenden. Trotz beeindruckender Fortschritte im Bereich des Tischmanipulationslernens, bei dem Roboter einfache Aufgaben auf einer Arbeitsfläche ausführen, fehlt es oft an der notwendigen Mobilität und Geschicklichkeit, um Aufgaben durchführen zu können, die in einer realen Umgebung nützlich wären.

Ein Durchbruch in dieser Hinsicht könnte das System "Mobile ALOHA" sein, ein kostengünstiges und ganzkörperlich steuerbares Teleoperationssystem, das für die Datensammlung von mobilen Manipulationsaufgaben entwickelt wurde. Dieses System erweitert das bereits existierende ALOHA-System, welches für bimanuelle Puppenspiel-Aufgaben konzipiert war, um eine mobile Basis und eine Schnittstelle für die Ganzkörper-Teleoperation.

Mit dem Mobile ALOHA-System konnten Forscher Daten sammeln, die dann für das überwachte Lernen durch Verhaltensklonung verwendet wurden. Interessanterweise zeigte sich, dass die Kombination der neuen mobilen Daten mit bereits bestehenden statischen ALOHA-Datensätzen die Leistung bei mobilen Manipulationsaufgaben erheblich steigerte. Mit nur 50 Demonstrationen pro Aufgabe konnte die Erfolgsquote um bis zu 90% erhöht werden, was es dem Mobile ALOHA-System ermöglichte, komplexe mobile Manipulationsaufgaben autonom zu bewältigen. Dazu gehören zum Beispiel das Sautieren und Servieren von Garnelen, das Öffnen eines zweitürigen Wandschranks zur Aufbewahrung von schweren Kochtöpfen, das Rufen und Betreten eines Aufzugs und das leichte Abspülen einer benutzten Pfanne mit einem Küchenhahn.

Die Forschung zeigt, dass das einfache Zusammenfügen von Basis- und Armaktionen und das darauf folgende Training mittels direktem Imitation Learning zu starken Leistungen führen kann. Insbesondere die Kombination der 14 Freiheitsgrade der Gelenkpositionen von ALOHA mit der linearen und Winkelgeschwindigkeit der mobilen Basis bildet einen 16-dimensionalen Aktionsvektor. Diese Formulierung ermöglicht es Mobile ALOHA, direkt von vorherigen tiefen Imitationslernalgorithmen zu profitieren, was fast keine Änderung in der Implementierung erfordert.

Darüber hinaus wurde festgestellt, dass das Vortraining und das gemeinsame Training mit diversen Robotikdatensätzen die Imitationslernleistung weiter verbessern können. Da zugängliche Datensätze für bimanuelle mobile Manipulation bisher kaum vorhanden sind, nutzen die Forscher bestehende statische bimanuelle Datensätze, um ihre Methoden zu verbessern. Dies führte zu einem positiven Transfer in fast allen mobilen Manipulationsaufgaben und zeigte gleichwertige oder bessere Leistungen und Dateneffizienz als bei Politiken, die nur mit Mobile ALOHA-Daten trainiert wurden.

Die Hauptbeiträge der vorgestellten Forschung umfassen sowohl das Mobile ALOHA-System als auch die Erkenntnis, dass eine einfache Methode des gemeinsamen Trainings das dateneffiziente Erlernen komplexer mobiler Manipulationsaufgaben ermöglicht. Das Teleoperationssystem ist in der Lage, mehrere Stunden am Stück genutzt zu werden, beispielsweise um ein 3-Gänge-Menü zu kochen, ein öffentliches Badezimmer zu reinigen oder Wäsche zu waschen. Die Ergebnisse des Imitationslernens halten einem breiten Spektrum komplexer Aufgaben stand, wie das Öffnen eines zweitürigen Wandschranks, das Bedienen eines Aufzuges, das Einschieben von Stühlen und die Beseitigung von verschüttetem Wein. Mit dem gemeinsamen Training konnte eine Erfolgsquote von über 80% bei diesen Aufgaben erreicht werden, basierend auf lediglich 50 menschlichen Demonstrationen pro Aufgabe, was einer durchschnittlichen absoluten Verbesserung von 34% im Vergleich zum Training ohne gemeinsames Training entspricht.

Diese Entwicklungen könnten die Implementierung und Skalierung von Robotiklernprozessen in der realen Welt erheblich beeinflussen, indem sie es ermöglichen, reale Daten und weit verbreitete Hardware zu nutzen. Die Forschung auf diesem Gebiet ist entscheidend, um die Lücke zwischen laborintensiven und realweltlichen Anwendungen zu schließen und Roboter zu schaffen, die in der Lage sind, komplexe Aufgaben in menschlichen Umgebungen auszuführen.

Was bedeutet das?
No items found.