Wie hat Atlas von Boston Dynamics eine menschenähnliche Bewegung?

8

Bei der Diskussion des Videos More Parkour Atlas fragte ein Freund, wie die Bewegung des Roboters der eines echten Menschen so ähnlich sei, und fragte sich, wie dies erreicht werden könne.

Meines Wissens ist dies nicht etwas, das Entwickler "programmiert" haben, sondern aus dem Lernalgorithmus hervorgegangen sind.

Können Sie einen Überblick und eine Referenz geben, wie dies erreicht wird?

Édouard Lopez
quelle
Laut der Veröffentlichung „Yang, Xiong et al. Stand der Technik: Zweibeinroboter für die Rehabilitation der unteren Extremitäten. Applied Sciences 7.11 (2017): 1182. ” Eine menschenähnliche Bewegung wurde durch Bewegungserfassung des menschlichen Gehens realisiert. Dann wird das Signal in einen Gangplaner eingespeist, der die Bewegung auf dem Roboter reproduziert.
Manuel Rodriguez

Antworten:

1

Willkommen bei AI.SE @EdouardLopez!

Da Boston Dynamics ein privates, gewinnorientiertes Unternehmen ist, können wir nicht sicher wissen, wie sie ihre Ergebnisse erzielen. Wir können jedoch die verfügbaren öffentlichen Informationen prüfen und fundierte Vermutungen anstellen.

In den mit dem Video veröffentlichten Informationen teilt uns Boston Dynamics mit, dass sie verwendet werden

... wandelt ein Optimierungsalgorithmus allgemeine Beschreibungen jedes Manövers in dynamisch realisierbare Referenzbewegungen um. Anschließend verfolgt Atlas die Bewegungen mithilfe eines modellprädiktiven Controllers, der reibungslos von einem Manöver zum nächsten übergeht.

Dies klingt so, als ob drei ältere KI-Ansätze zusammengefügt wurden, um das Video zu erstellen.

Zunächst erwähnen sie die Verwendung eines Optimierungsalgorithmus, um komplexe Bewegungen aus "dynamisch realisierbaren Referenzbewegungen" zusammenzusetzen. Das klingt so, als hätten sie zuerst eine Reihe einfacher Bewegungen gelernt oder möglicherweise vorprogrammiert, die für sich genommen nicht sehr beeindruckend sind, aber zu komplexeren Bewegungen zusammengesetzt werden können. Dieser Ansatz heißt Layered Learning und wurde Ende der 90er Jahre von Peter Stone und Manuela Veloso entwickelt. Es ist weit verbreitet und erfolgreich in akademischen Robotikwettbewerben eingesetzt. Grundsätzlich probiert dieser Algorithmus verschiedene Kombinationen und Sequenzen einfacher Aktionen aus, bis er eine findet, die der gewünschten komplexen Aktion nahe kommt. Dies erfolgt normalerweise mit einem lokalen Suchalgorithmus oder manchmal mit anderen Optimierungswerkzeugen.

Die zweite Technik besteht natürlich darin, tatsächlich zu lernen, die grundlegenden Aktionen auszuführen, die das geschichtete Lernen zu komplexeren Aktionen zusammensetzen kann. Dies geschieht normalerweise mit irgendeiner Form des Verstärkungslernens , manchmal jedoch mit einer Programmierung, die die Gleichungen für die Bewegung eines einfachen Systems explizit löst.

Schließlich müssen sie einen modellprädiktiven Controller verwenden, um reibungslos zwischen der Abfolge von Aktionen zu interpolieren, die der Ansatz des mehrschichtigen Lernens entwickelt hat. Bei diesem Ansatz haben die Ingenieure, die den Roboter entwerfen, für diesen speziellen Roboter sehr sorgfältig genau gemessen, wie sich Teile davon bewegen oder weiter bewegen, und dies als mathematisches Modell, das als dynamisches System bezeichnet wird, niedergeschrieben. Mit diesem Modell kann der Algorithmus herausfinden, wie die Bewegungen dieses bestimmten Roboters von den geplanten Bewegungen abweichen, wenn er die Bewegungen ausführt. Der Schlupf tritt aufgrund von Reibung auf (die Teile des Roboters sind nicht alle perfekt glatt und können unterschiedlich stark geschmiert sein, oder ein Motor kann durchrutschen). Der Algorithmus kann dann kleine Änderungen an der Bewegung vornehmen, um diese unerwarteten Unebenheiten auszugleichen. Das ist der Teil, der alles so glatt aussehen lässt.

Es ist auch erwähnenswert, dass das Video nicht vollständig repräsentativ für die typischen Ergebnisse ist, die ihr Algorithmus erzielt. Boston Dynamics behauptet in der Videotitel, dass es ihrem Algorithmus in etwa 80% der Fälle "gelingt", eine gewünschte Bewegung zu erreichen. Sie sagen uns nicht, was "Erfolg" bedeutet, aber das Video ist wahrscheinlich das Beste aus vielen Einstellungen für eine sorgfältig geplante und gefilmte Routine.

John Doucette
quelle
Die modellprädiktive Steuerung ist für ihre Leistungsprobleme unter Echtzeitbeschränkungen bekannt. Bis der Gleitmodusregler zukünftige Zustände des Systems geschätzt hat, ist die Realität viel schneller und die Vorhersage wird zu spät kommen. Dies macht es zu einer schlechten Wahl im Vergleich zur herkömmlichen Proportional-Integral-Steuerung.
Manuel Rodriguez
@ManuelRodriguez Das könnte durchaus stimmen, aber ich bin mir nicht sicher, was es mit dieser Frage zu tun hat. Boston Dynamics teilt uns mit, dass sie einen modellprädiktiven Controller verwenden. Sie haben wahrscheinlich auch eine sehr große Menge an Rechenleistung verbraucht. Es fällt mir nicht schwer zu glauben, dass es das ist, was sie hier verwenden.
John Doucette