Bei der Diskussion des Videos More Parkour Atlas fragte ein Freund, wie die Bewegung des Roboters der eines echten Menschen so ähnlich sei, und fragte sich, wie dies erreicht werden könne.
Meines Wissens ist dies nicht etwas, das Entwickler "programmiert" haben, sondern aus dem Lernalgorithmus hervorgegangen sind.
Können Sie einen Überblick und eine Referenz geben, wie dies erreicht wird?
reference-request
learning-algorithms
robotics
Édouard Lopez
quelle
quelle
Antworten:
Willkommen bei AI.SE @EdouardLopez!
Da Boston Dynamics ein privates, gewinnorientiertes Unternehmen ist, können wir nicht sicher wissen, wie sie ihre Ergebnisse erzielen. Wir können jedoch die verfügbaren öffentlichen Informationen prüfen und fundierte Vermutungen anstellen.
In den mit dem Video veröffentlichten Informationen teilt uns Boston Dynamics mit, dass sie verwendet werden
Dies klingt so, als ob drei ältere KI-Ansätze zusammengefügt wurden, um das Video zu erstellen.
Zunächst erwähnen sie die Verwendung eines Optimierungsalgorithmus, um komplexe Bewegungen aus "dynamisch realisierbaren Referenzbewegungen" zusammenzusetzen. Das klingt so, als hätten sie zuerst eine Reihe einfacher Bewegungen gelernt oder möglicherweise vorprogrammiert, die für sich genommen nicht sehr beeindruckend sind, aber zu komplexeren Bewegungen zusammengesetzt werden können. Dieser Ansatz heißt Layered Learning und wurde Ende der 90er Jahre von Peter Stone und Manuela Veloso entwickelt. Es ist weit verbreitet und erfolgreich in akademischen Robotikwettbewerben eingesetzt. Grundsätzlich probiert dieser Algorithmus verschiedene Kombinationen und Sequenzen einfacher Aktionen aus, bis er eine findet, die der gewünschten komplexen Aktion nahe kommt. Dies erfolgt normalerweise mit einem lokalen Suchalgorithmus oder manchmal mit anderen Optimierungswerkzeugen.
Die zweite Technik besteht natürlich darin, tatsächlich zu lernen, die grundlegenden Aktionen auszuführen, die das geschichtete Lernen zu komplexeren Aktionen zusammensetzen kann. Dies geschieht normalerweise mit irgendeiner Form des Verstärkungslernens , manchmal jedoch mit einer Programmierung, die die Gleichungen für die Bewegung eines einfachen Systems explizit löst.
Schließlich müssen sie einen modellprädiktiven Controller verwenden, um reibungslos zwischen der Abfolge von Aktionen zu interpolieren, die der Ansatz des mehrschichtigen Lernens entwickelt hat. Bei diesem Ansatz haben die Ingenieure, die den Roboter entwerfen, für diesen speziellen Roboter sehr sorgfältig genau gemessen, wie sich Teile davon bewegen oder weiter bewegen, und dies als mathematisches Modell, das als dynamisches System bezeichnet wird, niedergeschrieben. Mit diesem Modell kann der Algorithmus herausfinden, wie die Bewegungen dieses bestimmten Roboters von den geplanten Bewegungen abweichen, wenn er die Bewegungen ausführt. Der Schlupf tritt aufgrund von Reibung auf (die Teile des Roboters sind nicht alle perfekt glatt und können unterschiedlich stark geschmiert sein, oder ein Motor kann durchrutschen). Der Algorithmus kann dann kleine Änderungen an der Bewegung vornehmen, um diese unerwarteten Unebenheiten auszugleichen. Das ist der Teil, der alles so glatt aussehen lässt.
Es ist auch erwähnenswert, dass das Video nicht vollständig repräsentativ für die typischen Ergebnisse ist, die ihr Algorithmus erzielt. Boston Dynamics behauptet in der Videotitel, dass es ihrem Algorithmus in etwa 80% der Fälle "gelingt", eine gewünschte Bewegung zu erreichen. Sie sagen uns nicht, was "Erfolg" bedeutet, aber das Video ist wahrscheinlich das Beste aus vielen Einstellungen für eine sorgfältig geplante und gefilmte Routine.
quelle