Sind inverse Kinematik und Verstärkung wettbewerbsfähige Techniken?


7

Sind inverse Kinematik und Verstärkung Lerntechniken konkurrierende Techniken, um das gleiche Problem zu lösen, nämlich. Bewegung von Robotermanipulatoren oder Arm?

Ein Blick in den Wikipedia-Artikel zeigt, dass die inverse Kinematik versucht, eine Lösung zu finden, im Gegensatz zum verstärkten Lernen, das versucht, das Problem zu optimieren . Habe ich etwas falsch verstanden?

Antworten:


10

Nach meinem Verständnis Ihrer Frage möchten Sie wissen, ob inverse Kinematik und Verstärkungslernen versuchen, dasselbe Problem im speziellen Fall der Robotermanipulation zu lösen. Natürlich können diese beiden Techniken auch außerhalb dieses speziellen Bereichs angewendet werden, aber konzentrieren wir uns zunächst auf die Manipulation von Robotern.

Sie haben Recht, dass die inverse Kinematik versucht, eine Lösung zu finden, obwohl dies eine Familie von Lösungen sein kann. Sie möchten den Endeffektor Ihres Manipulators in einer bestimmten Position positionieren und müssen den Zustand des restlichen Arms herausfinden, um die Bewegungen auszuführen, die Ihr Ziel erreichen.

Reinforcement Learning versucht auch, eine Lösung für das Problem zu finden, und versucht, seine Lösung in Bezug auf eine Kostenfunktion zu optimieren. Stellen Sie sich zum Beispiel vor, dass es nur eine minimale Anzahl von Bewegungen gibt, die Ihren Endeffektor in die erforderliche Position bringen würden (z. B. indem Sie Kosten für die Betätigung der einzelnen Gelenke des Manipulators anbringen, können Sie lernen, wie Sie Ihr Ziel in Bezug auf die Leistung optimal erreichen können verbraucht).

Anstatt zu berücksichtigen, dass die Techniken im Widerspruch zueinander stehen, können Sie mithilfe der inversen Kinematik die Lösungsfamilie für Ihr Problem finden und lernen, diesen Bereich zu durchsuchen und eine optimale Lösung in Bezug auf einige Kosten- / Ertragskriterien Ihrer Wahl zu finden .

Wenn Sie beabsichtigen, eine Technik der anderen vorzuziehen, indem Sie das Problem des Verstärkungslernens als Optimierung darstellen, die beispielsweise belohnt, wie schnell Sie den Zielzustand des Endeffektors erreichen, können Sie dennoch eine Lösung finden. Es besteht jedoch die Möglichkeit, dass Sie eine Vorstellung von der Kinematik des Manipulators verwenden möchten, um zu erfahren, wie Sie den Raum seiner Bewegungen durchsuchen.


2

Wenn Sie beispielsweise einen Roboterarm in Betracht ziehen, zeigt Ihnen die inverse Kinematik, wie Sie die Gelenkwinkel des Arms auswählen, um den Arm in eine Position und Ausrichtung zu bewegen, in der er sich befinden soll.

Im Gegensatz zur Bestimmung der Vorwärtskinematik eines Mechanismus ist die Bestimmung der inversen Kinematik normalerweise schwierig, und manchmal gibt es nicht einmal eine analytische Lösung. Industrieroboter sind jedoch häufig so konstruiert, dass sie eine analytische Lösung für die inverse Kinematik haben. Dies kann beispielsweise durch eine geschickte Ausrichtung der Gelenkachsen erreicht werden.

Reinforcement Learning hingegen ist eine maschinelle Lerntechnik. Wie jede andere Technik oder jeder Algorithmus für maschinelles Lernen kann sie verwendet werden, um eine Funktion zu bestimmen, die Sie nicht kennen - vorausgesetzt, Sie wählen eine gute Belohnungsfunktion, die mit dem Problem zusammenhängt, das Sie lösen möchten.

Kurz gesagt: Sie können Reinforcement Learning verwenden, um die inverse Kinematik eines Roboters zu bestimmen (wenn es keine analytische Lösung gibt oder es lächerlich schwierig wäre, eine zu bestimmen).


Wenn man seine Antwort liest, kann man den starken Eindruck haben, dass RL dem Standard-IK vorzuziehen ist: Das ist definitiv nicht wahr. RL führt zu einer sehr langsamen Konvergenz und führt zu ungenauen Ergebnissen, während IK, das sich auf nichtlineare Optimierungstechniken stützt, schnell und robust ist und in der Industrie als Forschungsbereich eingesetzt wird. Um die Unsicherheiten im CAD-Modell des von IK verwendeten Manipulators auszugleichen (wir tun dies in der Forschung, nicht in industriellen Umgebungen), stützen wir uns eher auf andere ML-Ansätze als auf RL (z. B. SVM, GP ...).
Ugo Pattacini
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.