Warum ist die Grundlinie zu einem bestimmten Zeitpunkt unvoreingenommen vom Zustand abhängig?


9

In der Robotik wird die Verstärkunglerntechnik verwendet, um das Steuermuster für einen Roboter zu finden. Leider sind die meisten Methoden mit politischem Gradienten statistisch voreingenommen, was den Roboter in eine unsichere Situation bringen könnte, siehe Seite 2 in Jan Peters und Stefan Schaal: Verstärktes Erlernen motorischer Fähigkeiten mit politischen Gradienten, 2008

Mit motorischem primitivem Lernen ist es möglich, das Problem zu überwinden, da die Optimierung von Richtliniengradientenparametern die Lernschritte in das Ziel lenkt.

Zitat: „Wenn die Gradientenschätzung unvoreingenommen ist und die Lernraten die Summe (a) = 0 erfüllen, konvergiert der Lernprozess garantiert auf mindestens ein lokales Minimum [...]. Daher müssen wir den Gradienten der Richtlinie nur anhand der generierten Daten schätzen während der Ausführung einer Aufgabe. ”(Seite 4 desselben Papiers)

In den Hausaufgaben für die Berkeley RL-Klasse Problem 1 werden Sie aufgefordert zu zeigen, dass der Richtliniengradient immer noch unverzerrt ist, wenn die subtrahierte Basislinie eine Funktion des Zustands zum Zeitpunkt t ist.

θt=1TE(st,at)p(st,at)[b(st)]]=0

Ich kämpfe mich durch den ersten Schritt eines solchen Beweises. Kann mich jemand in die richtige Richtung weisen? Mein erster Gedanke war, irgendwie das Gesetz der totalen Erwartung zu verwenden, um die Erwartung von b (st) von T abhängig zu machen, aber ich bin mir nicht sicher. Danke im Voraus :)

Link zum ursprünglichen PNG der Gleichung


Willkommen bei SE: AI! (Ich habe mir
erlaubt

2
Sie haben nicht wirklich viel Zeit, um die genauen Gleichungen aufzuschreiben und mit LaTeX zu formatieren (möglicherweise später, wenn sie immer noch nicht beantwortet werden), aber hier ist ein Hinweis. Sie möchten, dass die Summe nicht von der Richtlinie abhängt, sodass die Ableitung 0 ist. Sie versuchen also irgendwie, Dinge mit der Richtlinie p (s, a) auszudrücken. Die Antwort finden Sie übrigens auch in Suttons RL Intro-Buch im Kapitel Policy Gradient.
Hai Nguyen

1
Vielen Dank! Ich werde diesen Hinweis verwenden, um loszulegen, und ich danke Ihnen, dass Sie mir davon erzählt haben, dass er in Sutton RL ist. Ich lese dieses Buch und es ist ziemlich gut!
Laura C

@LauraC Wenn Sie die Antwort vor allen anderen finden, kommen Sie bitte zurück und posten Sie hier als formelle Antwort (Leute mögen diese Frage definitiv :)
DukeZhou

Ich habe Kontextinformationen für die Frage hinzugefügt.
Manuel Rodriguez

Antworten:


6

Unter Verwendung des Gesetzes der iterierten Erwartungen hat man:

θt=1TE(st,at)p(st,at)[b(st)]=θt=1TEstp(st)[Eatπθ(at|st)[b(st)]]=

geschrieben mit Integralen und Verschieben des Gradienten nach innen (Linearität) erhalten Sie

=t=1Tstp(st)(atθb(st)πθ(at|st)dat)dst=

Sie können nun θ (aufgrund der Linearität) bewegen und b(st) (hängt nicht von at ) bilden das innere Integral zum äußeren:

=t=1Tstp(st)b(st)θ(atπθ(at|st)dat)dst=

πθ(at|st) ist eine (bedingte) Wahrscheinlichkeitsdichtefunktion, so dass die Integration über alleat für einen gegebenen festen Zustandst gleich1 :

=t=1Tstp(st)b(st)θ1dst=

Jetzt ist θ1=0 , was den Beweis abschließt.


1

Es scheint , dass die Hausaufgaben 2 Tage vor dieser Antwort des Schreibens zurückzuführen war, aber in Fall ist es immer noch relevant in irgendeiner Weise, die relevanten Klasse Noten (die nützlich gewesen wäre , wenn zusammen mit den Hausaufgaben in der Frage zur Verfügung gestellt) sind hier .

Eτpθ(τ)

t=1TEτpθ(τ)[θlogπθ(at|st)(b(st))]=0

πθ(at|st) als den Rand der Zustandsaktion. Es handelt sich nicht um einen gesuchten Beweis, sondern um eine Abfolge von algebraischen Schritten, um die Entkopplung durchzuführen und zu zeigen, inwieweit die Unabhängigkeit des Randes der staatlichen Aktion erreicht werden kann.

Diese Übung ist eine Vorbereitung für den nächsten Schritt in den Hausaufgaben und stützt sich nur auf den Rückblick auf CS189, Burkeleys Einführung in das maschinelle Lernen, dessen Lehrplan oder Klassennotizen nicht das Gesetz der totalen Erwartung enthalten.

Alle relevanten Informationen finden Sie im obigen Link für Klassennotizen und erfordern nur Zwischenalgebra.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.