Ist eine Politik beim verstärkten Lernen immer deterministisch?


8

Ist eine Politik beim verstärkten Lernen immer deterministisch oder ist es eine Wahrscheinlichkeitsverteilung über Aktionen (aus denen wir eine Stichprobe ziehen)? Wenn die Richtlinie deterministisch ist, warum nicht die Wertfunktion, die in einem bestimmten Zustand für eine bestimmte Richtlinie wie folgt definiert istπ

Vπ(s)=E[t>0γtrt|s0=s,π]

eine Punktausgabe?

In der obigen Definition nehmen wir eine Erwartung an. Was ist diese Erwartung vorbei?

Kann eine Richtlinie zu unterschiedlichen Routen führen?


1
Eine verwandte Frage zu StackOverflow: stackoverflow.com/q/46260775/712995
Maxim

Antworten:


6

Hier gibt es mehrere Fragen: 1. Ist eine Politik immer deterministisch? 2. Wenn die Richtlinie deterministisch ist, sollte der Wert dann nicht auch deterministisch sein? 3. Wie hoch ist die Erwartung bei der Wertfunktionsschätzung? Ihre letzte Frage ist nicht ganz klar: "Kann eine Richtlinie zu Routen mit unterschiedlichen aktuellen Werten führen?" aber ich denke du meinst: 4. Kann eine Politik zu unterschiedlichen Routen führen?

  1. Eine Politik ist eine Funktion, die entweder deterministisch oder stochastisch sein kann. Es bestimmt, welche Maßnahmen in einem bestimmten Zustand zu ergreifen sind. Die Verteilung wird für eine stochastische Richtlinie verwendet, und eine Zuordnungsfunktion wird für eine deterministische Richtlinie verwendet, wobei die Menge möglicher Zustände und die Menge möglicher Aktionen ist .π : S A S A.π(as)π:SASA

  2. Die Wertfunktion ist nicht deterministisch. Der Wert (eines Staates) ist die erwartete Belohnung, wenn Sie in diesem Staat beginnen und weiterhin einer Richtlinie folgen. Selbst wenn die Richtlinie deterministisch ist, sind die Belohnungsfunktion und die Umgebung möglicherweise nicht.

  3. Die Erwartung in dieser Formel gilt für alle möglichen Routen ab Zustand . Normalerweise werden die Routen oder Pfade in mehrere Schritte zerlegt, mit denen Wertschätzer trainiert werden. Diese Schritte können durch das Tupel (Zustand, Aktion, Belohnung, nächster Zustand) dargestellt werden.( s , a , r , s ' )s(s,a,r,s)

  4. Dies hängt mit Antwort 2 zusammen. Die Richtlinie kann zu unterschiedlichen Pfaden führen (sogar zu einer deterministischen Richtlinie), da die Umgebung normalerweise nicht deterministisch ist.


Können Sie mir ein Beispiel dafür geben, dass die Umwelt nicht deterministisch ist? Aus s s 'ass
meiner Sicht

1
Ein klassisches Beispiel ist ein Roboter, der sich um einen Schritt nach links bewegt (Aktion), die Oberfläche jedoch rutschig ist (auf Eis läuft), sodass er sich tatsächlich um zwei Schritte nach links bewegt. Tatsächlich sind solche Umgebungen die Norm und werden ausführlich untersucht. Mein Beispiel ist eine ebenso bekannte "Spielzeug" -Umgebung: gym.openai.com/envs/FrozenLake-v0
AD

so führen Zustand und Handlung darauf zu einem Problem dist über . Ich habe das richtig verstanden? a s 'sas
MiloMinderbinder

Ja, genau wie stochastisch ist, ist auch stochastisch. p ( s 's , a )p(as)p(ss,a)
AD

nur noch zwei Dinge: 1. ist nur in der stochastischen Politik stochastisch, oder? 2. Können Sie bestätigen, dass die andere Antwort falsch ist, was die Erwartung betrifft, damit ich Ihre Antwort akzeptieren kann? p(a|s)
MiloMinderbinder

1

Die Politik kann stochastisch oder deterministisch sein. Die Erwartung ist angesichts der Bedingungen über Trainingsbeispiele. Die Wertfunktion ist eine Schätzung der Rendite, weshalb es sich um eine Erwartung handelt.

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.