Was ist ein "wiederkehrendes Bestärkungslernen"?
Recurrent Enforcement Learning ( RRL ) wurde 1996 zum ersten Mal für das Training von Handelssystemen für neuronale Netze eingeführt. "Recurrent" bedeutet, dass die vorherige Ausgabe als Teil der Eingabe in das Modell eingespeist wird. Es wurde bald auf den Handel in einem FX-Markt ausgeweitet.
Die RRL- Technik hat sich als erfolgreiche Technik des maschinellen Lernens zum Aufbau von Finanzhandelssystemen erwiesen.
Was ist der Unterschied zwischen "wiederkehrendem Bestärkungslernen" und normalem "Bestärkungslernen" (wie Q-Learning-Algorithmus)?
Der RRL- Ansatz unterscheidet sich deutlich von dynamischen Programmier- und Verstärkungsalgorithmen wie TD-Learning und Q-Learning , die versuchen, eine Wertefunktion für das Steuerproblem abzuschätzen .
Das RRL- Framework ermöglicht die einfache und elegante Darstellung von Problemen, vermeidet Bellmans Fluch der Dimensionalität und bietet überzeugende Effizienzvorteile:
RRL erzeugt auf natürliche Weise real bewertete Aktionen (Portfoliogewichte), ohne auf die Diskretisierungsmethode beim Q-Learning zurückzugreifen .
RRL hat eine stabilere Leistung im Vergleich zum Q-Learning, wenn es verrauschten Datensätzen ausgesetzt ist. Der Q-Learning- Algorithmus ist (möglicherweise) aufgrund der rekursiven Eigenschaft der dynamischen Optimierung empfindlicher für die Auswahl der Wertfunktion, während der RRL- Algorithmus flexibler bei der Auswahl der Zielfunktion und der Einsparung von Rechenzeit ist.
U( )
Hier finden Sie eine Matlab-Implementierung des RRL-Algorithmus.
Verweise
Reinforcement Learning für den Handel
Reinforcement Learning für Handelssysteme und Portfolios
Devisenhandel durch wiederkehrendes Verstärkungstraining
Aktienhandel mit wiederkehrendem Reinforcement Learning (RRL)
Algorithm Trading mit Q-Learning und Recurrent Reinforcement Learning
ENTDECKEN VON ALGORITHMEN FÜR DEN AUTOMATISIERTEN FX-HANDEL - BAU EINES HYBRIDMODELLS