MCTS / UCT ist eine Suchmethode für Spielbäume, bei der mithilfe eines Banditenalgorithmus vielversprechende Knoten für die Erkundung ausgewählt werden. Spiele werden nach dem Zufallsprinzip bis zum Ende gespielt und Knoten, die zu mehr Gewinnen führen, werden stärker untersucht. Der Banditenalgorithmus hält ein Gleichgewicht zwischen dem Erkunden von Knoten mit hohen Gewinnraten und dem Erkunden unbekannter Knoten aufrecht (und verwendet in seiner reinen Form nicht unbedingt eine heuristische Bewertungsfunktion). Programme, die auf dieser allgemeinen Technik basieren, haben in Computer Go ziemlich erstaunliche Ergebnisse erzielt .
Wurden banditengesteuerte Monte-Carlo-Suchen auf andere Suchprobleme angewendet? Wäre dies beispielsweise ein nützlicher Ansatz, um Lösungen für MAX-SAT-, BKP- oder andere kombinatorische Optimierungsprobleme zu approximieren? Gibt es bestimmte Merkmale eines Problems (strukturell / statistisch / etc.), Die darauf hindeuten, ob ein banditenartiger Ansatz effektiv wäre oder nicht?
Gibt es bekannte deterministische Probleme, die aufgrund der Art des Lösungsraums gegenüber Banditenmethoden völlig resistent wären?