Der ehrwürdige theoretische Algorithmus A * für Graphen mit kürzestem Pfad und nachfolgende Verbesserungen (z. B. Hierarchical Annotated A *) ist eindeutig die Technik der Wahl für die Pfadfindung in der Spieleentwicklung.
Stattdessen scheint mir RL ein natürlicheres Paradigma zu sein, um einen Charakter in einem Spielfeld zu bewegen.
Dabei ist mir kein einziger Spieleentwickler bekannt, der eine auf Reinforcement Learning basierende Pathfinding-Engine implementiert hat. (Ich schließe daraus nicht, dass die Anwendung von RL bei der Pfadfindung 0 ist, nur dass sie im Verhältnis zu A * und Freunden sehr klein ist.)
Was auch immer der Grund sein mag, es liegt nicht daran, dass diese Entwickler RL nicht kennen, wie die Tatsache belegt, dass RL häufig an anderer Stelle in der Spiel-Engine verwendet wird.
Diese Frage ist kein Vorwand, um eine Stellungnahme zu RL bei der Pfadfindung abzugeben. in der Tat gehe ich davon aus, dass die stillschweigende Präferenz für A * et al. über RL ist richtig - aber diese Präferenz ist nicht offensichtlich für mich und ich bin sehr gespannt auf den Grund dafür, insbesondere von jedem, der versucht hat, RL für die Wegfindung zu verwenden.