Ich arbeite an einem einfachen Spiel in OpenGL, bei dem SDL für die Initialisierung und Eingabe der Anzeige verwendet wird, und es wird in Bezug auf das Timing angezeigt, für das ich zwei Optionen zur Verfügung habe. Die Nummer eins, die gerade für das optimale TimePerFrame schläft - theTimeTakenToRender, wenn das optimale TimePerFrame in Sekunden = 1 / theFramerateCap. (Ich bin mir nicht ganz sicher, ob dies erforderlich ist, da dies der Verwendung von vsync entspricht, was möglicherweise genauer ist. Wenn meine Annahme korrekt ist, teilen Sie mir bitte mit, ob SDL + OpenGL standardmäßig vsync verwendet, und wenn nicht, wie um es zu aktivieren.) Die andere besteht darin, die Zeit seit dem Rendern des letzten Frames zu messen und lediglich die Bewegung entsprechend anzupassen. (Je kürzer das Rendern eines Frames ist, desto weniger Objekte bewegen sich in diesem Frame.) Was sind die Vor- und Nachteile dieser beiden Methoden in Bezug auf die Leistung, die Verringerung des Flimmerns usw.?