Zeitliches Anti-Aliasing (und andere zeitliche Algorithmen) funktionieren, indem Pixel dieses Rahmens mit Pixeln aus dem letzten Rahmen abgeglichen werden und diese Informationen dann verwendet werden.
Ich verstehe, dass Sie die letzten und aktuellen Bildmatrizen zusammen mit Bewegungsvektorinformationen verwenden können, um die Pixel zwischen den Bildern abzugleichen.
Was ich jedoch nicht verstehe, ist, woher weißt du, ob das neu projizierte Pixel gültig ist oder nicht? Zum Beispiel kann das alte Pixel jetzt hinter einem anderen Objekt versteckt sein.
Ist es nur nach Farbe? Wenn ja, wie werden animierte Texturen oder sich ändernde Lichtverhältnisse behandelt?