Ich würde sagen, überhaupt nicht zu vernachlässigen. Dies ist sowohl ein Hardware-Ressourcenproblem als auch eine Herausforderung für die Entwicklung.
Meistens können Sie die Framerate nicht zwischen den beiden Augen aufteilen. Wenn Ihr Spiel normalerweise mit 60 fps läuft, müssen Sie für den gleichen visuellen Komfort mit 120 fps laufen .
Viele Dinge können jedoch nur einmal pro Stereopaar erledigt werden: Kegelstumpfentfernung - auf Kosten eines etwas größeren Kegels (siehe Einrichten der 3D-Kameras in Optimization für stereoskopische 3D-Spiele auf PlayStation® ), Okklusionsentfernung, Vertex und Index-Array-Uploads, Szenen-Captures und Renderings zur Texturierung ...
Teile der Szene können nur einmal gerendert werden: Beispielsweise befindet sich ein komplexer Himmel mit Wolken, Sternen usw. normalerweise im Unendlichen, sodass die Pixel-Shader-Kosten nur einmal benötigt werden und das zweite Rendern ein bloßes Nachschlagen der Textur sein kann Das erste Rendering-Ziel. Tatsächlich verwenden einige Stereospiele eine Methode namens Reprojektion, die auf diesem Ansatz aufbaut, um sie für die gesamte Szene nutzbar zu machen. Hinweise zu dieser Technik finden Sie in diesem Thread unter beyond3d .
Um die erforderliche zusätzliche Rechenleistung zu bewältigen, können Sie die Auflösung verringern. Nach meiner persönlichen Erfahrung ist es weitaus akzeptabler, dies zu tun, als die Framerate zu verringern. Versuchen Sie jedoch nicht, das Anti-Aliasing zu deaktivieren: Wie die Ingenieure von Sony in der obigen Abhandlung sagen, sieht das Rendern in Puffern mit niedrigerer Auflösung mit AA besser aus als in Puffern mit hoher Auflösung ohne AA .
Beachten Sie, dass es andere Ansätze für die Stereovision in Spielen gibt, die keinen 3D-Fernseher benötigen, wie z. B. Trioviz . Ich kann hier jedoch nicht auf die Details eingehen (NDA-Probleme).