Während es sich beispielsweise um die aktuelle GPU der Spitzenklasse handelt, verfügt die GTX 980 über eine erstaunliche Füllrate von 72,1 Gigapixeln / Sekunde, die mit Back-to-Front-Rendering und / oder Z-Pufferprüfungen fast lächerlich groß erscheint, möglicherweise sogar bei 4k Auflösungen. In Bezug auf die Anzahl der Polygone können moderne GPUs problemlos zehn bis Hunderte Millionen strukturierter Dreiecke ausführen, wenn Sie sie ordnungsgemäß stapeln und / oder instanziieren.
Beim Forward-Rendering kann die Anzahl der Fragmente, auf denen Shader ausgeführt werden, schnell überwältigend werden. Beim verzögerten Rendern sind die Kosten jedoch je nach Auflösung in der Regel mehr oder weniger konstant, und wir haben längst einen Punkt überschritten, an dem die meisten Schattierungen oder Nachbearbeitungseffekte können in 1080p in Echtzeit ausgeführt werden.
In beiden Fällen sind die einschränkenden Faktoren heutzutage am häufigsten die Anzahl der Ziehungsanrufe und die Schattierungskosten, die beide durch ordnungsgemäßes verzögertes Rendern und Geometrie-Batching relativ niedrig gehalten werden. In diesem Sinne werden also mehr als nur Backfaces und Out-of- Frustrum-Polygone von erheblichem Nutzen? Würden die Kosten (CPU- / GPU-Zeit, Programmiererzeit) die Vorteile nicht oft übersteigen?