Bei den meisten Beschreibungen von Monte-Carlo-Rendering-Methoden, wie z. B. der Pfadverfolgung oder der bidirektionalen Pfadverfolgung, wird davon ausgegangen, dass die Stichproben unabhängig generiert werden. es wird ein Standard-Zufallszahlengenerator verwendet, der einen Strom unabhängiger, gleichmäßig verteilter Zahlen erzeugt.
Wir wissen, dass Stichproben, die nicht unabhängig voneinander ausgewählt werden, sich positiv auf das Rauschen auswirken können. Beispielsweise sind Sequenzen mit geschichteter Abtastung und geringer Diskrepanz zwei Beispiele für korrelierte Abtastschemata, die fast immer die Renderzeiten verbessern.
Es gibt jedoch viele Fälle, in denen die Auswirkung der Stichprobenkorrelation nicht so eindeutig ist. Zum Beispiel erzeugen Monte-Carlo-Methoden der Markov-Kette wie Metropolis Light Transport einen Strom korrelierter Abtastwerte unter Verwendung einer Markov-Kette; Bei Viellichtmethoden wird ein kleiner Satz von Lichtpfaden für viele Kamerapfade wiederverwendet, wodurch viele korrelierte Schattenverbindungen entstehen. Sogar die Photonenkartierung wird effizienter, wenn Lichtpfade über viele Pixel hinweg wiederverwendet werden. Dies erhöht auch die Probenkorrelation (wenn auch auf voreingenommene Weise).
Alle diese Rendering-Methoden können sich in bestimmten Szenen als nützlich erweisen, in anderen jedoch als erschwerend. Es ist nicht klar, wie die durch diese Techniken verursachte Fehlerqualität quantifiziert werden kann, abgesehen vom Rendern einer Szene mit verschiedenen Rendering-Algorithmen und dem Erkennen, ob eine besser als die andere aussieht.
Die Frage ist also: Wie beeinflusst die Probenkorrelation die Varianz und die Konvergenz eines Monte-Carlo-Schätzers? Können wir irgendwie mathematisch quantifizieren, welche Art von Stichprobenkorrelation besser ist als andere? Gibt es andere Überlegungen, die beeinflussen könnten, ob die Probenkorrelation vorteilhaft oder schädlich ist (z. B. Wahrnehmungsfehler, Animationsflackern)?