Eine äußerst häufige Situation in der Computergrafik besteht darin, dass die Farbe eines Pixels gleich dem Integral einer reellen Funktion ist. Oft ist die Funktion zu kompliziert, um sie analytisch zu lösen, daher bleibt uns die numerische Approximation. Die Berechnung der Funktion ist jedoch häufig sehr teuer, sodass wir stark darauf beschränkt sind, wie viele Stichproben wir berechnen können. (Sie können sich beispielsweise nicht einfach dafür entscheiden, eine Million Proben zu nehmen und dabei zu belassen.)
Im Allgemeinen möchten Sie dann die Funktion an zufällig ausgewählten Punkten bewerten, bis das geschätzte Integral "genau genug" wird. Was mich zu meiner eigentlichen Frage bringt: Wie schätzen Sie die "Genauigkeit" des Integrals ein?
Insbesondere haben wir , das durch einen komplizierten, langsamen Computeralgorithmus implementiert wird. Wir wollen schätzen
Wir können berechnen für jede x wir uns wünschen, aber es ist teuer. Wir wollen also mehrere x- Werte zufällig auswählen und aufhören, wenn die Schätzung für k akzeptabel genau wird. Dazu müssen wir natürlich wissen, wie genau die aktuelle Schätzung tatsächlich ist.
Ich bin mir nicht einmal sicher, welche statistischen Tools für diese Art von Problem geeignet wären. Aber es scheint mir, dass das Problem unlösbar ist , wenn wir absolut nichts über wissen . Wenn Sie beispielsweise tausendmal f ( x ) berechnen und es immer Null ist, ist Ihr geschätztes Integral Null. Aber, nichts zu wissen , f , dann ist es immer noch möglich , dass f ( x ) = 1 , 000 , 000 überall mit Ausnahme der Punkte , die Sie Probe passieren, so dass Ihre Schätzung schrecklich falsch ist!
Bearbeiten: OK, das scheint also viele Antworten generiert zu haben, was gut ist. Anstatt auf jeden von ihnen einzeln zu antworten, werde ich versuchen, hier einen zusätzlichen Hintergrund einzufügen.
Angesichts der Häufigkeit, mit der "Monte Carlo" aufgetaucht ist, schätze ich, dass dies der Fachbegriff für diese Art der Integration ist.