Ist die lateinische Hypercube-Abtastung in mehreren Dimensionen wirksam?


8

Ich verwende derzeit ein Latin Hypercube Sampling (LHS), um weit auseinander liegende einheitliche Zufallszahlen für Monte-Carlo-Verfahren zu generieren. Obwohl die Varianzreduzierung, die ich von LHS erhalte, für eine Dimension ausgezeichnet ist, scheint sie in zwei oder mehr Dimensionen nicht effektiv zu sein. Angesichts der Tatsache, dass LHS eine bekannte Technik zur Varianzreduzierung ist, frage ich mich, ob ich den Algorithmus möglicherweise falsch interpretiere oder auf irgendeine Weise missbrauche.

Insbesondere ist der LHS-Algorithmus, den ich verwende, um beabstandete einheitliche Zufallsvariablen in D- Dimensionen zu erzeugen :D.ND

  • Erzeugen Sie für jede Dimension eine Menge von gleichmäßig verteilten Zufallszahlen so dass , ...N { u 1 D , U 2 D . . . u N D } u 1 D[ 0 , 1DN{uD1,uD2...uDN}u 2 D[1uD1[0,1N+1]u N D[N.uD2[1N+1,2N+1]uDN[NN+1,1]

  • Ordnen Sie für jede Dimension die Elemente aus jedem Satz zufällig neu an. Das erste , hergestellt von der LHS ist ein - dimensionaler Vektor das erste Element aus jedem Satz neu geordnet, die zweite enthält , hergestellt von LHS ist ein - dimensionaler Vektor mit dem zweiten Element aus jedem neu geordneten Satz und so weiter ...U ( 0 , 1 ) D D U ( 0 , 1 ) D D.D2U(0,1)DDU(0,1)DD

Ich habe unten einige Diagramme beigefügt, um die Varianzreduzierung zu veranschaulichen, die ich in und für ein Monte-Carlo-Verfahren erhalte . In diesem Fall besteht das Problem darin, den erwarteten Wert einer Kostenfunktion schätzen, wobei und eine dimensionale Zufallsvariable ist, die zwischen . Insbesondere zeigen die Diagramme den Mittelwert und die Standardabweichung von 100 Stichprobenmittelwertschätzungen von für Stichprobengrößen von 1000 bis 10000.D = 2 E [ c ( x ) ] c ( x ) = ϕ ( x ) x D [ - 5 , 5 ] E [ c ( x ) ]D=1D=2E[c(x)]c(x)=ϕ(x)xD[5,5]E[c(x)]

LHS für $ D = 1 $

LHS für $ D = 2 $

Ich erhalte die gleichen Varianzreduktionsergebnisse, unabhängig davon, ob ich meine eigene Implementierung oder die lhsdesignFunktion in MATLAB verwende. Auch die Varianzreduzierung ändert sich nicht, wenn ich alle Sätze von Zufallszahlen permutiere, anstatt nur diejenigen, die .D2

Die Ergebnisse sind sinnvoll, da eine geschichtete Stichprobe in bedeutet, dass wir von Quadraten anstelle von Quadraten abtasten sollten , die garantiert gut verteilt sind.N 2 N.D=2N2N

Antworten:


3

Ich habe die in Ihrem Beitrag beschriebenen Probleme in drei Fragen unterteilt. Eine gute Referenz für Ergebnisse zu Latin Hypercube Sampling und anderen Techniken zur Varianzreduzierung ist dieses Buchkapitel . Dieses Buchkapitel enthält auch Informationen zu einigen „Grundlagen“ der Varianzreduzierung.

Q0. Was ist Varianzreduzierung? Bevor Sie auf die Details eingehen, sollten Sie sich daran erinnern, was "Varianzreduzierung" tatsächlich bedeutet. Wie im Kapitel "Grundlagen" erläutert, hat die mit einer Monte-Carlo-Prozedur verbundene Fehlervarianz typischerweise die Form unter IID-Abtastung. Um die Fehlervarianz zu verringern, können wir entweder die Stichprobengröße erhöhen oder einen Weg finden, um zu reduzieren . Die Varianzreduzierung befasst sich mit Möglichkeiten zur Reduzierung von , so dass solche Methoden möglicherweise keinen Einfluss auf die Art und Weise haben, in der sich die Fehlervarianz ändert, wenn variiert.σ2/nnσσn

Q1. Wurde Latin Hypercube Sampling korrekt implementiert? Ihre schriftliche Beschreibung erscheint mir korrekt und stimmt mit der Beschreibung im Buchkapitel überein. Mein einziger Kommentar ist, dass die Bereiche der Variablen nicht das gesamte Einheitsintervall zu füllen scheinen; Es scheint, dass Sie tatsächlich benötigen , aber hoffentlich hat sich dieser Fehler nicht in Ihre Implementierung eingeschlichen. Die Tatsache, dass beide Implementierungen ähnliche Ergebnisse lieferten, lässt darauf schließen, dass Ihre Implementierung wahrscheinlich korrekt ist. u i D[ i - 1uDiuDi[i1N,iN]

Q2. Stimmen Ihre Ergebnisse mit denen überein, die Sie von LHS erwarten könnten? In Satz 10.4 des Buchkapitels heißt es, dass die LHS-Varianz niemals (viel) schlechter sein kann als die Varianz, die aus der IID-Stichprobe erhalten wird. Oft ist die LHS-Varianz viel geringer als die IID-Varianz. Genauer gesagt besagt Satz 10.1, dass wir für die LHS-Schätzung wobei der 'Rest der Additivität' ist von der Funktion dh minus ihrer besten additiven Näherung (siehe S.10 des Buchkapitels für Details, ist additiv, wenn wir schreiben könnenμ^LHS=1ni=1nf(Xi)

Var(μ^LHS)=n1e(x)2dx+o(n1)
e(x)ffff(x)=μ+j=1Dfj(xj) ).

Für ist jede Funktion additiv, also und aus Satz 10.1. Tatsächlich entspricht LHS für einer gitterbasierten Schichtung (Abschnitt 10.1 im Buchkapitel), sodass die Varianz tatsächlich (Gleichung 10.2 im Buchkapitel; nimmt an, dass kontinuierlich differenzierbar ist). Dies scheint nicht mit Ihrem ersten Diagramm unvereinbar zu sein. Der Hauptpunkt ist, dass ein ganz besonderer Fall ist!e = 0 V a r ( μ L H S ) = o ( n - 1 ) D = 1D=1e=0Var(μ^LHS)=o(n1)D=1f D = 1O(n3)fD=1

Für ist es wahrscheinlich, dass so dass Sie eine Varianz der Ordnung erwarten können . Auch dies ist nicht inkonsistent mit Ihrem zweiten Diagramm. Die tatsächlich erzielte Varianzreduzierung (im Vergleich zur IID-Stichprobe) hängt davon ab, wie nahe Ihre gewählte Funktion an der Addition liegt.e 0 O ( n - 1 )D=2e0O(n1)

Zusammenfassend kann LHS in geringen bis mittleren Dimensionen und insbesondere für Funktionen wirksam sein, die durch additive Funktionen gut angenähert werden.


2

http://statweb.stanford.edu/~owen/mc/Ch-var-adv.pdf

In diesem Artikel wird die Varianzreduzierung der Latin Hypercube Sampling in mehreren Dimensionen erörtert. LHS erzwingt keine Einheitlichkeit beim Abtasten in mehreren Dimensionen, da es einfach in jeder Dimension unabhängig abtastet und dann die Dimensionen zufällig kombiniert. Geschichtete Stichprobe von N 2 Bins wie Sie erwähnen ist auch als Orthogonal Sampling bezeichnet als auf der Wikipedia - Seite diskutiert: https://en.wikipedia.org/wiki/Latin_hypercube_sampling und erzwingt mehrdimensionale Gleichförmigkeit durch aus den Behältern der Probenahme stattdessen alle Dimensionen kombiniert.

Mit ein paar Änderungen an dieser Art der Abtastung kann gezeigt werden, dass die Fehlervarianz O (N -1-2 / d ) ist ( siehe Lit. oben). Obwohl dies große Gewinne für kleine Dimensionen liefert, beginnt es in größeren Dimensionen, sich auf die Leistung von gewöhnlichem Monte Carlo zu verschlechtern.


1

Ich möchte "Additivität" kommentieren. LHS stellt z. B. sicher, dass X1 und X2 gut verteilt sind (normalerweise in (0,1)). Wenn also ein Design nur von einer Variablen abhängt, erhalten Sie ein "perfektes" Histogramm und eine starke Varianzreduzierung. Für die Integration von f = 100 * X1 + X2 erhalten Sie ebenfalls gute Ergebnisse, nicht jedoch für X1-X2! Dieser Unterschied hat eine fast zufällige Zufallsverteilung, keine LHS-Eigenschaften. In der Elektronik nutzen Konstruktionen häufig aus, dass sich 2 Parametereinflüsse meistens gegenseitig aufheben (Differenzpaar, Stromspiegel, Replikationsschaltungen usw.), aber der Effekt der Nichtübereinstimmung X1-X2 ist immer noch vorhanden und häufig dominant. Daher verhält sich die LHS-MC-Analyse in vielen elektrischen Konstruktionen nicht besser als die MC.


Ich bin mir nicht sicher, was es für , eine "fast iid zufällige Verteilung, keine LHS-Eigenschaften" zu haben. In diesem Fall ist immer noch additiv, sodass Sie mit LHS eine gute Varianzreduzierung erwarten können, genau wie mit der additiven Funktion . Sie können dies durch Simulation überprüfen. f f = 100 X 1 + X 2f=X1X2ff=100X1+X2
S. Catterall stellt Monica
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.