Latin Hypercube Sampling Asymptotics


11

Ich versuche, einen Beweis für ein Problem zu erstellen, an dem ich arbeite, und eine der Annahmen, die ich mache, ist, dass die Menge der Punkte, von denen ich Stichproben mache, über den gesamten Raum dicht ist. Praktisch verwende ich Latin Hypercube Sampling, um meine Punkte über den gesamten Probenraum zu erhalten. Was ich gerne wissen würde, ist, ob lateinische Hypercube-Samples über den gesamten Raum dicht sind, wenn Sie Ihre Sample-Größe zu tendieren lassen ? Wenn ja, wäre ein Zitat für diese Tatsache sehr dankbar.


4
Ja, unter der Annahme einer kontinuierlichen Verteilung, da Sie für jedes ϵ>0 die Anzahl der Unterteilungen so einstellen können, dass alle Intervalle pro Variable eine Breite <ϵ/2 . So zumindest eine hyperinterval (dh Probenvolumen) ist streng durch eine Breite enthalten ϵ hypercube um jeden Punkt , den Sie wählen. (Kommentar, nicht Antwort, da alles, was ich über LHS weiß, von Wikipedia vor zehn Minuten stammt ...)
Kreosot

Dies ist wahr, aber ich denke nicht, dass es leicht verwendet werden kann, um die Dichte großer Latin Hypercube-Samples zu zeigen. Der Grund dafür ist, dass die Abtastpunkte in LHS nicht unabhängig sind: Das Vorhandensein eines Abtastpunkts innerhalb eines bestimmten Hyperintervalls verhindert, dass andere Abtastpunkte in derselben Zeile / Spalte erscheinen (oder was auch immer der mehrdimensionale Begriff dafür ist). .
S. Catterall stellt Monica

@Creosote denkst du, du könntest deine Antwort mehr formalisieren?

@RustyStatistician, bitte erweitern Sie Ihren Eröffnungsbeitrag, um auf formelle Weise zu erklären, was Sie unter "Die Menge der Punkte, von denen ich Stichproben nehme, sind über den gesamten Raum verteilt" verstehen. Vielen Dank.
Kreosot

Wenn ich eine erste lateinische Hypercube-Stichprobe nehme, bei der so groß ist, halten wir sie für unzulänglich. Ist diese Stichprobe dicht? ' n

Antworten:


6

Kurze Antwort: Ja, auf probabilistische Weise. Es ist möglich zu zeigen, dass wir bei jedem Abstand , jeder endlichen Teilmenge { x 1 , , x m } des Probenraums und jeder vorgeschriebenen 'Toleranz' δ > 0 für geeignet große Probengrößen sicher sein können, dass Die Wahrscheinlichkeit, dass es einen Abtastpunkt innerhalb eines Abstands ϵ von x i gibt, ist > 1 - δ für alle i = 1 , ,ϵ>0{x1,,xm}δ>0ϵxi>1δ .i=1,,m

Lange Antwort: Mir sind keine direkt relevanten Zitate bekannt (siehe aber unten). Der größte Teil der Literatur zur Latin Hypercube Sampling (LHS) bezieht sich auf die Varianzreduktionseigenschaften. Das andere Problem ist, was bedeutet es zu sagen, dass die Stichprobengröße zu tendiert ? Für eine einfache IID-Zufallsstichprobe kann eine Stichprobe der Größe n aus einer Stichprobe der Größe n - 1 erhalten werden, indem eine weitere unabhängige Stichprobe angehängt wird. Für LHS glaube ich nicht, dass Sie dies tun können, da die Anzahl der Proben im Rahmen des Verfahrens im Voraus festgelegt wurde. Es scheint also, dass Sie eine Reihe unabhängiger LHS-Proben der Größe 1 , 2 , 3 nehmen müssten .nn11,2,3,....

Es muss auch eine Möglichkeit geben, "dicht" im Grenzbereich zu interpretieren, da die Stichprobengröße tendenziell zu tendiert . Die Dichte scheint für LHS nicht deterministisch zu sein, z. B. in zwei Dimensionen. Sie können eine Folge von LHS-Proben der Größe 1 , 2 , 3 , . . . so dass sie alle an der Diagonale von [ 0 , 1 ) 2 festhalten . Es scheint also eine Art probabilistische Definition notwendig zu sein. Für jedes n sei X n = ( X n 1 , X n 2 , . ,1,2,3,...[0,1)2n festhalten, sei eine Probe der Größe n, die nach einem stochastischen Mechanismus erzeugt wurde. Angenommen, für verschiedene n sind diese Stichproben unabhängig. Um dann die asymptotische Dichte zu definieren, benötigen wir dies möglicherweise für jedenXn=(Xn1,Xn2,...,Xnn)nn und für jedes x im Probenraum (angenommen [ 0 , 1 ) d ) P ( m i n 1 k nX. n k - x ϵϵ>0x[0,1)d (als n ).P(min1knXnkxϵ)0n

Wenn die Probe wird berechnet, indem erhält n unabhängige Proben aus dem U ( [ 0 , 1 ) , d ) Verteilung ( 'IID Stichproben') , dann P ( m i n 1 k nX n k - x ϵ ) = n k = 1 P ( X n k - x ϵXnnU([0,1)d) wobei v ϵ das Volumen der d- dimensionalen Kugel mit dem Radius ϵ ist . IID-Zufallsstichproben sind also sicherlich asymptotisch dicht.

P(min1knXnkxϵ)=k=1nP(Xnkxϵ)(1vϵ2d)n0
vϵdϵ

Betrachten Sie nun den Fall, dass die Proben durch LHS erhalten werden. Satz 10.1 in diesen Anmerkungen besagt, dass die Mitglieder der Stichprobe X n alle als U ( [ 0 , 1 ) d ) verteilt sind . Die bei der Definition von LHS verwendeten Permutationen (obwohl für verschiedene Dimensionen unabhängig) induzieren jedoch eine gewisse Abhängigkeit zwischen den Mitgliedern der Probe ( X n k , k n)XnXnU([0,1)d)Xnk,kn ), so dass es weniger offensichtlich ist, dass die Eigenschaft der asymptotischen Dichte gilt.

Fix und x [ 0 , 1 ) d . Definieren P n = P ( m i n 1 k nX n k - x & egr; ) . Wir wollen zeigen, dass P n0 ist . Zu diesem Zweck können wir in diesen Anmerkungen Satz 10.3 verwenden , der eine Art zentraler Grenzwertsatz für die lateinische Hypercube-Abtastung darstellt. Definiere f : [ϵ>0x[0,1)dPn=P(min1knXnkxϵ)Pn0 durch f ( z ) = 1, wenn z in der Kugel mit dem Radius ϵ um x liegt ,andernfalls f ( z ) = 0 . Dann sagt uns Satz 10.3, dass Y n : = f:[0,1]dRf(z)=1zϵxf(z)=0woμ= [ 0 , 1 ] d f(z)Yn:=n(μ^LHSμ)dN(0,Σ) , und μ L H S = 1μ=[0,1]df(z)dz .μ^LHS=1ni=1nf(Xni)

Nimm . Schließlich haben wir für groß genug n - L>0n. Schließlich haben wir alsoPn=P(Yn=-nμ<L. Daher istlim supPnlim supP(Yn<-L)=Φ( - L.Pn=P(Yn=nμ)P(Yn<L), wobeiΦdas normale Standard-cdf ist. DaLbeliebig war, folgt, dassPn0nach Bedarf ist.lim supPnlim supP(Yn<L)=Φ(LΣ)ΦLPn0

Dies beweist die asymptotische Dichte (wie oben definiert) sowohl für die Zufallsstichprobe als auch für die LHS. Informell bedeutet dies, dass bei einem beliebigen und einem beliebigen x im Stichprobenraum die Wahrscheinlichkeit, dass die Stichprobe innerhalb von ϵ von x liegt , so nahe an 1 gebracht werden kann, wie Sie möchten, indem Sie die ausreichend große Stichprobengröße auswählen. Es ist einfach, das Konzept der asymptotischen Dichte so zu erweitern, dass es auf endliche Teilmengen des Probenraums angewendet wird - indem das, was wir bereits wissen, auf jeden Punkt in der endlichen Teilmenge angewendet wird. Formal bedeutet dies, dass wir zeigen können: für jede ϵ > 0 und jede endliche Teilmenge { x 1 , . . . , xϵxϵxϵ>0 des Probenraums ist m i n 1 j m P ( m i n 1 k nX n k - x j< ϵ ) 1 (als n ).{x1,...,xm}min1jmP(min1knXnkxj<ϵ)1n


Ich habe zwei Fragen: 1) Wenn Sie nur eine Stichprobe der Größe bei der n groß ist, ändert dies das Argument? Und 2) Latin Hypercubes-Samples können in einem beliebigen Wertebereich liegen (nicht unbedingt nur (0,1)). Ändert sich also auch die Antwort? nn

Würdest du auch erklären wollen, warum wir für groß genug - haben werden ?n? Ich nehme, bedeutetdass für großen, μ L H S auf Null geht, weil inVerteilung ist es einN(0,Σ)? nμnμ^LHSN(0,Σ)

@RustyStatistician Alles wird als endliche Stichproben definiert, dh aber groß. Ich habe am Ende einige zusätzliche Erklärungen hinzugefügt, um zu erklären, was passiert. Andere Wertebereiche können leicht berücksichtigt werden ((0,1) ist nicht speziell), solange das Volumen des Probenraums endlich ist. n<
S. Catterall stellt Monica

Können Sie Ihre kurze Antwort näher erläutern?

@RustyStatistician Die kurze Antwort ist eine informelle Zusammenfassung meiner langen Antwort, die, wie Sie sicher zustimmen werden, bereits ziemlich ausführlich ist! Wie oben vorgeschlagen, wäre es gut, wenn Sie Ihre Frage formeller umschreiben könnten, damit ich weiß, ob meine versuchte Antwort auf dem richtigen Weg ist (in Bezug auf die Beantwortung Ihrer beabsichtigten Frage) oder nicht.
S. Catterall stellt Monica

3

Ich bin mir nicht sicher, ob dies genau das ist, was Sie wollen, aber hier geht es weiter.

Sie sind LHS-Abtastung von Punkten aus [ 0 , 1 ) d , sagen wir. Wir werden sehr informell argumentieren, dass für jedes ϵ > 0 die erwartete Anzahl leerer (Hyper-) Quader der Größe ϵ in jeder Dimension als n auf Null geht .n[0,1)dϵ>0ϵn

Lassen so dass , wenn wir unterteilen [ 0 , 1 ) d gleichmäßig in m d kleine Quader - microcuboids , sagen sie - mit einer Breite von 1 / m dann jedem breiten- ε Quader mindestens eine microcuboid enthält. Wenn wir also zeigen können, dass die erwartete Anzahl nicht abgetasteter Mikrokuboide Null ist, in der Grenze als n , dann sind wir fertig. (Beachten Sie, dass unsere Mikrokuboide in einem regelmäßigen Gitter angeordnet sind, die ϵ- Kuboide sich jedoch in jeder Position befinden können.)m=2/ϵ[0,1)dmd1/mϵnϵ

Die Wahrscheinlichkeit, dass ein gegebenes Mikrokuboid mit dem ersten Abtastpunkt vollständig fehlt, beträgt , unabhängig von n , da der erste Satz von d Abtastkoordinaten (erster Abtastpunkt) frei gewählt werden kann. Angesichts der Tatsache, dass die ersten Stichprobenpunkte alle dieses Mikrokuboid verfehlt haben, fällt es nachfolgenden Stichprobenpunkten (im Durchschnitt) schwerer, es zu übersehen, sodass die Wahrscheinlichkeit, dass alle n Punkte fehlen, geringer als ( 1 - m - d ) n ist .1mdndn(1md)n

Es gibt Mikrokuboide in [ 0 , 1 ) d , so dass die erwartete Anzahl, die übersehen wird, oben durch m d ( 1 - m - d ) n begrenzt ist - weil sich die Erwartungen addieren - was im Grenzwert Null als n → ist .md[0,1)dmd(1md)nn


Aktualisierung ...

ϵmm×m ϵ×ϵϵ×ϵ

enter image description here

(1/m)dmd1mdnm1.

(3) Denken Sie nun über die Anzahl der Stichprobenpunkte nach n>m. Ich habe illustriertn=6min dem Bild. LHS arbeitet in einem feinen Netz dieser winzigen Winzlingen1×n1 sized "nanocuboids" (if you will), not the larger m1×m1 sized "microcuboids", but actually that's not important in the proof. The proof only needs the slightly hand-waving statement that it gets gradually harder, on average, to keep missing a given microcuboid as you throw down more points. So it was a probability of 1md for the first LHS point missing, but less than (1md)n for all n of them missing: that's zero in the limit as n.

(4) All these epsilons are fine for a proof but aren't great for your intuition. So here are a couple of pictures illustrating n=10 and n=50 sample points, with the largest empty rectangular area highlighted. (The grid is the LHS sampling grid -- the "nanocuboids" referred to earlier.) It should be "obvious" (in some vague intuitive sense) that the largest empty area will shrink to arbitrarily small size as the number of sample points n.

enter image description here


Does this argument hold for any general interval? Instead of [0,1)?

Yes, for any finite dimensions. It should be clearer now that I've fixed the proof.
Creosote

is it possible to give a 1-d or even 2-d picture of this proof? I am pretty lost in it.

Done. Happy to take further questions if need be.
Creosote

Awesome thanks! That definitely does help now with the intuition.
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.