Bälle und Bins Analyse in der


23

Angenommen, wir werfen Bälle in Fächer, in denen . Sei die Anzahl der Bälle, die in Bin enden , der schwerste Bin, X_ \ min der leichteste Bin und X_ {\ mathrm {sec-max}} der zweitschwerste Bin. Grob gesagt, X_i - X_j \ sim N (0,2m / n) , und so erwarten wir | X_i - X_j | = \ Theta (\ sqrt {m / n}) für zwei beliebige feste i, j . Unter Verwendung einer Vereinigungsgrenze erwarten wir X _ {\ max} - X _ {\ min} = O (\ sqrt {m \ log n / n}) ; Vermutlich können wir eine passende Untergrenze erhalten, wenn wir n / 2 berücksichtigenmnmnXiiXmaxXmin X i - X j ~ N ( 0 , 2 m / n ) | X i - X j | = Θ ( XsecmaxXiXjN(0,2m/n)|XiXj|=Θ(m/n) X max - X min = O ( i,jn/2XmaxXmin=O(mlogn/n)n/2Paare von getrennten Behältern. Diese (nicht ganz formal) Argument führt uns , dass die Lücke zwischen erwarten Xmax und Xmin ist Θ(mlogn/n) mit hoher Wahrscheinlichkeit.

Ich interessiere mich für die Lücke zwischen Xmax und Xsecmax . Das oben skizzierte Argument zeigt, dass XmaxXsecmax=O(mlogn/n) mit hoher Wahrscheinlichkeit ist, der Faktor logn irrelevant zu sein scheint . Ist etwas über die Verteilung von XmaxXsecmax ?

Nehmen wir allgemeiner an, dass jeder Ball mit einer nicht negativen Punktzahl für jeden Behälter verbunden ist und dass wir an der Gesamtpunktzahl jedes Behälters nach dem Werfen von m Bällen interessiert sind . Das übliche Szenario entspricht Bewertungen der Form (0,,0,1,0,,0) . Angenommen, die Wahrscheinlichkeitsverteilung der Bewertungen ist unter Permutation der Klassen unveränderlich (im üblichen Szenario entspricht dies der Tatsache, dass alle Klassen gleich wahrscheinlich sind). Angesichts der Verteilung der Bewertungen können wir die Methode des ersten Absatzes verwenden, um eine gute Grenze für XmaxXmin . Die Grenze enthält einen Faktor von logndas kommt von einer Vereinigungsgrenze (über die Endwahrscheinlichkeiten einer normalen Variablen). Kann dieser Faktor reduziert werden, wenn wir daran interessiert sind, X _ {\ max} - X _ {\ mathrm {sec-max}} zu begrenzen XmaxXsecmax?


Jede Punktzahl ist in [0,1]?
Neal Young

Es spielt keine Rolle, Sie können es immer so skalieren, dass es in [0,1] .
Yuval Filmus

Antworten:


21

Antwort: Θ(mnlogn) .

Bei Anwendung einer mehrdimensionalen Version des zentralen Grenzwertsatzes erhalten wir, dass der Vektor eine asymptotisch multivariate Gaußsche Verteilung mit und Wir gehen davon aus, dass unter ist ein Gauß - Vektor (und nicht nur etwa ein Gauß - Vektor). Addieren wir eine Gaußsche Zufallsvariable mit der Varianz zu allen ( ist unabhängig von allen ). Das heißt, lassen Sie V a r [ X i ] = m ( 1(X1,,Xn)Cov(Xi,Xj)=-m/n2. XZm/n2XiZXi( Y 1 Y 2 Y n )=( X 1 +Z X 2 +Z X n +Z). (Y1

Var[Xi]=m(1n1n2),
Cov(Xi,Xj)=m/n2.
X Zm/n2XiZXi
(Y1Y2Yn)=(X1+ZX2+ZXn+Z).
Wir erhalten einen Gaußschen Vektor . Jetzt hat jedes die Varianz : und alle sind unabhängig: Y i m / n V a r [ Y i ] = V a r [ X i ] + 2 C o v ( X i , Z ) =(Y1,,Yn)Yim/nYiCov(Yi,Yj)=Cov(Xi,Xj)+ C o v ( X i , Z ) + C o v ( X j , Z ) =
Var[Yi]=Var[Xi]+2Cov(Xi,Z)=0+Var[Z]=m/n,
Yi
Cov(Yi,Yj)=Cov(Xi,Xj)+Cov(Xi,Z)+Cov(Xj,Z)=0+Cov(Z,Z)=0.

Beachten Sie, dass . Somit entspricht unser ursprüngliches Problem dem Problem, . Lassen Sie uns der Einfachheit halber zunächst den Fall analysieren, in dem alle die Varianz .Y m a x - Y s e c - m a x Y i 1YiYj=XiXjYmaxYsecmaxYi1

Problem. Wir erhalten unabhängige Gaußsche rv mit dem Mittelwert und der Varianz . Schätzen Sie die Erwartung von .γ 1 , , γ n μ 1 γ m a x - γ s e c - m a xnγ1,,γnμ1γmaxγsecmax

Antwort: .Θ(1logn)

Informeller Beweis. Hier ist eine informelle Lösung für dieses Problem (es ist nicht schwer, es formal zu machen). Da die Antwort nicht vom Mittelwert abhängt, nehmen wir an, dass . Sei , wobei . Wir haben (für mäßig großes ) ˉ & Phi; ( t ) = Pr [ γ > t ] γ ~ N ( 0 , 1 ) t ˉ & Phi; ( t ) 1μ=0Φ¯(t)=Pr[γ>t]γN(0,1)t

Φ¯(t)12πte12t2.

Beachten Sie, dass

  • [ 0 , 1 ]Φ(γi) sind gleichmäßig und unabhängig verteilt auf ,[0,1]

  • Φ ( γ i )Φ(γmax) ist das kleinste unter ,Φ(γi)

  • Φ(γsecmax) ist das zweitkleinste unter .Φ(γi)

Somit liegt nahe bei und nahe bei (es gibt keine Konzentration, aber wenn wir nicht ' Konstanten interessieren uns nicht diese Schätzungen sind gut genug, tatsächlich sind sie sogar ziemlich gut, wenn wir uns um Konstanten kümmern - aber das bedarf einer Begründung). Mit der Formel für wir diese Φ(γmax)1/nΦ(γmax)2/nΦ¯(t)

2Φ¯(γsecmax)/Φ¯(γmax)e12(γmax2γsecmax2).

Somit ist BGF zu beachten , dass . Wir haben γmax2γsecmax2Θ(1)γmaxγsecmax=Θ(logn)

γmaxγsecmaxΘ(1)γmax+γsecmaxΘ(1)logn.

QED

Wir erhalten, dass

E[XmaxXsecmax]=E[YmaxYsecmax]=Var[Yi]×E[γmaxγsecmax]=Θ(mnlogn).

Dasselbe Argument wird durchgesprochen, wenn wir willkürliche Punktzahlen haben. Es zeigt, dass

E[XmaxXsecmax]=cE[XmaxXmin]/logn.

2
Vielen Dank! Ich werde daran denken, das nächste Mal die multivariate Gaußsche Näherung zu versuchen.
Yuval Filmus

5
Yury, schrieben Sie „Lassen Sie uns fügen Sie einen Gaußschen Vektor mit Varianz für alle . Wir haben einen Gauß - Vektor erhalten . Nun hat jeder Varianz und alle sind nicht korreliert ... Beachten Sie, dass . " Können Sie diesen Teil erweitern? Ist ? Wenn die abhängig sind und die unabhängig (oder einheitlich gleich) sind, wie können die unabhängig sein? (Scheint ein ordentlicher Trick zu sein, aber ich verstehe ihn nicht.) Danke. m / n 2 X i ( Y 1 , ... , Y n ) Y i m / n Y i Y i - Y j = X i - X j Z i = Z j X i Z i Y iZm/n2Xi(Y1,,Yn)Yim/nYiYiYj=XiXjZi=ZjXiZiYi
Neal Young

1
@NealYoung, ja, wenn wir Variablen mit negativer paarweise Korrelation und all Kovarianzen sind gleich , dann können wir ein hinzufügen einzelnen neuen Zufallsvariable für alle , so dass Die Beträge sind unabhängig. Auch wenn die Variablen eine positive Korrelation haben und wieder alle Kovarianzen gleich sind, können wir ein einzelnes rv von allen subtrahieren , so dass alle Unterschiede unabhängig sind; aber jetzt ist nicht unabhängig von , sondernC o v ( X i , X j ) Z X i C o v ( X i , X j ) Z Z X i Z = α ( X 1 + + X n ) αX1,,XnCov(Xi,Xj)ZXiCov(Xi,Xj)ZZXiZ=α(X1++Xn)für einige Skalierungsparameter . α
Yury

1
Ah ich sehe. Zumindest algebraisch ist alles, worauf es beruht, die paarweise Unabhängigkeit von Z und jedem . sehr cool. Xi
Suresh Venkat

1
Dieses Argument erscheint jetzt (mit Zuschreibung) in einem EC'14-Artikel: dl.acm.org/citation.cfm?id=2602829 .
Yuval Filmus

13

Ich denke, Sie können für Ihre erste Frage zeigen, dass whp ist Beachten Sie, dass dies .XmaxXsec-max

o(mnlog2lognlogn).
o(m/n)

Vergleichen Sie Ihr zufälliges Experiment mit der folgenden Alternative: Es sei die maximale Beladung eines der ersten Eimer. Sei die maximale Beladung eines der letzten Buckets.X1n/2X2n/2

Bei Betrachtungist eine Obergrenze für . Außerdem ist mit einer Wahrscheinlichkeit von mindestens der Hälfte . Grob gesprochen ist also ähnlich zu.|X1X2|XmaxXsecmax|X1X2|=XmaxXsecmaxXmaxXsecmax|X1X2|

Um zu studieren Beachten Sie, dass mit hoher Wahrscheinlichkeit Kugeln in die ersten Bins geworfen werden , ebenso wie für die letzten Bins. Also sind und im Wesentlichen wie die maximale Last verteilt, wenn Kugeln in Behälter geworfen werden .|X1X2|m/2±O(m)n/2n/2X1X2m=m/2±o(m)n=n/2

Diese Verteilung ist gut untersucht und zum Glück eng um ihren Mittelwert konzentriert. Wenn beispielsweise , weicht mit hoher Wahrscheinlichkeit höchstens um die oben in dieser Antwort angezeigte Menge von seiner Erwartung ab [ Thm. 1 ]. (Anmerkung: diese obere Schranke ist, glaube ich, bei Yuris Antwort locker.) Also unterscheiden sich und mit hoher Wahrscheinlichkeit auch höchstens so sehr, und so und unterscheiden sich höchstens so sehr.mnlog3nX1X1X2XmaxXmaxsec

Umgekehrt ist für eine (etwas schwächer) gebunden senken, wenn für jedes , sagen wir, , dann ist mindestens was (durch die naive Vereinigungsgrenze) mindestens Ich denke, dies sollte Ihnen (zum Beispiel) die Erwartung von innerhalb eines Konstantenfaktors geben.tPr[|X1X2|t]3/4Pr[XmaxXsec-maxt]

Pr[|X1X2|t  XmaxXsec-max=|X1X2|]
1(1/4)(1/2)=1/4.XmaxXsec-max

Mit Blick auf Thm. 1, der Unterschied zur Erwartung ist und nicht das, was Sie geschrieben haben. Das ist immer noch viel besser als . O((m/n)loglogn)O((m/n)logn)
Yuval Filmus

Von Thm. 1 (sein dritter Fall) ist für jedes mit der Wahrscheinlichkeit das Maximum in jedem Behälter (m Bälle in n Behältern) Nach meiner Mathematik (mit ) erweitert sich der Term zu einem additiven absoluten Term vonWas mache ich falsch? ϵ>01o(1)
mn+2mlognn1(1±ϵ)loglogn2logn.
±O()1δ=1O(δ)±ϵ
O(ϵ)mlognn loglognlogn = O(ϵ)mn log2lognlogn.
Neal Young

Ah, ich denke du hast recht. Ich habe innerhalb der Quadratwurzel subtrahiert und so meine Figur erhalten.
Yuval Filmus
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.