Grundsätzlich gibt es also drei Fragen.
Ich weiß, dass , aber wie beweise ich das?E ( X k ) = ( nk ) ⋅p ( k2 )E(Xk)=(nk)⋅p(k2)
Sie verwenden die Linearität der Erwartung und ein intelligentes Umschreiben. Beachten Sie zunächst, dass
Wenn man nun die Erwartung von , kann man einfach die Summe (aufgrund der Linearität) und
Durch Herausziehen der Summe haben wir alle möglichen Abhängigkeiten zwischen Teilmengen von Knoten beseitigt. Wie groß ist also die Wahrscheinlichkeit, dass eine Clique ist? Nun, egal woraus besteht, alle Kantenwahrscheinlichkeiten sind gleich. Daher istXk=∑T⊆V,|T|=k1[T is clique].
Xk=∑T⊆V,|T|=k1[T is clique].
XkXkE(Xk)=∑T⊆V,|T|=kE(1[T is clique])=∑T⊆V,|T|=kPr[T is clique]E(Xk)=∑T⊆V,|T|=kE(1[T is clique])=∑T⊆V,|T|=kPr[T is clique]
TTTTPr[T is clique]=p(k2)Pr[T is clique]=p(k2), da alle Kanten in diesem Untergraphen vorhanden sein müssen. Und dann hängt der innere Term der Summe nicht mehr von , so dass wir .
TTE(Xk)=p(k2)∑T⊆V,|T|=k1=(nk)⋅p(k2)E(Xk)=p(k2)∑T⊆V,|T|=k1=(nk)⋅p(k2)
So zeigen Sie das für :n→∞n→∞E(Xlog2n)≥1E(Xlog2n)≥1
Ich bin mir nicht ganz sicher, ob das überhaupt richtig ist. Durch Anwenden einer Grenze auf den Binomialkoeffizienten erhalten wir
E(Xlogn)=(nlogn)⋅p(logn2)≤(nep(logn)4logn)logn=(ne⋅n(logp)/4logn)logn.
E(Xlogn)=(nlogn)⋅p(logn2)≤⎛⎝nep(logn)4logn⎞⎠logn=(ne⋅n(logp)/4logn)logn.
(Beachten Sie, dass ich ungefähr durch .) Jetzt könnte man jedoch wählen und das erhalten , wodurch der gesamte Term für großes auf . Vermissen Sie vielleicht einige Annahmen auf ?
p−1+logn2p−1+logn2plogn4plogn4p=0.001p=0.001log20.001≈−9.96log20.001≈−9.9600nnpp