Gibt es eine umgekehrte Chernoff-Grenze, die einschränkt, dass die Schwanzwahrscheinlichkeit mindestens so groß ist.
dh wenn unabhängige binomiale Zufallsvariablen sind und . Dann können wir für eine Funktion f beweisen, dass .
Gibt es eine umgekehrte Chernoff-Grenze, die einschränkt, dass die Schwanzwahrscheinlichkeit mindestens so groß ist.
dh wenn unabhängige binomiale Zufallsvariablen sind und . Dann können wir für eine Funktion f beweisen, dass .
Antworten:
Hier ist ein expliziter Beweis dafür, dass eine Standard-Chernoff-Bindung für einen bestimmten Bereich der Parameter bis zu konstanten Faktoren im Exponenten eng ist. (Insbesondere, wenn die Variablen 0 oder 1 und 1 mit einer Wahrscheinlichkeit von 1/2 oder weniger und sind und die Chernoff-Obergrenze kleiner als eine Konstante ist.)
Wenn Sie einen Fehler finden, lassen Sie es mich bitte wissen.
Lemma 1. (Enge der Chernoff-Grenze) Sei der Durchschnitt von unabhängigen 0/1-Zufallsvariablen (rv). Für jedes und , vorausgesetzt, ,
(i) Wenn jedes rv mit einer Wahrscheinlichkeit von höchstens , dann ist
(ii) Wenn jedes rv mit einer Wahrscheinlichkeit von mindestens , dann ist
Beweis. Wir verwenden die folgende Beobachtung:
Behauptung 1. Wenn , dann
Beweis von Anspruch 1. Nach Stirlings Näherung ist wobei
Also ist , was ist mindestens QED
Beweis von Lemma 1 Teil (i). Ohne Allgemeingültigkeitsverlust sei angenommen, dass jede 0/1-Zufallsvariable in der Summe mit einer Wahrscheinlichkeit von genau . Hinweis entspricht der Summe , und .
Fix . Die Terme in der Summe nehmen zu, also haben die Terme mit dem Index jeweils einen Wert von mindestens , also hat ihre Summe einen Gesamtwert von mindestens . Um den Beweis zu vervollständigen, zeigen wir, dass
Die Annahmen und ergeben , so dass die linke Seite oben mindestens . Verwendung von Anspruch 1, gebunden , ist dies wiederum mindestens , wo und
Zum Schluss zeigen wir und .
Anspruch 2.
Beweis von Anspruch 2. Die Annahmen und implizieren (i) .
Per Definition . Bis (i) . Somit ist (ii) .
Einsetzen der rechten Seite von (ii) für in ergibt (iii) .
Die Annahme impliziert , was mit (iii) (iv) ergibt .
Aus folgt, dass (v) .
(iv) und (v) ergeben zusammen den Anspruch. QED
Anspruch 3. .
Beweis nach Anspruch 3.
Fixiere so, dass .
Die Wahl von impliziert , daher gilt die Behauptung so lange wie . Nimmt man jede Seite dieser letzteren Ungleichung und vereinfacht sie, so entspricht dies
Wenn Sie und vereinfachen, entspricht dies
Ansprüche 2 und 3 implizieren . Dies impliziert Teil (i) des Lemmas.
Beweis von Lemma 1 Teil (ii). Ohne Beschränkung der Allgemeinheit annehmen , jede Zufallsvariable mit einer Wahrscheinlichkeit von genau .
Beachten Sie . Fix .
Die letzten Terme in der Summe ergeben mindestens , was mindestens . (Der Beweis dafür ist der gleiche wie für (i), außer dass durch und durch so dass .) QED
Das Berry-Esseen-Theorem kann Schwanzwahrscheinlichkeits-Untergrenzen angeben, solange sie höher als .
Ein weiteres Werkzeug, das Sie verwenden können, ist die Paley-Zygmund-Ungleichung . Es impliziert , dass für eine beliebige gerade Zahl und jede reellwertigen Zufallsvariablen ,
Zusammen mit dem Multinomialsatz kann für eine Summe von Rademacher-Zufallsvariablen Paley-Zygmund ziemlich starke Untergrenzen ergeben. Es funktioniert auch mit Randed-Independence-Zufallsvariablen. Zum Beispiel erhalten Sie leicht, dass die Summe von 4-fach unabhängigen Zufallsvariablen mit konstanter Wahrscheinlichkeit ist.
Wenn Sie in der Tat in der Lage sind, die Anzahl der Bernoulli-Versuche zu begrenzen (und nicht etwa die Anzahl der zufälligen Variablen), ist das Folgende ziemlich eng.
Schlammungleichheit *. Sei iid Draws aus einem Bernoulli-Rv mit , und sei die Ganzzahl gegeben. Wenn entweder (a) und oder (b) , dann wobei die cdf einer Standardnormalen ist.
(Wenn man das Argument von als Transformation der Standardnormalen betrachtet, stimmt dies genau mit dem überein, was die CLT Ihnen sagt. Tatsächlich sagt es uns, dass Binomialzahlen, die die Bedingungen des Theorems erfüllen, ihre entsprechenden Gaußschen auf den oberen Schwänzen dominieren.)
Ab hier können Sie Grenzen für , um etwas Schöneres zu erhalten. Zum Beispiel wird in Fellers erstem Buch im Abschnitt über Gauß'sche Verhältnisse für jedes dass wobei die Dichte einer Standardnormalen ist. Ähnliche Grenzen gibt es auch im Wikipedia-Artikel für "Q-Funktion".
Anders als das und was andere Leute gesagt haben, können Sie auch versuchen, das Binomial direkt zu verwenden, vielleicht mit etwas Stirling.
(*) Einige neuere Aussagen über die Ungleichheit von Slud lassen einige dieser Bedingungen außer Acht. Ich habe die in Sluds Papier reproduziert.
Der Satz von de Moivre-Laplace zeigt, dass Variablen wieNach einer geeigneten Normalisierung und unter bestimmten Bedingungen wird die Verteilung zu einer Normalverteilung konvergieren. Das reicht, wenn Sie konstante Untergrenzen wünschen.
Für untere Schranken wie benötigen Sie ein etwas feineres Werkzeug. Hier ist ein Hinweis, den ich kenne (aber nur aus Versehen - ich hatte noch nie die Gelegenheit, eine solche Ungleichung selbst zu verwenden). Einige explizite untere Schranken für die Endwahrscheinlichkeiten von Binomialverteilungen sind in Theorem 1.5 des Buches Random Graphs von Béla Bollobás, Cambridge, 2. Auflage, angegeben, in dem auf eine Einführung in die Wahrscheinlichkeit und ihre Anwendungen von Feller und Foundations of Probability von Rényi verwiesen wird.
Das verallgemeinerte Littlewood-Offord-Theorem ist nicht genau das, was Sie wollen, aber es gibt das, was ich als "umgekehrtes Chernoff" bezeichne, indem es zeigt, dass es unwahrscheinlich ist, dass die Summe der Zufallsvariablen in einen kleinen Bereich um einen bestimmten Wert fällt (einschließlich die Erwartung). Vielleicht wird es nützlich sein.
Formal lautet der Satz wie folgt.
Verallgemeinerter Littlewood-Offord-Satz : Sei und reelle Zahlen, so dass for und lassen unabhängige Zufallsvariablen sein, die die Werte Null und Eins haben. Nehmen wir für , dass für alle . Dann, für jedes , Wobei eine Konstante ist, die nur von abhängt .
Der Exponent in der Standard-Chernoff-Grenze, wie er in Wikipedia angegeben ist, ist eng für Zufallsvariablen mit einem Wert von 0/1. Lassen und lassen eine Folge von unabhängigen Zufallsvariablen , so dass für jedes , und . Dann für jede ,
Hier ist , was die Kullback-Leibler-Divergenz zwischen Bernoulli-Zufall ist Variablen mit den Parametern und .
Wie erwähnt, wird die obere Schranke in der obigen Ungleichung auf Wikipedia ( https://en.wikipedia.org/wiki/Chernoff_bound ) unter dem Namen "Chernoff-Hoeffding Theorem, additive Form" bewiesen . Die Untergrenze kann zB mit der "Methode der Typen" nachgewiesen werden. Siehe Lemma II.2 in [1]. Dies wird auch im klassischen Lehrbuch zur Informationstheorie von Cover und Thomas behandelt.
[1] Imre Csiszár: Die Methode der Typen. IEEE-Transaktionen zur Informationstheorie (1998). http://dx.doi.org/10.1109/18.720546