Hypothesentest und Gesamtvariationsabstand vs. Kullback-Leibler-Divergenz


10

Bei meiner Forschung bin ich auf das folgende allgemeine Problem gestoßen: Ich habe zwei Verteilungen und über dieselbe Domäne und eine große (aber endliche) Anzahl von Stichproben aus diesen Verteilungen. Die Proben sind unabhängig und identisch von einer dieser beiden Verteilungen verteilt (obwohl die Verteilungen verwandt sein können: Zum Beispiel kann eine Mischung aus und einer anderen Verteilung sein.) Die Nullhypothese lautet, dass die Proben von , die alternative Hypothese lautet: Proben stammen von .PQQPPQ

Ich versuche, die Fehler vom Typ I und Typ II beim Testen der Probe zu charakterisieren, wobei ich die Verteilungen und . Insbesondere bin ich daran interessiert, neben der Kenntnis von und einen Fehler aufgrund des anderen zu begrenzen .PQPQ

Ich habe gefragt Frage auf math.SE in Bezug auf das Verhältnis von Gesamt Variation Abstand zwischen und zu Hypothesenprüfung und erhielt eine Antwort , dass ich akzeptiert. Diese Antwort ist sinnvoll, aber ich konnte mich immer noch nicht mit der tieferen Bedeutung der Beziehung zwischen Gesamtvariationsabstand und Hypothesentest in Bezug auf mein Problem befassen. Daher habe ich mich entschlossen, mich diesem Forum zuzuwenden.PQ

Meine erste Frage lautet: Ist die Gesamtvariation an die Summe der Wahrscheinlichkeiten von Typ I- und Typ II-Fehlern gebunden , unabhängig von der verwendeten Hypothesentestmethode? Im Wesentlichen muss die Wahrscheinlichkeit, dass mindestens einer der Fehler ungleich Null ist, solange es eine Wahrscheinlichkeit ungleich Null gibt, dass die Stichprobe durch eine der Verteilungen erzeugt worden sein könnte. Grundsätzlich können Sie sich der Möglichkeit nicht entziehen, dass Ihr Hypothesentester einen Fehler macht, egal wie viel Signalverarbeitung Sie ausführen. Und Total Variation begrenzt genau diese Möglichkeit. Ist mein Verständnis richtig?

Es gibt auch eine andere Beziehung zwischen Fehlern vom Typ I und II und den zugrunde liegenden Wahrscheinlichkeitsverteilungen und : die KL-Divergenz . Meine zweite Frage lautet daher: Ist die KL-Divergenz nur für eine bestimmte Hypothesentestmethode anwendbar (sie scheint häufig mit der Log-Likelihood-Ratio-Methode zu tun zu haben), oder kann man sie allgemein auf alle Hypothesentestmethoden anwenden? Wenn es für alle Hypothesentestmethoden anwendbar ist, warum scheint es sich dann so stark von der gebundenen Gesamtvariation zu unterscheiden? Benimmt es sich anders?Q.PQ

Und meine zugrunde liegende Frage lautet: Gibt es eine Reihe vorgeschriebener Umstände, unter denen ich entweder gebunden verwenden sollte, oder ist es nur eine Frage der Bequemlichkeit? Wann sollte das mit einer Grenze abgeleitete Ergebnis unter Verwendung der anderen gebunden sein?

Ich entschuldige mich, wenn diese Fragen trivial sind. Ich bin Informatiker (das scheint mir also ein ausgefallenes Mustervergleichsproblem zu sein :).) Ich kenne die Informationstheorie ziemlich gut und habe auch einen Abschluss in Wahrscheinlichkeitstheorie. Ich fange jedoch gerade erst an, all diese Hypothesentests zu lernen. Bei Bedarf werde ich mein Bestes tun, um meine Fragen zu klären.

Antworten:


8

Literatur: Die meisten Antworten finden Sie sicherlich in dem Buch von Lehman und Romano . Das Buch von Ingster und Suslina behandelt fortgeschrittenere Themen und gibt Ihnen möglicherweise zusätzliche Antworten.

Antwort: Die Dinge sind jedoch sehr einfach: (oder ) ist die "wahre" Entfernung, die verwendet werden soll. Es ist nicht praktisch für die formale Berechnung (insbesondere bei Produktmaßen, dh wenn Sie eine Stichprobe der Größe ) und andere Abstände (die Obergrenzen von ) können verwendet werden. Lassen Sie mich Ihnen die Details geben. T V n L 1L1TVnL1

Entwicklung: Bezeichnen wir mit

  • α 0 P 0 P 1g1(α0,P1,P0) der minimale Fehler vom Typ II mit dem Fehler vom Typ I für und die Null und die Alternative.α0P0P1
  • t ( 1 - t ) P 0 P 1g2(t,P1,P0) die Summe der minimal möglichen Fehler vom Typ I + Typ II, wobei und die Null und die Alternative sind.t(1t)P0P1

Dies sind die minimalen Fehler, die Sie analysieren müssen. Gleichheiten (nicht Untergrenzen) werden durch Satz 1 unten angegeben (in Bezug auf die Entfernung (oder die TV-Entfernung, wenn Sie welche haben)). Ungleichungen zwischen Abstand und anderen Abständen sind in Satz 2 angegeben (beachten Sie, dass Sie zur Untergrenze der Fehler Obergrenzen von oder benötigen ). L 1 L 1 T V.L1L1L1TV

Welche Verwendung dann ist, ist eine Frage der Bequemlichkeit, da oft schwieriger zu berechnen ist als Hellinger oder Kullback oder . Das Hauptbeispiel für einen solchen Unterschied erscheint, wenn und Produktmaße die auftreten, wenn Sie gegen mit einer Stichprobe der Größe iid testen möchten. In diesem Fall werden und die anderen leicht aus (dasselbe gilt für und ), aber das können Sie mit nicht tun ...L1χ2P1P0Pi=pin i=0,1p1p0nh(P1,P0)h(p1,p0)KLχ2L1

Definition: Die Affinität zwischen zwei Takten und ist definiert als .A1(ν1,ν0)ν1ν2

A1(ν1,ν0)=min(dν1,dν0)

Satz 1 Wenn(die Hälfte des Fernsehers) |ν1ν0|1=|dν1dν0|

  • 2A1(ν1,ν0)=(ν1+ν0)|ν1ν0|1 .
  • g1(α0,P1,P0)=supt[0,1/α0](A1(P1,tP0)tα0)
  • g2(t,P1,P0)=A1(tP0,(1t)P1)

Ich habe den Beweis hier geschrieben .

Satz 2 Für und Wahrscheinlichkeitsverteilungen: P1P0

12|P1P0|1h(P1,P0)K(P1,P0)χ2(P1,P0)

Diese Grenzen sind auf mehrere bekannte Statistiker zurückzuführen (LeCam, Pinsker, ...). ist der Hellinger-Abstand, die KL-Divergenz und die Chi-Quadrat-Divergenz. Sie sind alle hier definiert . und die Beweise für diese Grenzen werden gegeben (weitere Dinge finden sich im Buch Tsybacov ). Es gibt auch etwas, das fast eine Untergrenze von von Hellinger ist ...hKχ2L1


1
Vielen Dank für die Antwort, ich versuche jetzt, es zu verdauen. In meinem Problem habe ich Fehler vom Typ I zugelassen. Ich habe auch die beiden Verteilungen und . Ich kenne das Fernsehen zwischen ihnen (sowie KL). Sie sagen also, dass TV eine engere Untergrenze für Typ-II-Fehler aufweist als KL, was bedeutet, dass ich TV für meine Analyse verwenden sollte, wenn ich eine möglichst enge Untergrenze wünschen? P0P1
MBM

Und danke für den Buchvorschlag von Lehmann und Romano, er sieht sehr hilfreich aus und geht mir nicht zu sehr über den Kopf. Außerdem besitzt meine Bibliothek eine Kopie! :)
MBM

@Bullmoose, was Satz 1 hier sagt, ist, dass TV (oder L1) mit der Gleichheit zu was mit der Gleichheit zu g_2 oder g_1 zusammenhängt (die minimale Summe von Fehlern oder Typ II-Fehlern mit gesteuertem Typ I). Hier gibt es keine Ungleichheiten. Ungleichungen treten auf, wenn Sie von L1 nach Kullback müssen. A1
Robin Girard

Leider habe ich nur minimalen Hintergrund in der Maßtheorie. Ich glaube, ich verstehe irgendwie, was und sind, aber bei mir nicht klar . Angenommen, ich habe zwei Gaußsche Verteilungen. Das Fernsehgerät (oder L1) zwischen ihnen ist Aber was wäre ? Aus der Definition geht hervor, dass ...g1g2A1A1- 1
12π|exp(x2/2σ12)σ1exp(x2/2σ22)σ2|dx
A1
12πmin(exp(x2/2σ12)σ1,exp(x2/2σ22)σ2)dx
MBM

... aber wie sich ab dem ersten Aufzählungszeichen im Satz darauf zu? (ν1+ν2)
MBM

1

Antwort auf Ihre erste Frage: Ja, eins minus der gesamten Variationsentfernung ist eine Untergrenze für die Summe der Fehlerraten vom Typ I + Typ II. Diese Untergrenze gilt unabhängig davon, welchen Hypothesentestalgorithmus Sie wählen.

Begründung: Die Antwort, die Sie auf Math.SE erhalten haben, liefert den Standardbeweis für diese Tatsache. Korrigieren Sie einen Hypothesentest. Let bezeichnen die Menge der Ergebnisse , auf denen dieser Test die Nullhypothese ablehnen wird ( ein solcher Satz muss existieren immer). Dann beweist die Berechnung in der Math.SE-Antwort die Untergrenze.A

(Genau genommen geht diese Argumentation davon aus, dass Ihr Hypothesentest ein deterministisches Verfahren ist. Aber selbst wenn Sie randomisierte Verfahren berücksichtigen, kann gezeigt werden, dass dieselbe Grenze immer noch gilt.)

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.