Haben frühere Forscher die heiße Hand nicht einfach aufgrund eines statistischen Irrtums entdeckt?


11

Viele Basketballfans / -spieler glauben, dass nach mehreren Schlägen hintereinander der nächste Schlag eher eintritt. Dies wird manchmal als heiße Hand bezeichnet.

Ausgehend von Gilovich, Mallone und Tversky (1985) wurde (glaube ich) "gezeigt", dass dies tatsächlich ein Trugschluss war. Selbst wenn mehrere Schüsse hintereinander abgegeben wurden, ist es nicht wahrscheinlicher, dass der nächste Schuss eingeht, als es Ihr durchschnittlicher Schussanteil vorschreibt.

Miller und Sanjurjo (2015) argumentieren, dass die heiße Hand tatsächlich existiert und frühere Forscher einfach einem ziemlich grundlegenden statistischen Irrtum zum Opfer gefallen waren. Ihr Argument ist ungefähr so:

Wirf viermal eine Münze. Berechnen Sie die Wahrscheinlichkeit, dass H auf H folgt. Um einige Beispiele zu nennen: HHTT hätte die Wahrscheinlichkeit 1/2, HTHT hätte die Wahrscheinlichkeit 0/2, TTHH hätte die Wahrscheinlichkeit 0/1 1/1 und sowohl TTTT als auch TTTH wären NA

Die Pointe von Miller und Sanjurjo lautet, dass der erwartete Wert dieser Wahrscheinlichkeit nicht 0,5, sondern 0,4 beträgt. Und der Fehler früherer Forscher bestand darin, fälschlicherweise anzunehmen, dass der erwartete Wert dieser Wahrscheinlichkeit 0,5 beträgt. Wenn diese früheren Forscher beispielsweise das obige Münzwurf-Experiment durchführten und eine durchschnittliche Wahrscheinlichkeit von 0,497 fanden, kamen sie fälschlicherweise zu dem Schluss, dass es keine Hinweise auf eine heiße Hand gab (nicht signifikant verschieden von 0,5), obwohl es tatsächlich sehr war starker Hinweis auf eine heiße Hand (signifikant verschieden von 0,4).

Meine Frage lautet: Haben Miller und Sanjurjo Recht, dass frühere Forscher die heiße Hand einfach aufgrund dieses Fehlers nicht erkannt haben? Ich habe nur ein oder zwei Artikel darüber überflogen, deshalb wollte ich eine Bestätigung von jemandem hier bekommen, der diese Literatur vielleicht besser kennt. Dies scheint ein überraschend dummer Fehler zu sein, der drei Jahrzehnte oder länger andauerte.


3
Dies ist eine gefährliche Frage für diese Website in dem Sinne, dass es besonders für Außenstehende schwierig ist, sie zu bewerten. Und so "bestimmen" wir die besten Antworten durch Mehrheitsentscheidung. Lesen Sie unbedingt alle Antworten und stimmen Sie nur diejenigen ab, die nach dem Lesen korrekt erscheinen, und stimmen Sie diejenigen ab, die Sie unzufrieden / misstrauisch machen.
FooBar

1
Dies liegt daran, dass die richtige Antwort möglicherweise nicht intuitiv ist. Wenn eine solche Site vor 60 Jahren existieren würde, würde die richtige Antwort auf das Monty Hall-Problem - das ähnliche Eigenschaften hat - meiner Meinung nach nicht durch Mehrheitsentscheidung an die Spitze kommen.
FooBar

@FooBar, um Ihren Punkt zu ergänzen, hier werden zwei komplizierte Fragen gleichzeitig gestellt: (1) "Was ist der mathematische Effekt, den Miller und Sanjuro diskutieren" --- dies ist nicht die Frage, die Kenny LJ gestellt hat, sondern eine Gute Frage, weil das Lesen viel Lesen erfordert und relativ objektiv ist. Dann ist (2) "Macht dies frühere Forschungen ungültig", was subjektiv und meinungsbasiert erscheint ....
usul

@usul: In einigen Fällen in der Wirtschaft ist diese zweite Frage ("Macht dies frühere Forschungen ungültig?") in der Tat umstrittener und meinungsbasierter - z. B. die Kontroverse über das Papier von Reinhart und Rogoff (2010). Aber ich denke in diesem Fall haben wir ein klar definiertes mathematisches Problem. Und wie ich in meiner Antwort unten gezeigt habe (die ich aus Gründen der Klarheit und Kürze noch einmal umgeschrieben habe), gelingt es Miller und Sanjurjo (2015) tatsächlich, die Schlussfolgerungen von Gilovich, Mallone und Tversky (1985) zu entkräften.
Kenny LJ

@KennyLJ, sie haben gezeigt, dass eines der Beweisstücke in der Zeitung von 1985 ungültig ist. Dies ist eine ganz andere Frage als zu zeigen, dass die Schlussfolgerung ungültig ist, z. B. zu zeigen, dass definitiv ein Hot-Hand-Effekt vorliegt.
Usul

Antworten:


6

(Diese Antwort wurde im Juli 2017 zur besseren Übersichtlichkeit und Lesbarkeit komplett neu geschrieben.)

Wirf 100 Mal hintereinander eine Münze.

Untersuche den Flip sofort nach einem Streifen von drei Schwänzen. Sei der Anteil der Münzwürfe nach jedem Streifen von drei Schwänzen in einer Reihe, die Köpfe sind. In ähnlicher Weise sei der Anteil der Münzwürfe nach jedem Streifen von drei Köpfen in einer Reihe, die Köpfe sind. ( Beispiel unten in dieser Antwort. )p^(H|3T)p^(H|3H)

Sei .x:=p^(H|3H)p^(H|3T)

Wenn die Münzwürfe iid sind, dann "offensichtlich" über viele Sequenzen von 100 Münzwürfen,

(1) wird voraussichtlich so oft auftreten wie .x>0x<0

(2) .E(X)=0

Wir generieren eine Million Sequenzen von 100 Münzwürfen und erhalten die folgenden zwei Ergebnisse:

(I) kommt ungefähr so ​​oft vor wie .x>0x<0

(II) ( ist der Durchschnitt von über die Millionen Sequenzen).x¯0x¯x

Und so kommen wir zu dem Schluss, dass die Münzwürfe tatsächlich iid sind und es keine Hinweise auf eine heiße Hand gibt. Dies ist, was GVT (1985) tat (aber mit Basketballschüssen anstelle von Münzwürfen). Und so kamen sie zu dem Schluss, dass die heiße Hand nicht existiert.


Punchline: Erschreckenderweise sind (1) und (2) falsch. Wenn die Münzwürfe iid sind, sollte es stattdessen so sein

(1-korrigiert) tritt nur etwa 37% der Zeit auf, während etwa 60% der Zeit auftritt. (In den verbleibenden 3% der Zeit ist entweder oder undefiniert - entweder weil in den 100 Flips kein Streifen von 3H oder kein Streifen von 3T vorhanden war.)x>0x<0x=0x

(2-korrigiert) .E(X)0.08

Die Intuition (oder Gegenintuition) ähnelt der einiger anderer berühmter Wahrscheinlichkeitsrätsel: des Monty Hall-Problems, des Zwei-Jungen-Problems und des Prinzips der eingeschränkten Auswahl (in der Kartenspielbrücke). Diese Antwort ist bereits lang genug und ich werde die Erklärung dieser Intuition überspringen.

Die Ergebnisse (I) und (II) von GVT (1985) sind also ein starker Beweis für die heiße Hand. Dies haben Miller und Sanjurjo (2015) gezeigt.


Weitere Analyse der Tabelle 4 von GVT.

Viele (z. B. @scerwin unten) haben - ohne sich die Mühe zu machen, GVT (1985) zu lesen - ihren Unglauben geäußert, dass ein "ausgebildeter Statistiker jemals" in diesem Zusammenhang einen Durchschnitt der Durchschnittswerte ermitteln würde.

Aber genau das hat GVT (1985) in Tabelle 4 getan. Siehe Tabelle 4, Spalten 2-4 und 5-6, untere Reihe. Sie finden, dass über die 26 Spieler gemittelt,

p^(H|1M)0.47 und ,p^(H|1H)0.48

p^(H|2M)0.47 und ,p^(H|2H)0.49

p^(H|3M)0.45 und .p^(H|3H)0.49

Tatsächlich ist es der Fall, dass für jedes das gemittelte . Das Argument von GVT scheint jedoch zu sein, dass diese statistisch nicht signifikant sind und daher keine Beweise für die heiße Hand sind. OK Fair genug.p ( H | k H ) > P ( H | k M )k=1,2,3p^(H|kH)>p^(H|kM)

Wenn wir jedoch anstelle des Durchschnitts der Durchschnittswerte (ein Zug, der von einigen als unglaublich dumm angesehen wird) ihre Analyse wiederholen und über die 26 Spieler aggregieren (jeweils 100 Schüsse, mit einigen Ausnahmen), erhalten wir die folgende Tabelle mit gewichteten Durchschnittswerten.

Any                     1175/2515 = 0.4672

3 misses in a row       161/400 = 0.4025
3 hits in a row         179/313 = 0.5719

2 misses in a row       315/719 = 0.4381
2 hits in a row         316/581 = 0.5439        

1 miss in a row         592/1317 = 0.4495
1 hit in a row          581/1150 = 0.5052

Die Tabelle besagt zum Beispiel, dass die 2.5 Spieler insgesamt 2.515 Schüsse abgegeben haben, von denen 1.175 oder 46,72% gemacht wurden.

Und von den 400 Fällen, in denen ein Spieler 3 in Folge verpasste, folgten 161 oder 40,25% sofort ein Treffer. Und von den 313 Fällen, in denen ein Spieler 3 in Folge traf, folgten 179 oder 57,19% sofort ein Treffer.

Die oben genannten gewichteten Durchschnittswerte scheinen ein starker Beweis für die heiße Hand zu sein.

Denken Sie daran, dass das Schießexperiment so angelegt wurde, dass jeder Spieler von dem Punkt aus schoss, an dem festgestellt wurde, dass er ungefähr 50% seiner Schüsse machen konnte.

(Anmerkung: "Seltsamerweise" zeigt GVT in Tabelle 1 für eine sehr ähnliche Analyse mit dem Schießen der Sixers im Spiel stattdessen die gewichteten Durchschnittswerte. Warum haben sie das nicht auch für Tabelle 4 getan? Ich vermute, dass sie es tun sicherlich haben die gewichteten Durchschnittswerte für Tabelle 4 berechnet - die Zahlen, die ich oben präsentiere, mochten nicht, was sie sahen, und entschieden sich, sie zu unterdrücken. Diese Art von Verhalten ist leider für den akademischen Kurs selbstverständlich.)


Beispiel : wir haben die Sequenz (nur die Flips Nr. 4 bis Nr. 6 sind Schwänze, die restlichen 97 Flips sind alle Köpfe). Dann ist weil es nur 1 Streifen von drei Schwänzen gibt und der Flip unmittelbar nach diesem Streifen Köpfe ist.p ( H | 3 T ) = 1 / 1 = 1HHHTTTHHHHHHp^(H|3T)=1/1=1

Und weil es 92 Streifen von drei Köpfen gibt und für 91 dieser 92 Streifen der Flip unmittelbar danach Köpfe sind.p^(H|3H)=91/920.989


PS GVTs (1985) Tabelle 4 enthält mehrere Fehler. Ich habe mindestens zwei Rundungsfehler entdeckt. Und auch für Spieler 10 addieren sich die Klammerwerte in den Spalten 4 und 6 nicht zu einem Wert weniger als in Spalte 5 (im Gegensatz zu der Anmerkung unten). Ich habe Gilovich kontaktiert (Tversky ist tot und Vallone bin ich mir nicht sicher), aber leider hat er nicht mehr die ursprünglichen Sequenzen von Hits und Misses. Tabelle 4 ist alles, was wir haben.


In Tabelle 4 von GMT 1985 testeten sie 26 einzelne Schüler und fanden nur ein Beispiel für eine statistisch signifikante "heiße Hand" (sie überprüften jeden Fall mit p <0,05). Dies ist der grüne Jelly Bean-Effekt . Abgesehen davon, wenn jeder Schüler genau so positioniert worden wäre, dass er / sie ungefähr 50% seiner / ihrer Schüsse machen könnte, hätten viel weniger als 7 der Schüler Trefferquoten außerhalb eines Bereichs von 40 bis 60 von 100 haben müssen (es sei denn es gibt einen massiven Hot-Hand-Effekt)
Henry

4

(Haftungsausschluss: Ich kenne diese Literatur nicht.) Es scheint mir, dass Miller und Sanjurjo eine gültige Kritik an einem bestimmten statistischen Maß haben. Ich weiß nicht, ob dies in Betracht gezogen werden sollte, um alle früheren Arbeiten zum Hot-Hand-Effekt ungültig zu machen, da sie sich nur auf diese bestimmte Maßnahme konzentrieren.

Das Maß ist

M:=P(make shot | made previous shot)P(make shot | miss previous shot)
wobei wirklich "Bruchteil der Zeiten aufgetreten".P(X)X

Frühere Arbeiten wie [Gilovich, Mallone, Tversky, 1985] behaupten, dass nahe Null oder negativ ist, was auf ein Fehlen des Hot-Hand-Effekts hinweist . Die implizite Annahme ist, dass wenn ein Hot-Hand-Effekt und wenn dies nicht der Fall ist . (Siehe den Unterabschnitt Analyse der bedingten Wahrscheinlichkeiten unter Studie 2.)MEM>0EM=0

Miller und Sanjurjo weisen jedoch darauf hin, dass wenn kein Hot-Hand-Effekt vorliegt. Daher deutet nahe Null nicht auf ein Fehlen des Hot-Hand-Effekts hin.EM<0M

Zusammenfassend habe ich Ihre Frage, ob dieses Papier frühere Arbeiten zum Hot-Hand-Effekt (der viele verschiedene statistische Maße verwendet) ungültig macht, nicht wirklich beantwortet, aber es scheint mir, dass das Papier einen gültigen Punkt in Bezug auf dieses bestimmte statistische Maß darstellt . Insbesondere verwenden beispielsweise Gilovich, Mallone und Tversky die Nicht-Positivität von als einen unterstützenden Beweis, und dieses Papier zeigt den Fehler in diesem Argument.M


3

Keines der beiden Papiere ist hinsichtlich seiner Anwendung der Statistik klar genug, daher werde ich in dieser Antwort eine Klarstellung versuchen.

Gilovich, Mallone und Tversky (1985) definieren in ihrer Zusammenfassung den "Hot-Hand-Effekt" wie folgt:

" Basketballspieler und Fans neigen dazu zu glauben, dass die Chance eines Spielers, einen Schuss zu treffen, nach einem Treffer größer ist als nach einem Fehlschuss beim vorherigen Schuss. "

"Vorheriger Schuss" wird dann auf vorherige "ein, zwei oder drei" Schüsse erweitert. Bezeichnet eine Reihe von aufeinanderfolgenden von und eine Reihe von aufeinanderfolgenden Fehlschlägen von , ist das Vorhandensein des Hot-Hand-Effekts definiert alskHkkMk

(1)P(HHk)>P(HMk),k1

Aus Gründen der Kompaktheit versteht es sich, dass der fragliche Schuss derjenige ist, der unmittelbar auf die aufeinanderfolgenden Treffer oder Fehlschläge folgt. Dies sind theoretische bedingte Wahrscheinlichkeiten (dh Konstanten), keine bedingten relativen empirischen Häufigkeiten.

Wie versuchen die Autoren, die Existenz des Hot-Hand-Effekts zu testen? Sie erhalten empirische Daten, sie berechnen bedingte relative empirische Frequenzen (die Zufallsvariablen sind) und sie führen t-Tests mit Nullhypothese durch (S. 299-300)P^(HHk),P^(HMk)

Ho:P(HHk)P(HMk)=0

Beachten Sie übrigens, dass dieser Test schwächer ist als ein Test für die Unabhängigkeit von Schüssen: Diese Wahrscheinlichkeiten könnten gleich sein, sich aber immer noch von der bedingungslosen Wahrscheinlichkeit .P(H)

Natürlich wird als Statistik . Die Autoren stellen fest, dass die Null bei herkömmlichen Signifikanzniveaus verworfen wird , jedoch in einer Richtung gegen die Hot-Hand-Hypothese: Der t-Wert ist groß genug, aber negativ.TP^(HHk)P^(HMk)

Die Frage ist dann: Ist der Test gültig? Erstens muss die Probe ergodisch-stationär sein, damit empirische Frequenzen unbekannte Wahrscheinlichkeiten konsistent abschätzen können. Dies ist in diesem Fall der Fall (siehe Diskussion auf S.297). Dann bleibt noch die Frage, wie die Verteilung der Statistik . Wird es durch eine Student-Verteilung für endliche Stichproben gut angenähert (da die kritischen Werte aus der Student-Verteilung verwendet werden)? Und für welche Größen?T

Was Miller und Sanjurjo (2015) tun, ist zu argumentieren (und anscheinend zu beweisen), dass die "exakte" (endliche Stichprobe) Verteilung von einen nicht zu vernachlässigenden negativen Versatz und einen erwarteten Wert ungleich Null aufweist (siehe S. 18-). 19). In diesem Fall kann die Verwendung des t-Tests zumindest für endliche Stichproben irreführend sein , obwohl er möglicherweise asymptotisch / für "große" Stichproben gültig bleibt.T

Wenn daher ein Problem mit Gilovich et al. Papier, es ist nicht die Definition der Hot-Hand, es ist nicht die Formulierung der Nullhypothese, es ist nicht die Auswahl der zu verwendenden Statistik: Es ist die Gültigkeit der kritischen Werte, die zur Durchführung der Tests verwendet werden ( und so von der impliziten Verteilungsannahme), wenn tatsächlich die endliche Verteilung kleiner Stichproben (unter der Nullhypothese) bei Null sichtbar nicht zentriert und auch asymmetrisch ist.

In solchen Fällen werden normalerweise durch Simulation spezielle kritische Werte ermittelt, um den Test durchzuführen (denken Sie beispielsweise an die speziellen kritischen Werte für den Dickey-Fuller-Test für eine Einheitswurzel). Ich habe einen solchen Ansatz im Miller-Sanjurjo-Papier nicht gesehen, stattdessen führen sie eine "mittlere Vorspannungsanpassung" durch und stellen fest, dass nach dieser Anpassung die Schlussfolgerung aus dem Test umgekehrt ist. Ich bin mir nicht sicher, ob dies der richtige Weg ist.

Trotzdem validiert eine grobe Simulation die Miller-Sanjurjo-Ergebnisse hinsichtlich der Verteilung der Statistik. Ich simulierte jeweils Proben der Größe von unabhängigen Bernoullis mit . Die empirische Verteilung der Statistik hat einen Stichprobenmittelwert von und einen Median von , wobei der Werte negativ sind . Das empirische Histogramm istn = 100 p = 0,5 T 3 = P ( H | H 3 ) - P ( H | M 3 ) - 0,0807 - 0,072 62,5 %200n=100p=0.5
T3=P^(HH3)P^(HM3)0.08070.07262.5%

Geben Sie hier die Bildbeschreibung ein


1

Meiner Ansicht nach haben Miller und Sanjurjo die relativen Häufigkeiten in Tabelle 1 einfach falsch berechnet. Ihre Tabelle wird unten mit zwei neuen Spalten gezeigt, die die Anzahl der Teilsequenzen HH und HT zählen, die in jeder Sequenz von 4 Münzwürfen auftreten. Um die gewünschte bedingte Wahrscheinlichkeit p (H | H) zu erhalten, muss man diese Zählungen N (HH) und N (HT) summieren und dann wie unten gezeigt teilen. Dies ergibt erwartungsgemäß p (H | H) = 0,5. Aus irgendeinem Grund berechneten Miller und Sanjurjo zuerst die relative Häufigkeit für jede Sequenz und mittelten sie dann über die Sequenzen. Das ist einfach falsch.

Sequence     Subsequences       N(HH) N(HT)    p(H|H)
TTTT  ->  TT.. , .TT. , ..TT      0     0        -  
TTTH  ->  TT.. , .TT. , ..TH      0     0        -  
TTHT  ->  TT.. , .TH. , ..HT      0     1       0.0 
THTT  ->  TH.. , .HT. , ..TT      0     1       0.0 
HTTT  ->  HT.. , .TT. , ..TT      0     1       0.0 
TTHH  ->  TT.. , .TH. , ..HH      1     0       1.0 
THTH  ->  TH.. , .HT. , ..TH      0     1       0.0 
THHT  ->  TH.. , .HH. , ..HT      1     1       0.5 
HTTH  ->  HT.. , .TT. , ..TH      0     1       0.0 
HTHT  ->  HT.. , .TH. , ..HT      0     2       0.0 
HHTT  ->  HH.. , .HT. , ..TT      1     1       0.5 
THHH  ->  TH.. , .HH. , ..HH      2     0       1.0 
HTHH  ->  HT.. , .TH. , ..HH      1     1       0.5 
HHTH  ->  HH.. , .HT. , ..TH      1     1       0.5 
HHHT  ->  HH.. , .HH. , ..HT      2     1       0.66
HHHH  ->  HH.. , .HH. , ..HH      3     0       1.0 
                                 --    --       ----
                                 12    12       0.40
                            p(H|H)=N(HH)/N(H*)
                                  =12/(12+12)
                                  =0.5

Ihr Argument ist, dass anstatt die einzelnen TT- und TH-Vorkommen zu berechnen (wie Sie es getan haben), die Wahrscheinlichkeiten p (H | H) gemittelt werden sollten (da alle Sequenzen gleich wahrscheinlich sind).
Giskard

1
Vielleicht macht eine einfachere Tabelle ihren Fehler offensichtlicher. Lassen wir nur zwei bestimmte 4-Flip-Sequenzen zu: TTHT und HHHH. Diese ergeben die folgenden 2-Flip-Teilsequenzen: TT, TH, HT, HH, HH, HH. Aus dieser Liste ist es ziemlich offensichtlich, dass, wenn die erste umgedrehte Münze H zeigt, sehr wahrscheinlich ein weiteres H folgt (dies passiert 3 von 4 Mal). Eine ziemlich "heiße Münze"! Die Methode von Miller und Sanjurjo würde jedoch überhaupt keine Hitze vorhersagen, da der Durchschnitt der Frequenzen für TTHT und HHHH (0,0 und 1,0) 0,5 beträgt. Andererseits gibt die übliche Methode die richtige Antwort: p (H | H) = 3 / (3 + 1) = 0,75.
Scerwin

Ich denke, ihr Punkt ist, dass dieser "Fehler", auf den Sie hinweisen, genau das war, was frühere Forscher getan haben.
Kenny LJ

1
Könnte sein. Aber ist diese Behauptung über frühere Forscher richtig? Kein ausgebildeter Statistiker würde jemals eine Wahrscheinlichkeit so berechnen wie Miller und Sanjurjo in Tabelle 1. Dies ist analog zur Berechnung des Schlagdurchschnitts eines Baseballspielers, indem zuerst sein Durchschnitt für jedes Spiel berechnet und dann über Spiele gemittelt wird. Es ist einfach falsch.
Scerwin

"Aber ist diese Behauptung über frühere Forscher richtig? Kein ausgebildeter Statistiker würde jemals eine Wahrscheinlichkeit berechnen, wie es Miller und Sanjurjo in Tabelle 1 getan haben." Vielleicht sollten Sie sich tatsächlich die Zeit nehmen, die fraglichen Papiere zu lesen. Insbesondere GVT (1985).
Kenny LJ

0

In jeder beobachteten Sequenz "fehlt" die letzte Bedingung in dem Sinne, dass danach kein Wert mehr vorhanden ist. Die Autoren behandeln dies, indem sie Fälle, in denen dies geschieht, einfach ignorieren und sagen, dass sie nicht definiert sind. Wenn die Reihe kurz ist, hat diese Auswahl offensichtliche Auswirkungen auf die Berechnungen. Abbildung 1 ist eine schöne Illustration dieser Idee.


-1

Ich werde einen Kommentar, den ich oben gemacht habe, in eine Antwort ändern und behaupten, die Antwort auf die ursprüngliche Frage sei, dass die Originalarbeiten korrekt sind. Die Autoren des Papiers von 2015 werfen Sequenzen aus, die logischerweise in ihre Analyse einbezogen werden sollten, wie ich im Kommentar beschreibe, und führen daher eine Verzerrung ein, die ihre Behauptungen stützt. Die Welt funktioniert so wie sie sollte.

Nachtrag als Antwort auf den Kommentar: Wir sehen uns Tabelle 1 im Papier an. Wir sehen, dass wir 4 Werte aus der letzten Spalte herauswerfen. Um den erwarteten Unterschied zu erhalten, werden nur 12 der 16 Sequenzen gemittelt. Wenn wir diese Wahrscheinlichkeiten als Frequenzen betrachten und für die erste Zeile TTTT sagen, mit welcher Frequenz ein Kopf einem Kopf folgt, dann geschieht dies logischerweise immer, und wir sollten eine 1 in p (H, H setzen ) Spalte, kein Bindestrich. Wir machen das für die anderen drei Sequenzen, die wir rausgeworfen haben, und wir schließen daraus, dass der erwartete Wert der Differenz 0 ist, nicht -.33. Wir können solche Daten nicht einfach wegwerfen, wenn es eine klare logische Interpretation der Daten gibt.

Beachten Sie, dass wir die Wahrscheinlichkeiten korrekt berechnen müssen, damit die Drift verschwindet, was in der Arbeit nicht beschrieben wird. Es wird behauptet, dass die Wahrscheinlichkeiten in der Tabelle die "Wahrscheinlichkeit sind, dass ein Kopf einem Schwanz folgt, in dieser gegebenen Folge von vier Würfen". Und wir sehen, dass wir für die Zeile TTTH glauben sollen, dass die Wahrscheinlichkeit 1/3 beträgt. Es ist nicht. Es gibt vier Würfe in der Reihe, und einer der vier Würfe in dieser Reihe ist das Ereignis "Ein Kopf folgt einem Schwanz". Die Wahrscheinlichkeit ist 1/4. Berechnen Sie also die Wahrscheinlichkeiten richtig und verwenden Sie alle Zeilen, und Sie erhalten die Antwort, die seit 30 Jahren akzeptiert wird.


Die Frage ist, ob Miller und Sanjurjo (2015) zu Recht darauf hinweisen, dass frühere Forscher einen Fehler gemacht haben (und so die heiße Hand nicht erkannt haben). Wenn ja, bitte erläutern. Wenn nicht, bitte auch erklären. Die Frage ist nicht, ob wir "einfach solche Daten wegwerfen" können oder nicht oder ob "die Welt so funktioniert, wie sie sollte".
Kenny LJ

Miller und Sanjuro sind nicht korrekt, weil sie Daten wegwerfen, die logisch in die Analyse gehören, und daher eine Verzerrung einführen, die nicht in der Welt ist.
user164740
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.