Ich werde dies aus Erfahrung mit Diskriminierungsfällen rückentwickeln. Ich kann definitiv feststellen, woher die Werte von "one in 741" usw. stammen. Bei der Übersetzung gingen jedoch so viele Informationen verloren, dass der Rest meiner Rekonstruktion davon abhängt, wie Menschen Statistiken in Gerichtssälen erstellen. Ich kann nur einige Details erraten.
Seit der Verabschiedung der Antidiskriminierungsgesetze in den 1960er Jahren (Titel VI) haben die Gerichte in den USA gelernt, p-Werte zu betrachten und mit Schwellenwerten von und 0,01 zu vergleichen0.050.01 . Sie haben auch gelernt, standardisierte Effekte zu betrachten, die typischerweise als "Standardabweichungen" bezeichnet werden, und sie mit einem Schwellenwert von "zwei bis drei Standardabweichungen" zu vergleichen. Um einen Anscheinsbeweis für eine Diskriminierungsklage zu erbringen, versuchen die Kläger typischerweise eine statistische Berechnung, die eine "unterschiedliche Auswirkung" zeigt, die diese Schwellenwerte überschreitet. Wenn eine solche Berechnung nicht unterstützt werden kann, kann der Fall normalerweise nicht voranschreiten.
Statistiker für Kläger versuchen oft, ihre Ergebnisse mit diesen bekannten Begriffen zu formulieren. Einige der Experten führen einen statistischen Test durch, bei dem die Nullhypothese "keine nachteiligen Auswirkungen" ausdrückt, vorausgesetzt, dass die Beschäftigungsentscheidungen rein zufällig getroffen wurden und von anderen Merkmalen der Beschäftigten nicht beeinflusst wurden. (Ob es sich um eine einseitige oder zweiseitige Alternative handelt, hängt vom Sachverständigen und den Umständen ab.) Anschließend wandeln sie den p-Wert dieses Tests in eine Reihe von "Standardabweichungen" um, indem sie ihn auf die Standardnormalverteilung beziehen. - Auch wenn die Standardnormale für den ursprünglichen Test irrelevant ist. Auf diese Weise hoffen sie, dem Richter ihre Schlussfolgerungen klar mitzuteilen.
Der bevorzugte Test für Daten, die in Kontingenztabellen zusammengefasst werden können, ist der Fisher's Exact Test. Das Auftreten von "Exact" in seinem Namen ist für die Kläger besonders erfreulich, da es eine statistische Feststellung darstellt, die getroffen wurde die ohne Fehler getroffen wurde (was auch immer das sein mag!).
Hier ist also meine (spekulative) Rekonstruktion der Berechnungen des Arbeitsministeriums.
Sie liefen Fisher's Exact Test oder so ähnlich (wie ein χ2 -Test mit einem durch Randomisierung bestimmten p-Wert). Dieser Test geht von einer hypergeometrischen Verteilung aus, wie in Matthew Gunns Antwort beschrieben. (Bei der geringen Anzahl von Personen, die an dieser Beschwerde beteiligt sind, ist die hypergeometrische Verteilung durch eine Normalverteilung nicht gut angenähert.)
Sie wandelten seinen p-Wert in einen normalen Z-Wert ("Anzahl der Standardabweichungen") um.
Sie rundeten den Z-Wert auf die nächste ganze Zahl: "überschreitet drei Standardabweichungen", "überschreitet fünf Standardabweichungen" und "überschreitet sechs Standardabweichungen". (Da einige dieser Z-Scores , die gerundet bis zu mehr Standardabweichungen, kann ich nicht rechtfertigen die „überschreitet“, alles , was ich tun kann , ist es zu zitieren.)
In der Reklamation wurden diese ganzzahligen Z-Werte wieder in p-Werte umgerechnet! Wieder wurde die Standardnormalverteilung verwendet.
Diese p-Werte werden (wohl irreführend) als "Wahrscheinlichkeit, dass dieses Ergebnis zufällig auftritt" beschrieben.
1/12801/5650001/5800000073011601307301160130−3.16−4.64−5.521/7411/35000001/1000000000
Hier ist ein R
Code, der zum Ausführen dieser Berechnungen verwendet wird.
f <- function(total, percent.asian, hired.asian, hired.non.asian) {
asian <- round(percent.asian/100 * total)
non.asian <- total-asian
x <- matrix(c(asian-hired.asian, non.asian-hired.non.asian, hired.asian, hired.non.asian),
nrow = 2,
dimnames=list(Race=c("Asian", "non-Asian"),
Status=c("Not hired", "Hired")))
s <- fisher.test(x)
s$p.value
}
1/pnorm(round(qnorm(f(730, 77, 1, 6))))
1/pnorm(round(qnorm(f(1160, 85, 11, 14))))
1/pnorm(round(qnorm(f(130, 73, 4, 17))))