Wahrscheinlichkeitsverteilung für verschiedene Wahrscheinlichkeiten


36

Wenn ich die Wahrscheinlichkeit von 9 Erfolgen in 16 Versuchen mit einer Wahrscheinlichkeit von 0,6 erhalten wollte, könnte ich eine Binomialverteilung verwenden. Was könnte ich verwenden, wenn jede der 16 Studien eine andere Erfolgswahrscheinlichkeit hat?


1
@whuber In Ihrer Erklärung der Normalen Näherung unterscheiden sich die Berechnungen von Mittelwert und Standardabweichung von der Beschreibung in Wikipedia. Im Wiki ist der Mittelwert np und die Standardabweichung ist np (1-p). In diesem Problem ist der Mittelwert für die normale Approximation variierender Erfolgswahrscheinlichkeiten bei der Binomialverteilung p1 + p2 + p3 + p4 + p5 + ... + pi und die Varianz ist p1 (1 - p1) + p2 ( 1-p2) + ... + pi (1-pi). Habe ich recht?
David

1
Siehe Wikipedia zur Poisson-Binomialverteilung . Auch ein Suchbegriff , der hier ein paar Treffer auftaucht.
Glen_b

@ David Wenn alle auf einen gemeinsamen Wert gleich sind , dann und , was zeigt , dass die Wikipedia-Beschreibung, auf die Sie verweisen, nur ein Sonderfall ist. pipp1+p2++pn=npp1(1p1)++pn(1pn)=np(1p)
whuber


Antworten:


22

Dies ist die Summe von 16 (vermutlich unabhängigen) Binomialversuchen. Die Annahme der Unabhängigkeit erlaubt es uns, Wahrscheinlichkeiten zu multiplizieren . Nach zwei Versuchen mit den Wahrscheinlichkeiten und des Erfolgs ist die Erfolgschance für beide Versuche , die Chance, dass keine Erfolge erzielt werden, ist und die Chance für einen Erfolg ist . Dieser letzte Ausdruck verdankt seine Gültigkeit der Tatsache, dass sich die beiden Wege, genau einen Erfolg zu erzielen, gegenseitig ausschließen: höchstens einer von ihnen kann tatsächlich geschehen. Das heißt, ihre Wahrscheinlichkeiten addieren sich .p1p2p1p2(1p1)(1p2)p1(1p2)+(1p1)p2

Anhand dieser beiden Regeln - unabhängige Wahrscheinlichkeiten multiplizieren sich und sich gegenseitig ausschließende addieren sich - können Sie die Antworten für beispielsweise 16 Versuche mit den Wahrscheinlichkeiten . Zu diesem Zweck müssen Sie alle Möglichkeiten berücksichtigen, um eine bestimmte Anzahl von Erfolgen zu erzielen (z. B. 9). Es gibt Möglichkeiten, 9 Erfolge zu erzielen. Eine davon tritt beispielsweise auf, wenn die Versuche 1, 2, 4, 5, 6, 11, 12, 14 und 15 erfolgreich und die anderen erfolglos sind. Die Erfolge hatten Wahrscheinlichkeiten und und die Fehler hatten Wahrscheinlichkeiten . Das Multiplizieren dieser 16 Zahlen ergibt die Chance( 16p1,,p16p1,p2,p4,p5,p6,p11,p12,p14,p151-p3,1-p7,...,1-p13,1-p16(169)=11440p1,p2,p4,p5,p6,p11,p12,p14,p151p3,1p7,,1p13,1p16dieser bestimmten Folge von Ergebnissen. Summiert man diese Zahl zusammen mit den 11.439 verbleibenden Zahlen, ergibt sich die Antwort.

Natürlich würden Sie einen Computer benutzen.

Bei mehr als 16 Versuchen muss die Verteilung approximiert werden. Vorausgesetzt, keine der Wahrscheinlichkeiten und zu klein, funktioniert eine normale Approximation gut. Bei dieser Methode ist zu beachten, dass die Erwartung der Summe von Versuchen und (da die Versuche unabhängig sind) die Varianz . Sie geben dann vor, die Verteilung der Summen sei normal mit Mittelwert und Standardabweichung . Die Antworten sind in der Regel gut für die Berechnung von Wahrscheinlichkeiten, die einem anderen Anteil von Erfolgen entsprechen 1 - p i n μ = p 1 + p 2 + + p n σ 2 = p 1 ( 1 - p 1 ) + p 2 ( 1 - p 2 ) + + p n ( 1 - p n ) μ σ μ σ n σ μpi1pinμ=p1+p2++pnσ2=p1(1p1)+p2(1p2)++pn(1pn)μσμ von nicht mehr als ein paar Vielfachen von . Wenn groß wird, wird diese Approximation immer genauer und funktioniert für noch größere Vielfache von außerhalb von .σnσμ


9
Informatiker nennen diese "Poisson-Versuche", um sie von Bernoulli-Versuchen zu unterscheiden. Zusätzlich zu den Näherungen des zentralen Grenzwertsatzes stehen auch gute Endgrenzen zur Verfügung. Hier ist einer. Bei der Google-Suche nach "Chernoff-Grenzen für Poisson-Studien" werden die Ergebnisse einer typischen CS-Behandlung angezeigt.
Kardinal

@ Kardinal Diese Nomenklatur ist interessant. Es wäre gültig für sehr kleine , erscheint aber ansonsten irreführend, da die Verteilung ansonsten durch Poisson-Verteilungen nicht gut angenähert wird. (Es gibt eine weitere Diskussion im Lebenslauf über diese Frage, in der "16" durch 10.000 ersetzt wird und wir die Schwanzwahrscheinlichkeiten untersuchen, aber ich konnte sie nicht wiederfinden.)pi
whuber

1
Ja, ich stimme dem Namen zu. Ich fand es ein bisschen seltsam, als ich es zum ersten Mal traf. Ich habe es hier eher als nützlichen Begriff für die Suche angegeben. Anscheinend berücksichtigen Informatiker diese Wahrscheinlichkeiten häufig beim Umgang mit bestimmten Algorithmen. Ich würde gerne diese andere Frage lesen, wenn Sie sie finden. Ist es das vielleicht?
Kardinal

2
@ Cardinal ist richtig, dass wir "CS-Leute" sie Poisson-Versuche nennen. In diesem Fall erhalten Sie mit einer Standard-Chernoff-Hoeffding-Bindung genau die Grenze, nach der das OP fragt.
Suresh Venkatasubramanian

1
Gemäß dem Kommentar von @ David gestern, es ist etwas falsch mit Ihrer Aussage des normalen annähert Mittelwert als Wir Summieren 16 Bernoulli rvs, von denen jeder Wert annehmen kann 0 oder 1, die Summe hat also eine Unterstützungsdomäne von 0 bis 16, nicht zwischen 0 und 1. Es lohnt sich, auch Ihre SD zu überprüfen.
μ=(p1+p2++pn)/n
Wolfies

12

Eine Alternative zur normalen Näherung von @ whuber ist die Verwendung von "Mischwahrscheinlichkeiten" oder eines hierarchischen Modells. Dies würde zutreffen, wenn die in irgendeiner Weise ähnlich sind und Sie dies durch eine Wahrscheinlichkeitsverteilung mit einer Dichtefunktion von modellieren können, die durch einen Parameter indiziert wird . Sie erhalten eine Integralgleichung:p i ~ D i s t ( θ ) g ( p | θ ) θpipichDichst(θ)G(p|θ)θ

Pr(s=9|n=16,θ)=(169)01p9(1-p)7G(p|θ)dp

Die Binomialwahrscheinlichkeit ergibt sich aus der Einstellung , die normale Näherung ergibt sich aus der (ich denke) Einstellung (mit und wie in @ whubers Antwort definiert) und dann " Schwänze "dieses PDF fallen scharf um den Gipfel ab.g ( p | θ ) = g ( p | μ , σ ) = 1G(p|θ)=δ(p-θ)μσG(p|θ)=G(p|μ,σ)=1σϕ(p-μσ)μσ

Sie könnten auch eine Beta-Verteilung verwenden, die zu einer einfachen Analyseform führen würde und die nicht unter dem "kleinen p" -Problem leiden muss, das die normale Approximation aufweist - da Beta sehr flexibel ist. Verwenden einer Verteilung mit die von den Lösungen auf die folgenden Gleichungen festgelegt wird (dies ist die Schätzung der minimalen KL-Divergenz):α , βbetein(α,β)α,β

ψ(β)-ψ(α+β)=1

ψ(α)-ψ(α+β)=1nich=1nlOG[pich]
ψ(β)ψ(α+β)=1ni=1nlog[1pi]

Wobei Die Digammafunktion ist - eng verwandt mit harmonischen Reihen.ψ(.)

Wir erhalten die "Beta-Binomial" -Verbindungsverteilung:

(169)1B(α,β)01p9+α1(1p)7+β1dp=(169)B(α+9,β+7)B(α,β)

Diese Verteilung konvergiert gegen eine Normalverteilung in dem Fall, dass @whuber darauf hinweist - aber vernünftige Antworten für kleines und verzerrtes -, aber nicht für multimodales , da die Beta-Verteilung nur einen Peak hat. Sie können dies jedoch leicht beheben, indem Sie einfach Beta-Verteilungen für die Modi verwenden. Sie zerlegen das Integral von in Teile, sodass jedes Teil einen eindeutigen Modus hat (und genügend Daten, um Parameter abzuschätzen), und passen eine Beta-Verteilung in jedes Teil an. dann die Ergebnisse und stellen Sie fest, dass die Änderung der Variablen fürp i p i M M 0 < p < 1 M p = x - LnpipiMM0<p<1M L<x<Up=xLULL<x<U Das Beta-Integral wandelt sich in:

B(α,β)=LU(xL)α1(Ux)β1(UL)α+β1dx

+1 Diese Antwort enthält einige interessante und clevere Vorschläge. Der letzte sieht besonders flexibel und kraftvoll aus.
Whuber

Um etwas sehr einfaches und konkretes zu nehmen, nehmen wir an (i) und (ii) , für bis 16. Was wäre die Lösung für Ihre und Schätzungen und damit Ihre Schätzungen für mit gemäß dem OP-Problem? pi=pi=i17i=1& agr;&bgr;P(X=9)n=16pi=i/17i=1αβP(X=9)n=16
Wolfies

Tolle Antwort und Vorschlag, vor allem die Beta! Es wäre cool, diese Antwort in ihrer allgemeinen Form mit und . sns
16.10. Um

8

Sei ~ mit Wahrscheinlichkeitsfunktion (pgf): B e r n o u l l i ( p i )XiBernoulli(pi)

pgf=E[tXi]=1pi(1t)

Sei die Summe von solcher unabhängigen Zufallsvariablen. Dann ist der pgf für die Summe von solcher Variablen: n S n = 16S=i=1nXinSn=16

pgfS=E[tS]=E[tX1]E[tX2]E[tX16] (... by independence)=i=116(1pi(1t))

Wir suchen , das ist:P(S=9)

19!d9pgfSdt9|t=0

ALLES ERLEDIGT. Dies ergibt die exakte symbolische Lösung in Abhängigkeit von . Die Antwort ist ziemlich lang, um sie auf dem Bildschirm auszudrucken, aber sie ist vollständig nachvollziehbar und benötigt weniger als Sekunden, um sie mit Mathematica auf meinem Computer auszuwerten .1pi1100

Beispiele

Wenn , dann: P(S=9)=9647941854334808184pi=i17,i=1 to 16P(S=9)=964794185433480818448661191875666868481=0.198268

Wenn , dann gilt: P(S=9)=0,000228613pi=i17,i=1 to 16P(S=9)=0.000228613

Mehr als 16 Versuche?

Bei mehr als 16 Versuchen ist es nicht erforderlich, die Verteilung zu approximieren. Die obige exakte Methode funktioniert genauso gut für Beispiele mit oder . Wenn beispielsweise , dauert es weniger als Sekunden, um die gesamte pmf ( dh bei jedem Wert ) unter Verwendung des folgenden Codes zu bewerten .n=50n=100n=50110s=0,1,,50

Mathematica-Code

wir einen Vektor mit Werten an:pi

n = 16;   pvals = Table[Subscript[p, i] -> i/(n+1), {i, n}];

... hier ist ein Mathematica- Code, um alles Erforderliche zu tun:

pgfS = Expand[ Product[1-(1-t)Subscript[p,i], {i, n}] /. pvals];
D[pgfS, {t, 9}]/9! /. t -> 0  // N

0,198268

So leiten Sie die gesamte PMF ab:

Table[D[pgfS, {t,s}]/s! /. t -> 0 // N, {s, 0, n}]

... oder nutzen Sie das noch ordentlichere und schnellere (dank eines Vorschlags von Ray Koopman unten):

CoefficientList[pgfS, t] // N

Bei einem Beispiel mit dauert die Berechnung nur 1 Sekunde und anschließend 0,002 Sekunden, um die gesamte PMF mit abzuleiten. Dies ist also äußerst effizient.n=1000pgfSCoefficientList


1
Es kann noch einfacher sein. With[{p = Range@16/17}, N@Coefficient[Times@@(1-p+p*t),t,9]]gibt die Wahrscheinlichkeit von 9 Erfolgen an und With[{p = Range@16/17}, N@CoefficientList[Times@@(1-p+p*t),t]]gibt die Wahrscheinlichkeiten von 0, ..., 16 Erfolgen an.
Ray Koopman

@ RayKoopman Das ist cool. Die Tablefür die Werte ist beabsichtigt, allgemeinere Formen zuzulassen, die mit nicht geeignet sind . Ihre Verwendung von ist sehr nett! Ich habe einen Code hinzugefügt , der die direkte Annäherung enorm beschleunigt. Trotzdem ist noch schneller als ein . Für unter 50 macht es keinen großen Unterschied (beide Ansätze benötigen nur einen Bruchteil einer Sekunde, um die gesamte PMF zu generieren), aber Sie werden auch einen echten praktischen Vorteil haben, wenn n wirklich groß ist. pRangeCoefficientListExpandCoefficientListParallelTablenCoefficientList
Wolfies

5

@wolfies Kommentar, und mein Versuch, darauf zu antworten, ergab ein wichtiges Problem mit meiner anderen Antwort, auf die ich später eingehen werde.

Sonderfall (n = 16)

Es gibt eine ziemlich effiziente Möglichkeit, die vollständige Verteilung zu codieren, indem der "Trick" verwendet wird, bei der Berechnung Zahlen zur Basis 2 (binär) zu verwenden. Es erfordert nur 4 Zeilen R Code die vollständige Verteilung zu erhalten wobei P r ( Z i = 1 ) = p i . Grundsätzlich gibt es insgesamt 2 n Möglichkeiten des Vektors z = ( z 1 , , z n ) , den die binären Variablen Z i habenY=i=1nZiPr(Zi=1)=pi2nz=(z1,,zn)Zinehmen könnte. Nehmen wir nun an, wir nummerieren jede einzelne Auswahl von bis 2 n . Dies ist für sich genommen nichts Besonderes, aber nun nehmen wir an, dass wir die "Auswahlzahl" mit der Basis 2-Arithmetik darstellen. Nehmen Sie jetzt n = 3, damit ich alle Auswahlmöglichkeiten aufschreiben kann, sodass es 2 3 = 8 Auswahlmöglichkeiten gibt. Dann wird 1 , 2 , 3 , 4 , 5 , 6 , 7 , 8 in "gewöhnlichen Zahlen" zu 1 , 10 , 11 , 100 , 10112nn=323=81,2,3,4,5,6,7,8 in "Binärzahlen". Nehmen wir nun an, wir schreiben diese als vierstellige Zahlen, dann haben wir 0001 , 0010 , 0011 , 0100 , 0101 , 0110 , 0111 , 1000 . Schauen Sie sich nun die letzten 3 Ziffern jeder Zahl an - 001 kann man sich vorstellen als ( Z 1 = 0 , Z 2 = 0 , Z 3 = 1 )1,10,11,100,101,110,111,10000001,0010,0011,0100,0101,0110,0111,10003001 usw. Das Zählen in binärer Form bietet eine effiziente Möglichkeit, die Summierung zu organisieren. Glücklicherweise gibt es eine R-Funktion, die diese Binärkonvertierung für uns durchführen kann. Sie heißtund wir konvertieren die rohe Binärform in ein numerisches Via. Dann erhalten wir einen Vektor mit 32 Elementen, wobei jedes Element die Ziffer der Basis 2-Version von ist unsere Nummer (von rechts nach links gelesen, nicht von links nach rechts). Mit diesem Trick in Kombination mit einigen anderen R-Vektorisierungen können wir die Wahrscheinlichkeit von y = 9 in 4 Zeilen R-Codeberechnen:(Z1=0,Z2=0,Z3=1)Y=1intToBits(x)as.numeric(intToBits(x))32y=9

exact_calc <- function(y,p){
    n       <- length(p)
    z       <- t(matrix(as.numeric(intToBits(1:2^n)),ncol=2^n))[,1:n] #don't need columns n+1,...,32 as these are always 0
    pz      <- z%*%log(p/(1-p))+sum(log(1-p))
    ydist   <- rowsum(exp(pz),rowSums(z))
    return(ydist[y+1])
}

Einstecken des Uniformgehäuses und der Quadratwurzel-Fallp ( 2 ) i =pi(1)=i17 ergibt eine vollständige Verteilung für y als:pi(2)=i17

yPr(Y.=y|pich=ich17)Pr(Y.=y|pich=ich17)00,00000,055810,00000,178420,00030,265230,00260,243040,01390,153650,04910,071060,11810,024870,19830,006780,23530,001490,19830,0002100,11810,0000110,04910,0000120,01390,0000130,00260,0000140,00030,0000150,00000,0000160,00000,0000

So für das spezifische Problem der Erfolge in 16 Studien, sind die genauen Berechnungen direkt. Dies funktioniert auch für eine Reihe von Wahrscheinlichkeiten bis zu etwa n = 20 - darüber hinaus treten wahrscheinlich Speicherprobleme auf, und es sind verschiedene Computertricks erforderlich.y16n=20

Man beachte, dass durch Anwenden meiner vorgeschlagenen "Beta-Verteilung" Parameterschätzungen von und dies eine Wahrscheinlichkeitsschätzung ergibt, die in y nahezu einheitlich ist , was einen ungefähren Wert von p r ( y = 9 ) = 0,06799 1 ergibtα=β=1,3206y . Dies erscheint merkwürdig, da eine Dichte einer Beta-Verteilung mitα=β=1,3206dem Histogramm derpi-Werte sehr nahe kommt. Was schief gelaufen ist?pr(y=9)=0,06799117α=β=1,3206pich

Allgemeiner Fall

Ich werde nun den allgemeineren Fall diskutieren und erläutern, warum meine einfache Beta-Approximation fehlgeschlagen ist. Grundsätzlich durch Schreiben und dann Mischen über P mit einer anderen Verteilung p ~ f ( θ ) ist tatsächlich eine wichtige Annahme, - dass wir die tatsächliche Wahrscheinlichkeit approximieren mit einer einzigen Binomialwahrscheinlichkeit - das einzige verbleibende Problem ist, welcher Wert von p(y|n,p)Binom(n,p)ppf(θ)pbenutzen. Eine Möglichkeit, dies zu sehen, besteht darin, die Mischungsdichte zu verwenden, die über den tatsächlichen diskret gleichförmig ist . So wir die Beta - Verteilung ersetzen p ~ B e t a ( a , b ) mit einer Dichte von diskreter p ~ Σ 16 i = 1 w i δ ( p - p i ) . Dann kann die Verwendung der Mischungsnäherung in Worten ausgedrückt werden, indem ein p i -Wert mit der Wahrscheinlichkeit w i gewählt wirdpipBeta(a,b)pi=116wiδ(ppi)piwiund nehmen an, dass alle Bernoulli-Versuche diese Wahrscheinlichkeit haben . Damit eine solche Annäherung gut funktioniert, sollten die meisten -Werte einander ähnlich sein. Dies bedeutet im Grunde, dass für @wolfies gleichmäßige Werteverteilung p i = i istpi führt bei Verwendung der Beta-Mischungsverteilung zu einer äußerst schlechten Näherung. Dies erklärt auch, warum die Approximation fürpi= viel besser istpi=i17 - sie sind weniger ausgebreitet.pi=i17

Das Mischen verwendet dann das beobachtete um über alle möglichen Auswahlen eines einzelnen p zu mitteln . Jetzt, da "Mischen" wie ein gewichteter Durchschnitt ist, kann es unmöglich besser sein, als das einfach beste p zu verwenden . Wenn also die p i ausreichend verteilt sind, kann es kein einzelnes p geben, das eine gute Annäherung an alle p i liefern könnte .pi pppippi

Eine Sache, die ich in meiner anderen Antwort gesagt habe, war, dass es vielleicht besser ist, eine Mischung von Beta-Verteilungen über einen begrenzten Bereich zu verwenden - aber das hilft hier immer noch nicht weiter, da dies immer noch über eine einzelne mischt . Sinnvoller ist es, das Intervall ( 0 , 1 ) in Teile aufzuteilen und in jedem Teil ein Binom zu haben. Zum Beispiel könnten wir ( 0 , 0.1 , 0.2 , , 0.9 , 1 ) als unsere Aufteilungen wählen und neun Binome in jede 0.1 einpassenp(0,1)(0,0.1,0.2,,0.9,1)0.1Wahrscheinlichkeitsbereich. Grundsätzlich würden wir innerhalb jeder Teilung eine einfache Näherung anpassen, beispielsweise die Verwendung eines Binoms mit einer Wahrscheinlichkeit, die gleich dem Durchschnitt des in diesem Bereich ist. Wenn wir die Intervalle klein genug machen, wird die Approximation beliebig gut. Beachten Sie jedoch, dass wir uns nur mit einer Summe unabhängiger Binomialversuche mit unterschiedlichen Wahrscheinlichkeiten befassen müssen , anstatt mit Bernoulli- Versuchen. Der vorherige Teil dieser Antwort hat jedoch gezeigt, dass wir die genauen Berechnungen durchführen können, vorausgesetzt, die Anzahl der Binome ist ausreichend klein, etwa 10-15.pi

Um die auf Bernoulli basierende Antwort auf eine auf Binomialbasis zu erweitern, "interpretieren" wir einfach neu, was die -Variablen sind. Wir stellen einfach fest, dass Z i = I ( X i > 0 ) - dies reduziert sich auf das ursprüngliche bernoulli-basierte Z i , sagt aber jetzt, aus welchen Binomen die Erfolge stammen. Der Fall ( Z 1 = 0 , Z 2 = 0 , Z 3 = 1 ) bedeutet nun, dass alle "Erfolge" aus dem dritten Binomial stammen und keiner aus den ersten beiden.ZiZi=I(Xi>0)Zi(Z1=0,Z2=0,Z3=1)

Beachten Sie, dass dies immer noch „exponentiell“ ist, dass die Anzahl der Berechnungen ist so etwas wie wobei g die Zahl der Binome ist, und k ist die Gruppengröße - so haben Sie Y & ap ; & Sgr; g j = 1 X j wobei X j ~ B i n ( k , p j ) . Dies ist jedoch besser als die 2 g k , mit denen Sie mit Hilfe von Bernoulli-Zufallsvariablen umgehen würden. Angenommen, wir teilen n = 16kggkYj=1gXjXjBin(k,pj)2gkn=16Wahrscheinlichkeiten in Gruppen mit k = 4 Wahrscheinlichkeiten in jeder Gruppe. Dies ergibt 4 4 = 256 Berechnungen, verglichen mit 2 16 = 65536g=4k=444=256216=65536

Durch die Wahl Gruppen, und die Feststellung , dass die Grenze im Begriff war , n = 20 , die im Begriff ist , 10 7 Zellen, können wir effektiv mit dieser Methode das Maximum zu erhöhen , n zu n = 50 .g=10n=20107nn=50

gng=5n125


@momo - Ich denke, das ist in Ordnung, da meine Antworten zwei verschiedene Wege sind, um das Problem anzugehen. Diese Antwort ist keine bearbeitete Version meiner ersten - es ist nur eine andere Antwort
Wahrscheinlichkeitslogik

1
Rnn=104nn

5

Pr(S=k)=EIN{1,,n}|EIN|=k(ichEINpich)(j{1,,n}EIN(1-pj)).
p <- seq(1, 16) / 17
cat(p, "\n")
n <- length(p)
k <- 9
S <- seq(1, n)
A <- combn(S, k)
pr <- 0
for (i in 1:choose(n, k)) {
    pr <- pr + exp(sum(log(p[A[,i]])) + sum(log(1 - p[setdiff(S, A[,i])])))
}
cat("Pr(S = ", k, ") = ", pr, "\n", sep = "")

pich

Pr(S = 9) = 0.1982677

n


1
Das mit R-Code zu machen, war wirklich hilfreich. Einige von uns sind konkretere Denker, und es ist sehr hilfreich, eine operationelle Version der Erzeugungsfunktion zu haben.
DWin

RpichR

P(S=k)

+1 Sehr nützlicher Beitrag in meinem Versuch, diese Frage zu beantworten . Ich habe mich gefragt, ob die Verwendung von Protokollen eher eine coole mathematische Formulierung als eine echte Notwendigkeit ist. Ich
mache
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.