Als «probability» getaggte Fragen

Eine Wahrscheinlichkeit liefert eine quantitative Beschreibung des wahrscheinlichen Auftretens eines bestimmten Ereignisses.

5
Einführung in die Maßtheorie
Ich möchte mehr über nichtparametrische Bayesianische (und verwandte) Techniken erfahren. Mein Hintergrund liegt in der Informatik, und obwohl ich noch nie einen Kurs in Maß- oder Wahrscheinlichkeitstheorie belegt habe, habe ich nur ein begrenztes Maß an formaler Ausbildung in Wahrscheinlichkeits- und Statistikwissenschaften erhalten. Kann mir jemand eine lesbare Einführung in …




4
Kann jemand das Konzept einer „Summe von Zufallsvariablen“ klarstellen?
In meiner Wahrscheinlichkeitsklasse werden ständig die Begriffe "Summen von Zufallsvariablen" verwendet. Ich bin jedoch nicht sicher, was das genau bedeutet. Sprechen wir über die Summe mehrerer Realisierungen aus einer Zufallsvariablen? Wenn ja, ergibt das nicht eine einzige Zahl? Wie führt uns eine Summe von zufälligen Variablenrealisierungen zu einer Distribution oder …

11
Wie kann die Ergebnisverteilung für mehrere Würfel einfach ermittelt werden?
Ich möchte die Wahrscheinlichkeitsverteilung für die Summe einer Kombination von Würfeln berechnen. Ich erinnere mich, dass die Wahrscheinlichkeit von die Anzahl der Kombinationen ist, die diese Anzahl über die Gesamtanzahl der Kombinationen summieren (vorausgesetzt, die Würfel haben eine gleichmäßige Verteilung). Was sind die Formeln für Die Anzahl der Kombinationen insgesamt …
21 probability  dice 

4
Warum ist die Softmax-Ausgabe kein gutes Unsicherheitsmaß für Deep Learning-Modelle?
Ich arbeite seit einiger Zeit mit Convolutional Neural Networks (CNNs), hauptsächlich mit Bilddaten für die semantische Segmentierung / Instanzsegmentierung. Ich habe mir den Softmax der Netzwerkausgabe oft als "Heatmap" vorgestellt, um zu sehen, wie hoch die Aktivierungen pro Pixel für eine bestimmte Klasse sind. Ich habe niedrige Aktivierungen als "unsicher" …

4
Ist die alltägliche Wahrscheinlichkeit nur ein Weg, mit dem Unbekannten umzugehen (hier nicht von Quantenphysik zu sprechen)?
In der Alltagswahrscheinlichkeit (nicht der Quantenphysik) scheinen Wahrscheinlichkeiten eigentlich nur ein Ersatz für ein Unbekanntes zu sein. Nehmen Sie zum Beispiel einen Münzwurf. Wir sagen, es ist "zufällig", eine 50% ige Änderung des Kopfes und eine 50% ige Chance auf Schwänze. Wenn ich jedoch die Dichte, Größe und Form der …

5
Wirf einen Würfel, bis er auf einer anderen Zahl als 4 landet. Wie groß ist die Wahrscheinlichkeit, dass das Ergebnis> 4 ist?
Ein Spieler erhält einen fairen sechsseitigen Würfel. Um zu gewinnen, muss sie eine Zahl größer als 4 würfeln (dh eine 5 oder eine 6). Wenn sie eine 4 würfelt, muss sie erneut würfeln. Was sind ihre Gewinnchancen? Ich denke, die Wahrscheinlichkeit, P(W)P(W)P(W) , kann rekursiv ausgedrückt werden als: P(W)=P(r=5∪r=6)+P(r=4)⋅P(W)P(W)=P(r=5∪r=6)+P(r=4)⋅P(W) P(W) …

3
Soll ich immer das wahrscheinlichste Ergebnis wählen, um die Chance zu maximieren, das Ergebnis eines Münzwurfs richtig zu erraten?
Das sind keine Hausaufgaben. Ich bin daran interessiert zu verstehen, ob meine Logik bei diesem einfachen Statistikproblem richtig ist. Angenommen, ich habe eine 2-seitige Münze, bei der die Wahrscheinlichkeit, einen Kopf umzudrehen, und die Wahrscheinlichkeit, einen Schwanz umzudrehen, beträgt . Nehmen wir an, dass alle Flips unabhängige Wahrscheinlichkeiten haben. Nehmen …

9
Woher wissen wir, dass die Wahrscheinlichkeit, 1 und 2 zu würfeln, 1/18 beträgt?
Seit meiner ersten Wahrscheinlichkeitsklasse habe ich mich über Folgendes gewundert. Die Berechnung der Wahrscheinlichkeiten erfolgt in der Regel über das Verhältnis der "favorisierten Ereignisse" zu den insgesamt möglichen Ereignissen. Beim Würfeln von zwei 6-seitigen Würfeln beträgt die Anzahl der möglichen Ereignisse 363636 , wie in der folgenden Tabelle dargestellt. 1234561(1,1)(2,1)(3,1)(4,1)(5,1)(6,1)2(1,2)(2,2)(3,2)(4,2)(5,2)(6,2)3(1,3)(2,3)(3,3)(4,3)(5,3)(6,3)4(1,4)(2,4)(3,4)(4,4)(5,4)(6,4)5(1,5)(2,5)(3,5)(4,5)(5,5)(6,5)6(1,6)(2,6)(3,6)(4,6)(5,6)(6,6)1234561(1,1)(1,2)(1,3)(1,4)(1,5)(1,6)2(2,1)(2,2)(2,3)(2,4)(2,5)(2,6)3(3,1)(3,2)(3,3)(3,4)(3,5)(3,6)4(4,1)(4,2)(4,3)(4,4)(4,5)(4,6)5(5,1)(5,2)(5,3)(5,4)(5,5)(5,6)6(6,1)(6,2)(6,3)(6,4)(6,5)(6,6)\begin{array} …
20 probability  dice 

3
Maschinelles Lernen zur Vorhersage von Klassenwahrscheinlichkeiten
Ich suche nach Klassifikatoren, die Wahrscheinlichkeiten ausgeben, dass Beispiele zu einer von zwei Klassen gehören. Ich kenne logistische Regression und naive Bayes, aber können Sie mir von anderen erzählen, die auf ähnliche Weise arbeiten? Das heißt, Klassifizierer, die nicht die Klassen vorhersagen, zu denen Beispiele gehören, sondern die Wahrscheinlichkeit, dass …

3
Grundstatistik für Juroren
Ich wurde zur Jury bestellt. Ich bin mir der Relevanz der Statistik für einige Gerichtsverfahren bewusst. Zum Beispiel ist das Konzept des "Basiszinssatzes" und seine Anwendung auf Wahrscheinlichkeitsberechnungen manchmal - vielleicht immer - relevant. Welche statistischen Themen könnte eine Person in meiner Situation sinnvoll untersuchen und welche Materialien wären für …

4
Was ist eine enge Untergrenze für die Kuponsammelzeit?
In dem klassischen Coupon Collector-Problem ist bekannt, dass die Zeit erforderlich ist, um einen Satz von zufällig ausgewählten Coupons zu vervollständigen, , und .TTTnnnE[T]∼nlnnE[T]∼nln⁡nE[T] \sim n \ln n Var(T)∼n2Var(T)∼n2Var(T) \sim n^2Pr(T&gt;nlnn+cn)&lt;e−cPr(T&gt;nln⁡n+cn)&lt;e−c\Pr(T > n \ln n + cn) < e^{-c} Diese Obergrenze ist besser als die durch die Chebyshev-Ungleichung gegebene, die …

4
Was sind die korrekten Werte für Präzision und Rückruf in Randfällen?
Präzision ist definiert als: p = true positives / (true positives + false positives) Ist es richtig, dass sich die Genauigkeit 1 nähert true positivesund false positivessich 0 nähert? Gleiche Frage zum Rückruf: r = true positives / (true positives + false negatives) Ich führe derzeit einen statistischen Test durch, …
20 precision-recall  data-visualization  logarithm  references  r  networks  data-visualization  standard-deviation  probability  binomial  negative-binomial  r  categorical-data  aggregation  plyr  survival  python  regression  r  t-test  bayesian  logistic  data-transformation  confidence-interval  t-test  interpretation  distributions  data-visualization  pca  genetics  r  finance  maximum  probability  standard-deviation  probability  r  information-theory  references  computational-statistics  computing  references  engineering-statistics  t-test  hypothesis-testing  independence  definition  r  censoring  negative-binomial  poisson-distribution  variance  mixed-model  correlation  intraclass-correlation  aggregation  interpretation  effect-size  hypothesis-testing  goodness-of-fit  normality-assumption  small-sample  distributions  regression  normality-assumption  t-test  anova  confidence-interval  z-statistic  finance  hypothesis-testing  mean  model-selection  information-geometry  bayesian  frequentist  terminology  type-i-and-ii-errors  cross-validation  smoothing  splines  data-transformation  normality-assumption  variance-stabilizing  r  spss  stata  python  correlation  logistic  logit  link-function  regression  predictor  pca  factor-analysis  r  bayesian  maximum-likelihood  mcmc  conditional-probability  statistical-significance  chi-squared  proportion  estimation  error  shrinkage  application  steins-phenomenon 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.