Als «probability» getaggte Fragen

Eine Wahrscheinlichkeit liefert eine quantitative Beschreibung des wahrscheinlichen Auftretens eines bestimmten Ereignisses.

2
Ist Slutskys Theorem immer noch gültig, wenn zwei Folgen zu einer nicht entarteten Zufallsvariablen konvergieren?
Ich bin verwirrt über einige Details zu Slutskys Theorem : Sei , zwei Folgen von skalaren / Vektor / Matrix-Zufallselementen.{Xn}{Xn}\{X_n\}{Yn}{Yn}\{Y_n\} Konvergiert in der Verteilung zu einem zufälligen Element und Y_n in der Wahrscheinlichkeit zu einer Konstanten c , dann \ eqalign {X_ {n} + Y_ {n} \ & {\ xrightarrow …

1
Spezielle Wahrscheinlichkeitsverteilung
Wenn p(x)p(x)p(x) eine Wahrscheinlichkeitsverteilung mit Nicht-Null-Werten für [0,+∞)[0,+∞)[0,+\infty) , für welche Art (en) von p(x)p(x)p(x) gibt es eine Konstante c>0c>0c\gt 0 so dass ∫∞0p(x)logp(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2∫0∞p(x)log⁡p(x)(1+ϵ)p(x(1+ϵ))dx≤cϵ2\int_0^{\infty}p(x)\log{\frac{ p(x)}{(1+\epsilon)p({x}(1+\epsilon))}}dx \leq c \epsilon^2für alle0<ϵ<10<ϵ<10\lt\epsilon\lt 1? Die obige Ungleichung ist tatsächlich eine Kullback-Leibler-Divergenz zwischen der Verteilung p(x)p(x)p(x) und einer komprimierten Version davon (1+ϵ)p(x(1+ϵ))(1+ϵ)p(x(1+ϵ)){(1+\epsilon)}p({x}{(1+\epsilon)}) . Ich habe …

2
Ist Gelenknormalität eine notwendige Bedingung für die Normalität der Summe normaler Zufallsvariablen?
In Kommentaren , die meiner Antwort auf eine verwandte Frage folgen, fragten Benutzer ssdecontrol und Glen_b, ob eine gemeinsame Normalität von und notwendig ist, um die Normalität der Summe zu behaupten . Dass Gelenknormalität ausreicht, ist natürlich bekannt. Diese Zusatzfrage wurde dort nicht angesprochen und ist vielleicht für sich allein …

2
Wie wählt man die optimale Behälterbreite beim Kalibrieren von Wahrscheinlichkeitsmodellen?
Hintergrund: Hier gibt es einige gute Fragen und Antworten zur Kalibrierung von Modellen, die die Wahrscheinlichkeiten eines eintretenden Ergebnisses vorhersagen. Beispielsweise Brier-Score und seine Zerlegung in Auflösung, Unsicherheit und Zuverlässigkeit . Kalibrierungsdiagramme und isotonische Regression . Diese Methoden erfordern häufig die Verwendung einer Binning-Methode für die vorhergesagten Wahrscheinlichkeiten, sodass das …



4
Welches Verhältnis der unabhängigen Verteilungen ergibt eine Normalverteilung?
Das Verhältnis zweier unabhängiger Normalverteilungen ergibt eine Cauchy-Verteilung. Die t-Verteilung ist eine Normalverteilung geteilt durch eine unabhängige Chi-Quadrat-Verteilung. Das Verhältnis von zwei unabhängigen Chi-Quadrat-Verteilungen ergibt eine F-Verteilung. Ich suche ein Verhältnis unabhängiger stetiger Verteilungen, das eine normalverteilte Zufallsvariable mit mittlerem μμ\mu und Varianz ergibt ?σ2σ2\sigma^2 Es gibt wahrscheinlich unendlich viele …

5
Wie führt man eine Imputation von Werten in einer sehr großen Anzahl von Datenpunkten durch?
Ich habe einen sehr großen Datensatz und es fehlen ungefähr 5% zufällige Werte. Diese Variablen sind miteinander korreliert. Der folgende Beispiel-R-Datensatz ist nur ein Spielzeugbeispiel mit Dummy-korrelierten Daten. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

1
Verhältnis von Wahrscheinlichkeiten zu Verhältnis von PDFs
Ich verwende Bayes, um ein Clustering-Problem zu lösen. Nach einigen Berechnungen muss ich das Verhältnis zweier Wahrscheinlichkeiten ermitteln: P(A)/P(B)P(A)/P(B)P(A)/P(B) um . Diese Wahrscheinlichkeiten werden durch die Integration von zwei verschiedenen multivariaten 2D-KDEs erhalten, wie in dieser Antwort erläutert :P(H|D)P(H|D)P(H|D) P ( B ) = ∬ x , y : g …

2
Intuition hinter der t-Verteilungsdichtefunktion
Ich studiere die t-Verteilung von Studenten und begann mich zu fragen, wie man die t-Verteilungsdichtefunktion ableiten könnte (aus Wikipedia, http://en.wikipedia.org/wiki/Student%27s_t-distribution ): f(t)=Γ(v+12)vπ−−√Γ(v2)(1+t2v)−v+12f(t)=Γ(v+12)vπΓ(v2)(1+t2v)−v+12f(t) = \frac{\Gamma(\frac{v+1}{2})}{\sqrt{v\pi}\:\Gamma(\frac{v}{2})}\left(1+\frac{t^2}{v} \right)^{-\frac{v+1}{2}} Dabei ist der Freiheitsgrad und Γ die Gammafunktion. Was ist die Intuition dieser Funktion? Ich meine, wenn ich mir die Wahrscheinlichkeitsmassenfunktion der Binomialverteilung anschaue, ist …

5
John Kerrich Coin-Flip-Daten
Kann jemand vorschlagen, wo man die Ergebnisse der 10.000 Münzwürfe (dh aller 10.000 Kopf- und Zahlwürfe) erhält, die John Kerrich während des Zweiten Weltkriegs durchgeführt hat?


2
Kernel-Dichteschätzer in 2D integrieren
Ich komme von dieser Frage, falls jemand der Spur folgen möchte. Grundsätzlich habe ich einen Datensatz ΩΩ\Omega bestehend aus NNN Objekten, an die an jedem Objekt eine bestimmte Anzahl von Messwerten angehängt ist (in diesem Fall zwei): Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]Ω=o1[x1,y1],o2[x2,y2],...,oN[xN,yN]\Omega = o_1[x_1, y_1], o_2[x_2, y_2], ..., o_N[x_N, y_N] Ich brauche einen Weg …



Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.