Als «variance» getaggte Fragen

Die erwartete quadratische Abweichung einer Zufallsvariablen von ihrem Mittelwert; oder die durchschnittliche quadratische Abweichung der Daten über ihren Mittelwert.


1
Varianz der Cohen-
Cohens ddd ist eine der häufigsten Methoden, um die Größe eines Effekts zu messen ( siehe Wikipedia ). Es misst einfach den Abstand zwischen zwei Mitteln als gepoolte Standardabweichung. Wie können wir die mathematische Formel der Varianzschätzung von Cohens ableiten ddd? Dezember 2015 edit: Im Zusammenhang mit dieser Frage steht …

1
Determinante der Fisher-Information
(Ich habe eine ähnliche Frage auf math.se gestellt .) In der Informationsgeometrie ist die Determinante der Fisher-Informationsmatrix eine natürliche Volumenform auf einer statistischen Mannigfaltigkeit, daher hat sie eine schöne geometrische Interpretation. Die Tatsache, dass es beispielsweise in der Definition eines Jeffreys vorkommt, hängt mit seiner Invarianz unter Reparametrisierungen zusammen, die …

5
Wie führt man eine Imputation von Werten in einer sehr großen Anzahl von Datenpunkten durch?
Ich habe einen sehr großen Datensatz und es fehlen ungefähr 5% zufällige Werte. Diese Variablen sind miteinander korreliert. Der folgende Beispiel-R-Datensatz ist nur ein Spielzeugbeispiel mit Dummy-korrelierten Daten. set.seed(123) # matrix of X variable xmat <- matrix(sample(-1:1, 2000000, replace = TRUE), ncol = 10000) colnames(xmat) <- paste ("M", 1:10000, sep …
12 r  random-forest  missing-data  data-imputation  multiple-imputation  large-data  definition  moving-window  self-study  categorical-data  econometrics  standard-error  regression-coefficients  normal-distribution  pdf  lognormal  regression  python  scikit-learn  interpolation  r  self-study  poisson-distribution  chi-squared  matlab  matrix  r  modeling  multinomial  mlogit  choice  monte-carlo  indicator-function  r  aic  garch  likelihood  r  regression  repeated-measures  simulation  multilevel-analysis  chi-squared  expected-value  multinomial  yates-correction  classification  regression  self-study  repeated-measures  references  residuals  confidence-interval  bootstrap  normality-assumption  resampling  entropy  cauchy  clustering  k-means  r  clustering  categorical-data  continuous-data  r  hypothesis-testing  nonparametric  probability  bayesian  pdf  distributions  exponential  repeated-measures  random-effects-model  non-independent  regression  error  regression-to-the-mean  correlation  group-differences  post-hoc  neural-networks  r  time-series  t-test  p-value  normalization  probability  moments  mgf  time-series  model  seasonality  r  anova  generalized-linear-model  proportion  percentage  nonparametric  ranks  weighted-regression  variogram  classification  neural-networks  fuzzy  variance  dimensionality-reduction  confidence-interval  proportion  z-test  r  self-study  pdf 

3
Abweichung vom Boxplot ableiten
Ich habe mich gefragt, wie ich aus einem Boxplot die Varianz einer Variablen ableiten kann. Lässt sich zumindest ableiten, ob zwei Variablen unter Berücksichtigung ihres Boxplots dieselbe Varianz aufweisen?
12 variance  boxplot 

3
Intuitiver Grund, warum die Fisher Information of Binomial umgekehrt proportional zu
Es verwirrt / verwirrt mich, dass das Binomial eine Varianz proportional zu p(1−p)p(1−p)p(1-p) . Entsprechend ist die Fisher-Information proportional zu 1p(1−p)1p(1−p)\frac{1}{p(1-p)} . Was ist der Grund dafür? Warum wird die Fisher-Information beiminimiertp=0.5p=0.5p=0.5? Das heißt, warum ist die Inferenz beiam schwierigstenp=0.5p=0.5p=0.5? Kontext: Ich arbeite an einem Stichprobengrößenrechner, und die Formel für …

2
Wie kann ich Bootstrap-p-Werte über mehrfach kalkulierte Datensätze zusammenfassen?
Ich befasse mich mit dem Problem, dass ich den p-Wert für eine Schätzung von aus multipliziert unterstellten (MI) Daten bootstrappen möchte , aber mir unklar ist, wie ich die p-Werte über MI-Mengen kombinieren soll.θθ\theta Für MI-Datensätze verwendet der Standardansatz zur Ermittlung der Gesamtvarianz von Schätzungen Rubins Regeln. Sehen Sie hier …


3
Alternative zur Einweg-ANOVA ungleiche Varianz
Ich möchte die Mittelwerte über drei Gruppen gleicher Größe vergleichen (gleiche Stichprobengröße ist klein, 21). Die Mittelwerte jeder Gruppe sind normalerweise verteilt, aber ihre Varianzen sind ungleich (getestet über Levene's). Ist eine Transformation der beste Weg in dieser Situation? Sollte ich zuerst etwas anderes in Betracht ziehen?

1
Unterschiede zwischen PROC Mixed und lme / lmer in R - Freiheitsgraden
Hinweis: Diese Frage ist ein Repost, da meine vorherige Frage aus rechtlichen Gründen gelöscht werden musste. Beim Vergleich von PROC MIXED von SAS mit der Funktion lmeaus dem nlmePaket in R bin ich auf einige verwirrende Unterschiede gestoßen. Insbesondere unterscheiden sich die Freiheitsgrade in den verschiedenen Tests zwischen PROC MIXEDund …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 


2
Wie parametriere ich das Verhältnis zweier normalverteilter Variablen oder die Umkehrung einer Variablen?
Problem: Ich parametrisiere Verteilungen zur Verwendung als Prioritäten und Daten in einer Bayes'schen Metaanalyse. Die Daten werden in der Literatur als zusammenfassende Statistiken bereitgestellt, von denen fast ausschließlich angenommen wird, dass sie normal verteilt sind (obwohl keine der Variablen <0 sein kann, einige Verhältnisse sind, andere Massen sind und usw.). …

2
Mathematische Intuition der Bias-Varianz-Gleichung
Ich habe kürzlich eine Frage gestellt, die nach einer mathematischen Interpretation / Intuition hinter der Elementargleichung für Stichprobenmittelwert und Varianz sucht: , geometrisch oder auf andere Weise.E[X2]=Var(X)+(E[X])2E[X2]=Var(X)+(E[X])2 E[X^2] = Var(X) +(E[X])^2 Aber jetzt bin ich neugierig auf die oberflächlich ähnliche Bias-Varianz-Kompromissgleichung. (Formeln ausWikipedia)MSE(θ^)=E[(θ^−θ)2]==E[(θ^−E[θ^])2]+(E[θ^]−θ)2Var(θ^)+Bias(θ^,θ)2MSE(θ^)=E[(θ^−θ)2]=E[(θ^−E[θ^])2]+(E[θ^]−θ)2=Var(θ^)+Bias(θ^,θ)2 \begin{eqnarray} \text{MSE}(\hat{\theta}) = E [(\hat{\theta}-\theta)^2 ] &=& …
12 variance  bias 


3
Varianz-Kovarianz-Matrix der Fehler in der linearen Regression
Wie wird die Var / Cov-Fehlermatrix in der Praxis von statistischen Analysepaketen berechnet? Diese Idee ist mir theoretisch klar. Aber nicht in der Praxis. Ich meine, wenn ich einen Vektor von Zufallsvariablen , verstehe ich, dass die Varianz / Kovarianz-Matrix erhält das externe Produkt der vom Mittelwert abweichenden Vektoren: .X=(X1,X2,…,Xn)⊤X=(X1,X2,…,Xn)⊤\textbf{X}=(X_{1}, …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.