Als «post-hoc» getaggte Fragen

"post-hoc" bezieht sich auf Analysen, die nach der Datenerfassung entschieden werden, im Gegensatz zu "a priori".


3
Interpretation des log transformierten Prädiktors und / oder der Antwort
Ich frage mich, ob es einen Unterschied in der Interpretation macht, ob nur die abhängigen, sowohl die abhängigen als auch die unabhängigen Variablen oder nur die unabhängigen Variablen log-transformiert werden. Betrachten Sie den Fall von log(DV) = Intercept + B1*IV + Error Ich kann die IV als prozentuale Erhöhung interpretieren, …
46 regression  data-transformation  interpretation  regression-coefficients  logarithm  r  dataset  stata  hypothesis-testing  contingency-tables  hypothesis-testing  statistical-significance  standard-deviation  unbiased-estimator  t-distribution  r  functional-data-analysis  maximum-likelihood  bootstrap  regression  change-point  regression  sas  hypothesis-testing  bayesian  randomness  predictive-models  nonparametric  terminology  parametric  correlation  effect-size  loess  mean  pdf  quantile-function  bioinformatics  regression  terminology  r-squared  pdf  maximum  multivariate-analysis  references  data-visualization  r  pca  r  mixed-model  lme4-nlme  distributions  probability  bayesian  prior  anova  chi-squared  binomial  generalized-linear-model  anova  repeated-measures  t-test  post-hoc  clustering  variance  probability  hypothesis-testing  references  binomial  profile-likelihood  self-study  excel  data-transformation  skewness  distributions  statistical-significance  econometrics  spatial  r  regression  anova  spss  linear-model 

2
Was sind die praktischen Unterschiede zwischen den Falschentdeckungsratenverfahren von Benjamini & Hochberg (1995) und Benjamini & Yekutieli (2001)?
In meinem Statistikprogramm werden sowohl die Verfahren Benjamini & Hochberg (1995) als auch Benjamini & Yekutieli (2001) für die Falschentdeckungsrate (FDR) implementiert. Ich habe mein Bestes getan, um die spätere Abhandlung durchzulesen, aber sie ist ziemlich mathematisch dicht und ich bin nicht sicher, ob ich den Unterschied zwischen den Abläufen …

3
Kann eine ANOVA signifikant sein, wenn keiner der paarweisen t-Tests signifikant ist?
Kann eine Einweg- ANOVA (mit Gruppen oder "Niveaus") einen signifikanten Unterschied melden, wenn keiner der paarweisen N ( N - 1 ) / 2 t-Tests dies tut?N>2N>2N>2N(N−1)/2N(N−1)/2N(N-1)/2 In dieser Antwort schrieb @whuber: Es ist allgemein bekannt, dass ein globaler ANOVA-F-Test eine Mittelwertdifferenz erkennen kann, selbst wenn kein individueller [unangepasster paarweiser] …

3
Post-hoc-Test nach ANOVA mit wiederholten Messungen mit R
Ich habe eine ANOVA mit wiederholten Messungen in R wie folgt durchgeführt: aov_velocity = aov(Velocity ~ Material + Error(Subject/(Material)), data=scrd) summary(aov_velocity) Mit welcher Syntax in R kann nach einer ANOVA mit wiederholten Messungen ein Post-Hoc-Test durchgeführt werden? Wäre Tukeys Test mit Bonferroni-Korrektur angemessen? Wenn ja, wie könnte dies in R …



1
Warum überhaupt ANOVA verwenden, anstatt direkt in Post-Hoc- oder geplante Vergleichstests einzusteigen?
Was bringt es Ihnen, wenn Sie einen solchen ANOVA-Test in einer Situation zwischen Gruppen durchführen? Was tun Sie als Erstes nach dem Hoc-Test (Bonferroni, Šidák usw.) oder bei geplanten Vergleichstests? Warum nicht den ANOVA-Schritt komplett überspringen? Ich stelle fest, dass in einer solchen Situation der einzige Vorteil von ANOVA zwischen …

1
Post-hoc-Tests nach Kruskal-Wallis: Dunn-Test oder Bonferroni-korrigierte Mann-Whitney-Tests?
Ich habe eine nicht-Gaußsche verteilte Variable und muss prüfen, ob es signifikante Unterschiede zwischen den Werten dieser Variablen in 5 verschiedenen Gruppen gibt. Ich habe eine einseitige Kruskal-Wallis-Varianzanalyse durchgeführt (die sich als signifikant erwies) und danach musste ich prüfen, welche Gruppen signifikant unterschiedlich waren. Da die Gruppen irgendwie sortiert sind …

2
Wie kann ich eine signifikante Gesamt-ANOVA erhalten, aber keine signifikanten paarweisen Unterschiede zum Tukey-Verfahren?
Ich habe mit R an ANOVA gespielt und dabei signifikante Unterschiede festgestellt. Als ich jedoch nach dem Tukey-Verfahren überprüfte, welche Paare signifikant unterschiedlich waren, bekam ich keine davon. Wie kann das möglich sein? Hier ist der Code: fit5_snow<- lm(Response ~ Stimulus, data=audio_snow) anova(fit5_snow) > anova(fit5_snow) Analysis of Variance Table Response: …


2
Wie wird ein Post-Hoc-Test an einem älteren Modell durchgeführt?
Dies ist mein Datenrahmen: Group <- c("G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G1","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G2","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3","G3") Subject <- c("S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15","S1","S2","S3","S4","S5","S6","S7","S8","S9","S10","S11","S12","S13","S14","S15") Value <- c(9.832217741,13.62390117,13.19671612,14.68552076,9.26683366,11.67886655,14.65083473,12.20969772,11.58494621,13.58474896,12.49053635,10.28208078,12.21945867,12.58276212,15.42648969,9.466436017,11.46582655,10.78725485,10.66159358,10.86701127,12.97863424,12.85276916,8.672953949,10.44587257,13.62135205,13.64038394,12.45778874,8.655142642,10.65925259,13.18336949,11.96595556,13.5552118,11.8337142,14.01763101,11.37502161,14.14801305,13.21640866,9.141392359,11.65848845,14.20350364,14.1829714,11.26202565,11.98431285,13.77216009,11.57303893) data <- data.frame(Group, Subject, Value) Dann führe ich ein linear gemischtes Effektmodell aus, um die Differenz der 3 Gruppen zu "Value" zu vergleichen, wobei "Subject" der Zufallsfaktor ist: library(lme4) library(lmerTest) model <- lmer (Value~Group + (1|Subject), data …
18 r  lme4-nlme  post-hoc 

2
Wie schreibt man die post-hoc-Ergebnisse von Tukey auf?
Wie schreibe ich ein Tukey-Post-Hoc-Ergebnis richtig? Gibt es mehrere Beispiele mit unterschiedlichen Ergebnissen? Angenommen, Sie haben Nord, Süd, Ost und West. North N=50 Mean=2.45 SD=3.9 std error=.577 LB=1.29 UB=3.62 South N=40 Mean=2.54 SD=3.8 std error=.576 LB=1.29 UB=3.63 East N=55 Mean=3.45 SD=3.7 std error=.575 LB=1.29 UB=3.64 West N=45 Mean=3.54 SD=3.6 std …


6
Was ist das Problem bei Post-Hoc-Tests?
Mein Statistikprofessor sagt es so, alle Bücher, die ich mir anschaue, sagen es aus: Post-hoc-Tests sind unwissenschaftlich. Sie müssen zuerst eine Hypothese aus der Theorie ableiten und dann Daten sammeln und analysieren. Aber ich verstehe das Problem wirklich nicht. Angenommen, ich sehe Verkaufszahlen für verschiedene Autofarben und gehe davon aus, …
15 post-hoc 

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.