Wie gehen Menschen praktisch mit ANOVA um, wenn die Daten nicht ganz den Annahmen entsprechen?


19

Dies ist keine rein statistische Frage. Ich kann alle Lehrbücher über ANOVA-Annahmen lesen. Ich versuche herauszufinden, wie tatsächlich arbeitende Analysten mit Daten umgehen, die den Annahmen nicht ganz entsprechen. Ich habe viele Fragen auf dieser Website nach Antworten durchsucht und finde immer wieder Beiträge darüber, wann ich ANOVA nicht verwenden soll (in einem abstrakten, idealisierten mathematischen Kontext) oder wie ich einige der Dinge, die ich unten in R. I beschreibe, tun soll Ich versuche wirklich herauszufinden, welche Entscheidungen die Leute tatsächlich treffen und warum.

Ich analysiere gruppierte Daten von Bäumen (tatsächliche Bäume, keine statistischen Bäume) in vier Gruppen. Ich habe Daten für ungefähr 35 Attribute für jeden Baum und gehe jedes Attribut durch, um festzustellen, ob sich die Gruppen in diesem Attribut signifikant unterscheiden. In einigen Fällen werden die ANOVA-Annahmen jedoch leicht verletzt, da die Varianzen nicht gleich sind (nach einem Levene-Test unter Verwendung von Alpha = 0,05).

Aus meiner Sicht habe ich folgende Möglichkeiten: 1. Transformieren Sie die Daten mit Strom und prüfen Sie, ob sie den Levene-p-Wert ändern. 2. Verwenden Sie einen nicht parametrischen Test wie einen Wilcoxon (wenn ja, welchen?). 3. Korrigieren Sie das ANOVA-Ergebnis wie bei einem Bonferroni (ich bin mir nicht sicher, ob es so etwas gibt?). Ich habe die ersten beiden Optionen ausprobiert und dabei leicht unterschiedliche Ergebnisse erzielt. In einigen Fällen ist ein Ansatz von Bedeutung und der andere nicht. Ich habe Angst davor, in die p-wertige Angelfalle zu geraten, und suche nach Ratschlägen, die mir dabei helfen, den zu verwendenden Ansatz zu rechtfertigen.

Ich habe auch einige Dinge gelesen, die darauf hindeuten, dass die Heteroskedastizität für ANOVA kein so großes Problem darstellt, es sei denn, die Mittelwerte und Varianzen sind miteinander korreliert (dh beide nehmen gemeinsam zu) Muster wie das? Wenn ja, gibt es einen Test dafür?

Abschließend möchte ich hinzufügen, dass ich diese Analyse für die Veröffentlichung in einem von Fachleuten geprüften Journal durchführe. Welchen Ansatz ich auch wähle, muss ich mit den Gutachtern vereinbaren. Wenn also jemand Links zu ähnlichen, veröffentlichten Beispielen bereitstellen kann, wäre das fantastisch.


3
Unabhängig davon, ob Sie sie verwenden oder nicht R, kann es von Vorteil sein, wenn Sie meine Antwort hier lesen: Alternativen zur Einweg-ANOVA für heteroskedastische Daten , in der einige dieser Probleme behandelt werden.
gung - Reinstate Monica

Antworten:


18

Ich versuche herauszufinden, wie tatsächlich arbeitende Analysten mit Daten umgehen, die den Annahmen nicht ganz entsprechen.

Es hängt von meinen Bedürfnissen ab, welche Annahmen auf welche Weise verletzt werden, wie stark, wie stark sich dies auf die Inferenz auswirkt und manchmal auch auf die Stichprobengröße.

Ich analysiere gruppierte Daten von Bäumen in vier Gruppen. Ich habe Daten für ungefähr 35 Attribute für jeden Baum und gehe jedes Attribut durch, um festzustellen, ob sich die Gruppen in diesem Attribut signifikant unterscheiden. In einigen Fällen werden die ANOVA-Annahmen jedoch leicht verletzt, da die Varianzen nicht gleich sind (nach einem Levene-Test unter Verwendung von Alpha = 0,05).

1) Wenn die Stichprobengrößen gleich sind, haben Sie kein großes Problem. ANOVA ist gegenüber verschiedenen Varianzen ziemlich (pegel-) robust, wenn die n gleich sind.

2) Testen der Varianzgleichheit, bevor entschieden wird, ob dies von einer Reihe von Studien empfohlen wird. Wenn Sie wirklich Zweifel haben, dass sie nahezu gleich sind, ist es besser, einfach anzunehmen, dass sie ungleich sind.

Einige Referenzen:

Zimmerman, DW (2004),
"Eine Anmerkung zu vorläufigen Tests der Varianzgleichheit."
Br. J. Math. Stat. Psychol. , Mai ; 57 (Pt 1): 173 & ndash; 81.
http://www.ncbi.nlm.nih.gov/pubmed/15171807

Henrik gibt drei Referenzen hier

3) Es kommt auf die Effektgröße an, nicht darauf, ob Ihr Sample groß genug ist, um Ihnen zu sagen, dass sie sich erheblich unterscheiden. In großen Stichproben wird sich ein kleiner Unterschied in der Varianz nach Levene-Test als hoch signifikant herausstellen, hat jedoch im Wesentlichen keine Auswirkung auf die Auswirkung. Wenn die Stichproben groß sind und die Effektgröße - das Verhältnis der Varianzen oder die Unterschiede in den Varianzen - ziemlich nahe bei dem liegt, was sie sein sollten, hat der p-Wert keine Auswirkung. (In kleinen Stichproben ist ein netter großer p-Wert hingegen wenig tröstlich. In beiden Fällen beantwortet der Test nicht die richtige Frage.)

Beachten Sie, dass es eine Welch-Satterthwaite-Typanpassung für die Schätzung des verbleibenden Standardfehlers und des df in der ANOVA gibt, genau wie dies bei T-Tests mit zwei Stichproben der Fall ist.

  1. Verwenden Sie einen nicht parametrischen Test wie einen Wilcoxon (wenn ja, welchen?).

Wenn Sie an Alternativen zur Standortverschiebung interessiert sind, gehen Sie immer noch von einer konstanten Streuung aus. Wenn Sie an viel allgemeineren Alternativen interessiert sind, können Sie dies vielleicht in Betracht ziehen. Die einem Wilcoxon-Test entsprechende k-Probe ist ein Kruskal-Wallis-Test.

Nehmen Sie eine Korrektur des ANOVA-Ergebnisses vor

Siehe meinen obigen Vorschlag, Welch-Satterthwaite in Betracht zu ziehen, das ist eine Art Korrektur.

(Alternativ können Sie Ihre ANOVA auch als paarweisen Welch-T-Test verwenden. In diesem Fall möchten Sie sich wahrscheinlich einen Bonferroni oder ähnliches ansehen.)

Ich habe auch einige Dinge gelesen, die darauf hindeuten, dass Heteroskedastizität für ANOVA kein wirklich großes Problem darstellt, es sei denn, die Mittelwerte und Varianzen sind miteinander korreliert (dh beide nehmen gemeinsam zu).

Sie müssten so etwas zitieren. Nachdem ich eine Reihe von Situationen mit T-Tests betrachtet habe, glaube ich nicht, dass dies eindeutig zutrifft. Vielleicht ist die Situation in irgendeiner Weise eingeschränkt. Es wäre jedoch schön, wenn dies der Fall wäre, da häufig verallgemeinerte lineare Modelle in dieser Situation hilfreich sein können.

Abschließend möchte ich hinzufügen, dass ich diese Analyse für die Veröffentlichung in einem von Fachleuten geprüften Journal durchführe. Welchen Ansatz ich auch wähle, muss ich mit den Gutachtern vereinbaren.

Es ist sehr schwer vorherzusagen, was Ihre Rezensenten zufriedenstellen könnte. Die meisten von uns arbeiten nicht mit Bäumen.


12

Es ist eigentlich nicht sehr schwierig, mit Heteroskedastizität in einfachen linearen Modellen umzugehen (z. B. Einweg- oder Zweiweg-ANOVA-ähnlichen Modellen).

Robustheit von ANOVA

Erstens ist die ANOVA, wie andere angemerkt haben, erstaunlich robust gegenüber Abweichungen von der Annahme gleicher Varianzen, insbesondere wenn Sie ungefähr ausgeglichene Daten haben (gleiche Anzahl von Beobachtungen in jeder Gruppe). Vorläufige Tests auf gleiche Varianzen sind dagegen nicht (obwohl Levenes Test viel besser ist als der in Lehrbüchern gelehrte F -Test ). Wie George Box es ausdrückte:

Der erste Test auf Abweichungen ist so, als würde man mit einem Ruderboot zur See fahren, um herauszufinden, ob die Bedingungen so ruhig sind, dass ein Ozeandampfer den Hafen verlassen kann!

Obwohl die ANOVA sehr robust ist, da es sehr einfach ist, Heteroskedatismus zu berücksichtigen, gibt es wenig Grund, dies nicht zu tun.

Nichtparametrische Tests

Wenn Sie wirklich an Mittelwertunterschieden interessiert sind , sind die nicht-parametrischen Tests (z. B. der Kruskal-Wallis-Test) wirklich nicht von Nutzen. Sie tun Test Unterschiede zwischen den Gruppen, aber sie tun nicht im allgemeinen Test Unterschiede in den Mitteln.

Beispieldaten

Lassen Sie uns ein einfaches Beispiel für Daten generieren, bei denen man ANOVA verwenden möchte, bei denen die Annahme gleicher Varianzen jedoch nicht zutrifft.

set.seed(1232)
pop = data.frame(group=c("A","B","C"),
                 mean=c(1,2,5),
                 sd=c(1,3,4))
d = do.call(rbind, rep(list(pop),13))
d$x = rnorm(nrow(d), d$mean, d$sd)

Wir haben drei Gruppen mit (deutlichen) Unterschieden in Mittelwert und Varianz:

stripchart(x ~ group, data=d)

Stripchart mit Beispieldaten.

ANOVA

Es überrascht nicht, dass eine normale ANOVA dies recht gut handhabt:

> mod.aov = aov(x ~ group, data=d)
> summary(mod.aov)
            Df Sum Sq Mean Sq F value  Pr(>F)    
group        2  199.4   99.69   13.01 5.6e-05 ***
Residuals   36  275.9    7.66                    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Welche Gruppen unterscheiden sich? Verwenden wir die HSD-Methode von Tukey:

> TukeyHSD(mod.aov)
  Tukey multiple comparisons of means
    95% family-wise confidence level

Fit: aov(formula = x ~ group, data = d)

$group
        diff        lwr      upr     p adj
B-A 1.736692 -0.9173128 4.390698 0.2589215
C-A 5.422838  2.7688327 8.076843 0.0000447
C-B 3.686146  1.0321403 6.340151 0.0046867

Mit einem P- Wert von 0,26 können wir keinen Unterschied (im Mittelwert) zwischen Gruppe A und B behaupten. Und selbst wenn wir nicht berücksichtigt hätten, dass wir drei Vergleiche durchgeführt haben, bekämen wir keinen niedrigen P - Wert ( P  = 0,12):

> summary.lm(mod.aov)
[…]
Coefficients:
            Estimate Std. Error t value  Pr(>|t|)    
(Intercept)   0.5098     0.7678   0.664     0.511    
groupB        1.7367     1.0858   1.599     0.118    
groupC        5.4228     1.0858   4.994 0.0000153 ***
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 2.768 on 36 degrees of freedom

Warum das? Aus der Handlung ergibt sich ein ziemlich deutlicher Unterschied. Der Grund dafür ist, dass ANOVA in jeder Gruppe gleiche Varianzen annimmt und eine gemeinsame Standardabweichung von 2,77 schätzt (in der summary.lmTabelle als " Reststandardfehler" angegeben). in der ANOVA-Tabelle).

Gruppe A hat jedoch eine (Populations-) Standardabweichung von 1, und diese Überschätzung von 2,77 macht es (unnötig) schwierig, statistisch signifikante Ergebnisse zu erhalten, dh wir haben einen Test mit (zu) geringer Leistung.

'ANOVA' mit ungleichen Varianzen

Wie passt man ein geeignetes Modell an, das die Unterschiede in den Abweichungen berücksichtigt? In R ist es einfach:

> oneway.test(x ~ group, data=d, var.equal=FALSE)
    One-way analysis of means (not assuming equal variances)

data:  x and group
F = 12.7127, num df = 2.000, denom df = 19.055, p-value = 0.0003107

Wenn Sie also eine einfache Einweg-ANOVA in R ausführen möchten, ohne gleiche Varianzen anzunehmen, verwenden Sie diese Funktion. Es ist im Grunde eine Erweiterung von (Welch) t.test()für zwei Stichproben mit ungleichen Varianzen.

Leider funktioniert es nicht mit TukeyHSD()(oder den meisten anderen Funktionen, die Sie für aovObjekte verwenden). Selbst wenn wir uns ziemlich sicher sind , dass es Gruppenunterschiede gibt, wissen wir nicht, wo sie sich befinden.

Modellierung der Heteroskedastizität

Die beste Lösung besteht darin, die Abweichungen explizit zu modellieren. Und es ist sehr einfach in R:

> library(nlme)
> mod.gls = gls(x ~ group, data=d,
                weights=varIdent(form= ~ 1 | group))
> anova(mod.gls)
Denom. DF: 36 
            numDF  F-value p-value
(Intercept)     1 16.57316  0.0002
group           2 13.15743  0.0001

Natürlich immer noch signifikante Unterschiede. Nun sind aber auch die Unterschiede zwischen Gruppe A und B statisch signifikant ( P  = 0,025):

> summary(mod.gls)
Generalized least squares fit by REML
  Model: x ~ group
  […]
Variance function:
 Structure: Different standard
            deviations per stratum
 Formula: ~1 | group 
 Parameter estimates:
       A        B        C 
1.000000 2.444532 3.913382 

Coefficients:
               Value Std.Error  t-value p-value
(Intercept) 0.509768 0.2816667 1.809829  0.0787
groupB      1.736692 0.7439273 2.334492  0.0253
groupC      5.422838 1.1376880 4.766542  0.0000
[…]
Residual standard error: 1.015564 
Degrees of freedom: 39 total; 36 residual

Die Verwendung eines geeigneten Modells hilft also! Beachten Sie auch, dass wir Schätzungen der (relativen) Standardabweichungen erhalten. Die geschätzte Standardabweichung für Gruppe A befindet sich am unteren Rand der, Ergebnisse, 1,02. Die geschätzte Standardabweichung der Gruppe B ist das 2,44-fache oder 2,48-fache, und die geschätzte Standardabweichung der Gruppe C ist ähnlich 3,97 (Typ intervals(mod.gls), um Konfidenzintervalle für die relativen Standardabweichungen der Gruppen B und C zu erhalten).

Korrektur für mehrere Tests

Wir sollten jedoch unbedingt mehrere Tests korrigieren. Dies ist einfach mit der "Multcomp" -Bibliothek. Leider gibt es keine eingebaute Unterstützung für 'gls'-Objekte, daher müssen wir zuerst einige Hilfsfunktionen hinzufügen:

model.matrix.gls <- function(object, ...)
    model.matrix(terms(object), data = getData(object), ...)
model.frame.gls <- function(object, ...)
  model.frame(formula(object), data = getData(object), ...)
terms.gls <- function(object, ...)
  terms(model.frame(object),...)

Nun geht es an die Arbeit:

> library(multcomp)
> mod.gls.mc = glht(mod.gls, linfct = mcp(group = "Tukey"))
> summary(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate Std. Error z value Pr(>|z|)    
B - A == 0   1.7367     0.7439   2.334   0.0480 *  
C - A == 0   5.4228     1.1377   4.767   <0.001 ***
C - B == 0   3.6861     1.2996   2.836   0.0118 *  

Immer noch statistisch signifikanter Unterschied zwischen Gruppe A und Gruppe B! ☺ Und wir können sogar (simultane) Konfidenzintervalle für die Unterschiede zwischen Gruppenmitteln erhalten:

> confint(mod.gls.mc)
[…]
Linear Hypotheses:
           Estimate lwr     upr    
B - A == 0 1.73669  0.01014 3.46324
C - A == 0 5.42284  2.78242 8.06325
C - B == 0 3.68615  0.66984 6.70245

Mit einem annähernd (hier genau) korrekten Modell können wir diesen Ergebnissen vertrauen!

Beachten Sie, dass für dieses einfache Beispiel die Daten für Gruppe C keine Informationen zu den Unterschieden zwischen Gruppe A und B enthalten, da wir für jede Gruppe sowohl separate Mittelwerte als auch Standardabweichungen modellieren. Wir könnten nur paarweise t- Tests verwenden, die für mehrere Vergleiche korrigiert wurden:

> pairwise.t.test(d$x, d$group, pool.sd=FALSE)
    Pairwise comparisons using t tests with non-pooled SD 

data:  d$x and d$group 

  A       B      
B 0.03301 -      
C 0.00098 0.02032

P value adjustment method: holm 

Für kompliziertere Modelle, z. B. Zweiwegemodelle oder lineare Modelle mit vielen Prädiktoren, ist die Verwendung von GLS (Generalized Least Squares) und die explizite Modellierung der Varianzfunktionen die beste Lösung.

Und die Varianzfunktion muss nicht einfach eine andere Konstante in jeder Gruppe sein; wir können es strukturieren. Zum Beispiel können wir die Varianz als Potenz des Mittelwerts jeder Gruppe modellieren (und müssen daher nur einen Parameter, den Exponenten, schätzen ) oder vielleicht als Logarithmus eines der Prädiktoren im Modell. All dies ist mit GLS (und gls()in R) sehr einfach .

Die verallgemeinerte Methode der kleinsten Quadrate ist meiner Meinung nach eine sehr wenig genutzte statistische Modellierungstechnik. Anstatt sich Gedanken über Abweichungen von den Modellannahmen zu machen, modellieren Sie diese Abweichungen!


1
Danke für die Antwort! Ich verstehe das Ergebnis von oneway.test () und gls () für ungleiche Varianz-ANOVA (Welch-ANOVA) nicht. Der p-Wert von oneway.test () ist p-value = 0,0003107. Der p-Wert von gls (x ~ Gruppe, Daten = d, Gewichte = varIdent (Form = ~ 1 | Gruppe)) ist 0,0001. Warum unterscheiden sich diese beiden Ergebnisse?
WCMC

2
Es gibt wachsende Bedenken hinsichtlich Korrekturen für mehrere Tests. Ich denke, dass die Meldung unkorrigierter p-Werte zusammen mit der Anzahl der von Ihnen durchgeführten Vergleiche transparenter ist. Insbesondere, weil Sie möglicherweise nicht an jedem paarweisen Vergleich interessiert sind, wenn Sie sie in R testen, wird die Korrektur unter Berücksichtigung nicht interessierender Vergleiche vorgenommen.
Nakx

7
  1. Es kann tatsächlich zu einer Transformation Ihrer Daten kommen, die zu einer akzeptablen Normalverteilung führt. In Ihrer Schlussfolgerung geht es jetzt natürlich um die transformierten Daten, nicht um die nicht transformierten Daten.

  2. Angenommen, Sie sprechen von einer Einweg-ANOVA, ist der Kruskal-Wallis- Test ein geeignetes nichtparametrisches Analogon zur Einweg-ANOVA. Der Dunn-Test (nicht der Rang-Summen-Test für Gartensorten) ist möglicherweise der häufigste nichtparametrische Test, der für paarweise Post-Hoc -Vergleiche geeignet ist , obwohl es auch andere Tests wie den Conover-Iman-Test gibt (der nach Ablehnung strenger ist als der Dunn-Test) des Kruskal-Wallis) und der Dwass-Steele-Crichtlow-Fligner-Test.

  3. Mehrfachvergleichsverfahren (ob familienbezogene Fehlerratensorte oder falsche Entdeckungsratensorte ) haben eigentlich nichts direkt mit Ihren spezifischen Testannahmen (z. B. Normalität von Daten) zu tun, sondern haben mit der Bedeutung von zu tunα (Bereitschaft, eine Nullhypothese falsch abzulehnen), vorausgesetzt, Sie führen mehrere Tests durch.

Die ANOVA basiert auf einem Verhältnis innerhalb der Gruppe und zwischen Gruppenvarianzen. Ich bin mir nicht ganz sicher, was Sie in diesem Zusammenhang unter Heteroskedastizität verstehen, aber wenn Sie ungleiche Varianzen zwischen Gruppen meinen, scheint dies die Logik der Nullhypothese des Tests grundlegend zu durchbrechen.

Eine einfache Google Scholar-Abfrage nach "Dunns Test" sowie ein allgemeiner Begriff aus Ihrem Fachgebiet sollten zahlreiche veröffentlichte Beispiele enthalten.


Verweise

Conover, WJ und Iman, RL (1979). Bei Mehrfachvergleichsverfahren . Technischer Bericht LA-7677-MS, Los Alamos Scientific Laboratory.

Crichtlow, DE und Fligner, MA (1991). Über verteilungsfreie Mehrfachvergleiche in der Einweg-Varianzanalyse . Kommunikationen in der Statistik - Theorie und Methoden , 20 (1): 127.

Dunn, ABl. (1964). Mehrfache Vergleiche mit Rangsummen . Technometrics , 6 (3): 241–252.


2
Ok, danke für diese Antwort, aber mir ist nicht ganz klar, was Sie sagen. Was die 'Heteroskedastizität' anbelangt, dachte ich, ich würde das Wort im gewöhnlichen Sinne verwenden: "Eine Sammlung von Zufallsvariablen ist heteroskedastisch, wenn es Teilpopulationen gibt, die andere Variabilitäten aufweisen. Hier könnte die" Variabilität "durch die Varianz oder quantifiziert werden jedes andere Maß für die statistische Streuung. "- Wikipedia. In meinen Daten sind die Varianzen der Untergruppen ungleich (laut Levene-Test), deshalb habe ich sie als heteroskedastisch beschrieben. Ist das nicht richtig?
Jas Max

1
Was ich wirklich zu diskutieren versuche, ist die Kluft zwischen Lehrbuchstatistik und der realen Welt. In jedem Lehrbuch heißt es: "Abweichungen müssen für ANOVA gleich sein", aber das sind sie natürlich nie. Unterbrechen wir also willkürlich einen bestimmten Punkt und wechseln zu einem anderen Test - wenn ja, zu welchem ​​Zeitpunkt? In meinem Fachgebiet (Pflanzenbiologie) verwenden die meisten Leute einfach jeden Test, für den sie geschult wurden, ohne viel nachzudenken. Damit bin ich nicht wirklich zufrieden. Ich würde mich über Vorschläge für Bücher / Websites freuen, auf denen die "praktische" Verwendung von Statistiken erörtert wird - dh welche Tests wann und warum verwendet werden sollen. Danke für den Vorschlag von Dunn, der hilft.
Jas Max

2
Ah, die Annahme gleicher Varianzen ist die Populationsvarianz, nicht die Stichprobenvarianz . Sie können schließen, dass die Populationsabweichungen gleich sind ... durch einen Augapfeltest oder durch einen anderen, beispielsweise statistischen Test.
Alexis

1
Woher wissen Sie etwas über die Populationsvarianz, wenn Sie nicht die Stichprobenvarianz auswerten? Ich interpretiere den p-Wert eines Levene-Tests als "Unter der Annahme, dass die Populationsvarianzen gleich sind, wie groß sind die Wahrscheinlichkeiten, dass Ihre Stichprobenvarianzen sich so stark unterscheiden würden." Wenn ich einen niedrigen p-Wert erhalte, lehne ich die Hypothese ab, dass die Populationsvarianzen gleich sind und ANOVA nicht verwendet werden kann. Kruskal-Wallace scheint eine gute Alternative zu sein. Ist es jedoch vorzuziehen, Daten so zu transformieren, dass sie den ANOVA-Annahmen entsprechen, und wenn ja, warum?
Jas Max

1
Ist auch Levenes Test, p <.05, der geeignete Test und Cutoff für diese Entscheidung? Was ist mit O'Briens, Bartletts? Die Ergebnisse dieser Tests können erheblich voneinander abweichen, und ich weiß nicht genau, welche ich verwenden soll. Deshalb entscheide ich mich für Levene, weil es die konservativste zu sein scheint. Aber vielleicht ist das übertrieben - vielleicht, weil ich zu schnell auf ANOVA verzichte, wechsle ich zu einem Test, der die statistische Aussagekraft meiner Analyse unnötig verringert.
Jas Max

1

Es klingt für mich so, als würden Sie Fußarbeit leisten und Ihr Bestes geben, aber Sie befürchten, dass Ihre Bemühungen nicht gut genug sind, um Ihre Arbeit an den Gutachtern vorbei zu bringen. Ein echtes Problem. Ich denke, alle Forscher haben Schwierigkeiten mit Analysen, die von Zeit zu Zeit grenzwertig zu sein scheinen oder sogar offen gegen Annahmen verstoßen. Immerhin gibt es Millionen von Artikeln, die z. B. Behandlungseffekte in 3 kleinen Gruppen von Mäusen mit etwa 6 bis 7 Mäusen in jeder Gruppe bewerten. Wie kann man wissen, ob Anova-Annahmen in einem solchen Papier erfüllt sind?

Ich habe eine große Anzahl von Artikeln speziell auf dem Gebiet der kardiovaskulären Pathophysiologie durchgesehen und bin mir eigentlich nie hundertprozentig sicher, ob ich den Daten in einem Artikel, den ich lese, vertrauen kann oder nicht. Aber für mich als Rezensent neige ich eigentlich dazu zu denken, dass Probleme dabei entstehen können vielen wissenschaftlichen Ebenen auftreten können, dass es wahrscheinlich wenig Sinn macht, zu tief in die Statistik einzudringen - schließlich könnte der gesamte Datensatz fabriziert werden, und ich würde es nie tun in einer Million Jahre erzählen zu können. Dementsprechend wird es in diesem Arbeitsbereich immer ein Vertrauenselement geben, das die Forscher niemals missbrauchen dürfen.

Der realistischste Vorschlag, den ich machen möchte, ist, dass Sie alles sorgfältig durchdenken müssen, bevor Sie ihn einreichen, und sicherstellen, dass Sie in der Lage sind, alle Fragen der Prüfer wahrheitsgemäß zu beantworten. Solange Sie Ihr Bestes gegeben haben, sind Ihre Absichten ehrlich und Sie schlafen nachts gut. Ich denke, Sie sollten in Ordnung sein.


2
Ich bin nicht sicher, ob ich damit einverstanden bin, dass ich Fälschungen nicht erkennen kann: Ich habe solche schon einmal gesehen.
Alexis
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.