Es gibt verschiedene Unterscheidungen zwischen linearen und nichtlinearen Regressionsmodellen, aber die primäre mathematische besteht darin, dass lineare Modelle in den Parametern linear sind, während nichtlineare Modelle in den Parametern nichtlinear sind. Pinheiro und Bates (2000, S. 284-285), Autoren des nlme
R-Pakets, beschrieben elegant die inhaltlicheren Überlegungen bei der Modellauswahl:
Wenn Sie ein Regressionsmodell auswählen, um zu beschreiben, wie sich eine Antwortvariable mit den Kovariaten ändert, haben Sie immer die Möglichkeit, Modelle wie Polynommodelle zu verwenden, die in den Parametern linear sind. Durch Erhöhen der Ordnung eines Polynommodells kann man innerhalb des beobachteten Bereichs der Daten immer genauere Annäherungen an die wahre, normalerweise nichtlineare Regressionsfunktion erhalten. Diese empirischen Modelle basieren nur auf der beobachteten Beziehung zwischen der Antwort und den Kovariaten und enthalten keine theoretischen Überlegungen zum zugrunde liegenden Mechanismus, der die Daten erzeugt. Andererseits sind nichtlineare Modelle oft mechanistisch, dh sie basieren auf einem Modell für den Mechanismus, der die Antwort erzeugt. Folglich haben die Modellparameter in einem nichtlinearen Modell im Allgemeinen eine natürliche physikalische Interpretation. Selbst wenn sie empirisch abgeleitet werden, enthalten nichtlineare Modelle normalerweise bekannte theoretische Eigenschaften der Daten, wie Asymptoten und Monotonie, und können in diesen Fällen als semimechanistische Modelle betrachtet werden. Ein nichtlineares Modell verwendet im Allgemeinen weniger Parameter als ein konkurrierendes lineares Modell, z. B. ein Polynom, und gibt eine genauere Beschreibung der Daten. Nichtlineare Modelle liefern auch zuverlässigere Vorhersagen für die Antwortvariable außerhalb des beobachteten Bereichs der Daten als beispielsweise polynomiale Modelle. Geben Sie eine genauere Beschreibung der Daten. Nichtlineare Modelle liefern auch zuverlässigere Vorhersagen für die Antwortvariable außerhalb des beobachteten Bereichs der Daten als beispielsweise polynomiale Modelle. eine sparsamere Beschreibung der Daten geben. Nichtlineare Modelle liefern auch zuverlässigere Vorhersagen für die Antwortvariable außerhalb des beobachteten Bereichs der Daten als beispielsweise polynomiale Modelle.
Es gibt auch einige große Unterschiede zwischen den Paketen nlme und lme4, die über das Linearitätsproblem hinausgehen. Mit nlme können Sie beispielsweise lineare oder nichtlineare Modelle anpassen und für jeden Typ die Varianz- und Korrelationsstrukturen für gruppeninterne Fehler angeben (z. B. autoregressiv). lme4 kann das nicht. Darüber hinaus können zufällige Effekte in beiden Paketen korrigiert oder gekreuzt werden. Es ist jedoch wesentlich einfacher (und rechnerisch effizienter), gekreuzte zufällige Effekte in lme4 anzugeben und zu modellieren.
Ich würde raten, zuerst a) zu überlegen, ob Sie ein nichtlineares Modell benötigen und b) ob Sie entweder die gruppeninterne Varianz oder die Korrelationsstrukturen angeben müssen. Wenn eine dieser Antworten Ja lautet, müssen Sie nlme verwenden (vorausgesetzt, Sie halten an R fest). Wenn Sie häufig mit linearen Modellen arbeiten, die zufällige Effekte oder komplizierte Kombinationen von verschachtelten und gekreuzten zufälligen Effekten aufweisen, ist lme4 wahrscheinlich die bessere Wahl. Möglicherweise müssen Sie lernen, beide Pakete zu verwenden. Ich habe zuerst lme4 gelernt und dann gemerkt, dass ich nlme verwenden muss, weil ich fast immer mit autoregressiven Fehlerstrukturen arbeite. Ich bevorzuge jedoch immer noch lme4, wenn ich Daten aus Experimenten mit gekreuzten Faktoren analysiere. Die gute Nachricht ist, dass vieles, was ich über lme4 gelernt habe, gut auf nlme übertragen wurde. In jedem Fall,
Verweise
Pinheiro, JC & amp; Bates, DM (2000). Mixed-Effects-Modelle in S und S-PLUS . New York: Springer-Verlag.