Eine Trennung tritt auf, wenn einige Klassen eines kategorialen Ergebnisses durch eine lineare Kombination anderer Variablen perfekt unterschieden werden können.
Wenn Sie eine Variable haben, die Nullen und Einsen in der Zielvariablen perfekt trennt, gibt R die folgende Warnmeldung "perfekte oder quasi perfekte Trennung" aus: Warning message: glm.fit: fitted probabilities numerically 0 or 1 occurred Wir haben immer noch das Modell, aber die Koeffizientenschätzungen sind überhöht. Wie gehen Sie in …
Ich versuche, ein binäres Ergebnis unter Verwendung von 50 kontinuierlichen erklärenden Variablen vorherzusagen (der Bereich der meisten Variablen ist bis ). Mein Datensatz enthält fast 24.000 Zeilen. Wenn ich in R renne, bekomme ich:−∞−∞-\infty∞∞\inftyglm Warning messages: 1: glm.fit: algorithm did not converge 2: glm.fit: fitted probabilities numerically 0 or 1 …
Ich habe einige Daten zu Fluglinienflügen (in einem Datenrahmen mit dem Namen flights) und möchte prüfen, ob die Flugzeit einen Einfluss auf die Wahrscheinlichkeit einer erheblich verspäteten Ankunft hat (dh 10 oder mehr Minuten). Ich nahm an, dass ich logistische Regression verwenden würde, mit der Flugzeit als Prädiktor und ob …
Warum wird die logistische Regression instabil, wenn die Klassen gut voneinander getrennt sind? Was bedeuten gut getrennte Klassen? Ich würde mich sehr freuen, wenn sich jemand mit einem Beispiel erklären kann.
Bei Datenpunkten mit jeweils Merkmalen werden als und die anderen als . Jedes Merkmal erhält zufällig einen Wert von (gleichmäßige Verteilung). Wie groß ist die Wahrscheinlichkeit, dass es eine Hyperebene gibt, die die beiden Klassen aufteilen kann?d n / 2 0 n / 2 1 [ 0 , 1 ]nnndddn …
In einem kleinen Datensatz ( ), mit dem ich arbeite, geben mir mehrere Variablen eine perfekte Vorhersage / Trennung . Ich benutze daher die logistische Regression von Firth , um das Problem zu lösen.n ≤ 100n∼100n\sim100 Wenn ich das beste Modell nach AIC oder BIC auswähle , sollte ich bei …
Wir haben viele gute Diskussionen über die perfekte Trennung in der logistischen Regression. So führte die logistische Regression in R zu einer perfekten Trennung (Hauck-Donner-Phänomen). Was jetzt? Das logistische Regressionsmodell konvergiert nicht . Ich persönlich glaube immer noch, dass es nicht intuitiv ist, warum es ein Problem sein wird und …
In meinem Projekt möchte ich ein logistisches Regressionsmodell zur Vorhersage der binären Klassifikation (1 oder 0) erstellen. Ich habe 15 Variablen, von denen 2 kategorisch sind, während der Rest eine Mischung aus kontinuierlichen und diskreten Variablen ist. Um ein logistisches Regressionsmodell anzupassen, wurde mir geraten, die lineare Trennbarkeit entweder mit …
Ich versuche, die logistische Regression von Firth zu verstehen (Methode zum Behandeln einer perfekten / vollständigen oder quasi vollständigen Trennung in der logistischen Regression), damit ich sie anderen in vereinfachten Begriffen erklären kann. Hat jemand eine abgedrehte Erklärung, welche Änderung Firth-Schätzung an MLE vornimmt? Ich habe nach bestem Wissen Firth …
Ich habe das Modell mit optimiert caret, aber dann das Modell mit dem gbmPaket erneut ausgeführt. Nach meinem Verständnis sollten das verwendete caretPaket gbmund die Ausgabe identisch sein. Nur ein kurzer Testlauf mit data(iris)zeigt jedoch eine Diskrepanz im Modell von etwa 5% unter Verwendung von RMSE und R ^ 2 …
Ich führe ein glmm mit einer binomialen Antwortvariablen und einem kategorialen Prädiktor aus. Der zufällige Effekt ergibt sich aus dem verschachtelten Design, das für die Datenerfassung verwendet wird. Die Daten sehen folgendermaßen aus: m.gen1$treatment [1] sucrose control protein control no_injection ..... Levels: no_injection control sucrose protein m.gen1$emergence [1] 1 0 …
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
Bezogen auf das obige Bild kann ein Kreis die beiden Klassen deutlich trennen (linkes Bild). Warum dann so viel Mühe auf sich nehmen, um es einer Funktion zuzuordnen, damit es linear trennbar ist (rechtes Bild)? Kann jemand bitte erklären? Ich konnte wirklich nichts im Web oder in Youtube-Vorträgen über das …
Wir können eine lineare Regression ohne Zufälligkeit simulieren, was bedeutet, dass wir y=Xβy=Xβy=X\beta anstelle von y=Xβ+ϵy=Xβ+ϵy=X\beta+\epsilon . Wenn wir dann ein lineares Modell anpassen, sind die Koeffizienten identisch mit der "Grundwahrheit". Hier ist ein Beispiel. set.seed(0) n <- 1e5 p <- 3 X <- matrix(rnorm(n*p), ncol=p) beta <- runif(p) # …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.