`rpart` ist ein R-Paket, das eine Reihe von Routinen für Regressionsbäume und rekursive Partitionierungsalgorithmen bereitstellt. Dieses Paket wird häufig für Klassifizierungsprobleme verwendet.
Was ist "Abweichung", wie wird sie berechnet und wie werden sie in verschiedenen Bereichen der Statistik verwendet? Insbesondere interessiere ich mich persönlich für die Verwendung in CART (und die Implementierung in rpart in R). Ich frage dies, da der Wiki-Artikel etwas zu wünschen übrig lässt und Ihre Einsichten sehr willkommen …
Wenn Sie ein CART-Modell (insbesondere einen Klassifizierungsbaum) mit rpart (in R) erstellen, ist es häufig interessant zu wissen, welche Bedeutung die verschiedenen Variablen haben, die in das Modell eingeführt werden. Meine Frage lautet daher: Welche gängigen Maße gibt es für das Ranking / Messen der Variablenwichtigkeit von beteiligten Variablen in …
In der Routine rpart () zum Erstellen von CART-Modellen geben Sie den Komplexitätsparameter an, auf den Sie Ihren Baum beschneiden möchten. Ich habe zwei verschiedene Empfehlungen für die Auswahl des Komplexitätsparameters gesehen: Wählen Sie den Komplexitätsparameter aus, der mit dem minimal möglichen quervalidierten Fehler verknüpft ist. Diese Methode wird von …
Es ist schon eine Weile her, dass ich mir das Teilen von Bäumen angesehen habe. Als ich das letzte Mal so etwas gemacht habe, mag ich Party in R (erstellt von Hothorn). Die Idee der bedingten Folgerung durch Stichproben ist für mich sinnvoll. Aber rpart hatte auch Anklang. In der …
Kurzversion: Ich suche ein R-Paket, das Entscheidungsbäume erstellen kann, während jedes Blatt im Entscheidungsbaum ein vollständiges lineares Regressionsmodell ist. AFAIK, die Bibliothek rparterstellt Entscheidungsbäume, in denen die abhängige Variable in jedem Blatt konstant ist. Gibt es eine andere Bibliothek (oder eine rpartEinstellung, die mir nicht bekannt ist), die solche Bäume …
Ich bin gespannt auf die praktische Umsetzung einer binären Aufteilung in einem Entscheidungsbaum - bezogen auf Ebenen eines kategorialen Prädiktors .XjXjX{j} Insbesondere verwende ich beim Erstellen eines Vorhersagemodells unter Verwendung eines Entscheidungsbaums oft ein Stichprobenverfahren (z. B. Absacken, Überstichproben usw.), um die Genauigkeit und Stabilität der Vorhersage zu verbessern. Während …
Gibt es eine Möglichkeit, nach Erstellung eines komplexen Klassifizierungsbaums mit rpart (in R) die für jede Klasse erstellten Entscheidungsregeln zu organisieren? Anstatt also einen riesigen Baum zu bekommen, bekommen wir eine Reihe von Regeln für jede der Klassen? (Wenn das so ist, wie?) Hier ist ein einfaches Codebeispiel, um Beispiele …
Ich habe ein GLMM der Form: lmer(present? ~ factor1 + factor2 + continuous + factor1*continuous + (1 | factor3), family=binomial) Wenn ich benutze drop1(model, test="Chi"), erhalte ich andere Ergebnisse als wenn ich Anova(model, type="III")aus dem Autopaket oder benutze summary(model). Diese beiden letzteren geben die gleichen Antworten. Unter Verwendung einer Reihe …
Ich bin ein Neuling in der Überlebensanalyse, obwohl ich einige Kenntnisse in Klassifikation und Regression habe. Für die Regression haben wir MSE- und R-Quadrat-Statistiken. Aber wie können wir sagen, dass das Überlebensmodell A neben einigen grafischen Darstellungen (KM-Kurve) dem Überlebensmodell B überlegen ist? Wenn möglich, erläutern Sie den Unterschied anhand …
Ich habe rpart.controlfür verwendet minsplit=2und habe die folgenden Ergebnisse von der rpart()Funktion erhalten. Muss ich Splits 3 oder Splits 7 verwenden, um eine Überanpassung der Daten zu vermeiden? Sollte ich nicht Splits 7 verwenden? Lass es mich wissen, bitte. Tatsächlich in der Baumkonstruktion verwendete Variablen: [1] ct_a ct_b usr_a Root …
rpartSoweit ich weiß, hilft das Argument cp für die Funktion dabei, den Baum auf die gleiche Weise wie die Argumente minsplit oder minbucket vorab zu bereinigen. Was ich nicht verstehe, ist, wie CP-Werte berechnet werden. Zum Beispiel df<-data.frame(x=c(1,2,3,3,3,4), y=as.factor(c(TRUE, TRUE, FALSE, TRUE, FALSE, FALSE)), method="class") mytree<-rpart(y ~ x, data = …
Ich habe eine Frage zu den "Gewichten" und "Prior" in Rs rpart-Funktion. Diese Frage wurde hier schon einmal gestellt , aber die Antwort macht keinen Sinn. Derzeit habe ich sehr unausgeglichene Daten, bei denen das Ziel nur 0,0066% des gesamten Datensatzes beträgt, der über 2 Millionen Zeilen enthält. Ich möchte …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.