Als «predictive-models» getaggte Fragen

Vorhersagemodelle sind statistische Modelle, deren Hauptzweck darin besteht, andere Beobachtungen eines Systems optimal vorherzusagen, im Gegensatz zu Modellen, deren Zweck darin besteht, eine bestimmte Hypothese zu testen oder ein Phänomen mechanistisch zu erklären. Vorhersagemodelle legen daher weniger Wert auf Interpretierbarkeit als vielmehr auf Leistung.


1
Wenn Sie ein Regressionsmodell mit separaten Modellierungs- / Validierungssätzen erstellen, ist es angemessen, die Validierungsdaten erneut zu verteilen?
Angenommen, ich habe eine 80/20 Aufteilung zwischen Modellierungs- / Validierungsbeobachtungen. Ich habe ein Modell an den Modellierungsdatensatz angepasst und bin mit dem Fehler, den ich im Validierungsdatensatz sehe, einverstanden. Ist es angebracht, die Validierung mit den Modellierungsdaten zu kombinieren, um aktualisierte Parameterschätzungen für die 100% -Daten zu erhalten, bevor ich …

2
Wann sollten Sie Ihre Variablen protokollieren / erweitern, wenn Sie Modelle mit zufälligen Gesamtstrukturen verwenden?
Ich mache eine Regression mit Random Forests, um Preise basierend auf mehreren Attributen vorherzusagen. Code wird in Python mit Scikit-learn geschrieben. Wie entscheiden Sie, ob Sie Ihre Variablen mit exp/ transformieren sollen, logbevor Sie sie für das Regressionsmodell verwenden? Ist es notwendig, einen Ensemble-Ansatz wie Random Forest zu verwenden?



2
Quantile Regressionsvorhersage
Ich bin daran interessiert, die Quantilregression für einige meiner Modelle zu verwenden, möchte jedoch einige Erläuterungen dazu erhalten, was ich mit dieser Methodik erreichen kann. Ich verstehe, dass ich eine zuverlässigere Analyse der IV / DV- Beziehung erhalten kann , insbesondere bei Ausreißern und Heteroskedastizität, aber in meinem Fall liegt …

2
Was ist Schrumpfung?
Das Wort Schrumpfung wird in bestimmten Kreisen häufig verwendet. Aber was Schrumpfung ist, scheint es keine klare Definition zu geben. Wenn ich eine Zeitreihe (oder eine Sammlung von Beobachtungen eines Prozesses) habe, auf welche Weise kann ich eine Art empirischen Schrumpfens an der Reihe messen? Über welche verschiedenen Arten der …

2
Wie wählt man die optimale Behälterbreite beim Kalibrieren von Wahrscheinlichkeitsmodellen?
Hintergrund: Hier gibt es einige gute Fragen und Antworten zur Kalibrierung von Modellen, die die Wahrscheinlichkeiten eines eintretenden Ergebnisses vorhersagen. Beispielsweise Brier-Score und seine Zerlegung in Auflösung, Unsicherheit und Zuverlässigkeit . Kalibrierungsdiagramme und isotonische Regression . Diese Methoden erfordern häufig die Verwendung einer Binning-Methode für die vorhergesagten Wahrscheinlichkeiten, sodass das …

1
Anpassungstest in der logistischen Regression; Welche "Passform" möchten wir testen?
Ich beziehe mich auf die Frage und ihre Antworten: Wie kann die (Wahrscheinlichkeits-) Vorhersagefähigkeit von Modellen verglichen werden, die aus logistischen Regressionen entwickelt wurden? von @Clark Chong und Antworten / Kommentare von @Frank Harrell. und auf die Frage Freiheitsgrade von χ2χ2\chi^2 im Hosmer-Lemeshow-Test und die Kommentare. Ich habe den Aufsatz …

1
Gibt es ein Problem mit Multikollinearität und Splines-Regression?
Bei Verwendung natürlicher (dh eingeschränkter) kubischer Splines sind die erzeugten Basisfunktionen hochgradig kollinear, und bei Verwendung in einer Regression scheinen sich sehr hohe VIF-Statistiken (Varianzinflationsfaktor) zu ergeben, die Multikollinearität signalisieren. Wenn man den Fall eines Modells für Vorhersagezwecke in Betracht zieht, ist dies ein Problem? Es scheint, als ob dies …

1
Unterschiede zwischen PROC Mixed und lme / lmer in R - Freiheitsgraden
Hinweis: Diese Frage ist ein Repost, da meine vorherige Frage aus rechtlichen Gründen gelöscht werden musste. Beim Vergleich von PROC MIXED von SAS mit der Funktion lmeaus dem nlmePaket in R bin ich auf einige verwirrende Unterschiede gestoßen. Insbesondere unterscheiden sich die Freiheitsgrade in den verschiedenen Tests zwischen PROC MIXEDund …
12 r  mixed-model  sas  degrees-of-freedom  pdf  unbiased-estimator  distance-functions  functional-data-analysis  hellinger  time-series  outliers  c++  relative-risk  absolute-risk  rare-events  regression  t-test  multiple-regression  survival  teaching  multiple-regression  regression  self-study  t-distribution  machine-learning  recommender-system  self-study  binomial  standard-deviation  data-visualization  r  predictive-models  pearson-r  spearman-rho  r  regression  modeling  r  categorical-data  data-visualization  ggplot2  many-categories  machine-learning  cross-validation  weka  microarray  variance  sampling  monte-carlo  regression  cross-validation  model-selection  feature-selection  elastic-net  distance-functions  information-theory  r  regression  mixed-model  random-effects-model  fixed-effects-model  dataset  data-mining 

2
Domain-Agnostic Feature Engineering, das semantische Bedeutung behält?
Feature Engineering ist oft ein wichtiger Bestandteil des maschinellen Lernens (es wurde stark genutzt, um den KDD Cup 2010 zu gewinnen ). Ich finde jedoch, dass die meisten Feature-Engineering-Techniken entweder Zerstören Sie jede intuitive Bedeutung der zugrunde liegenden Funktionen oder sind sehr spezifisch für eine bestimmte Domäne oder sogar bestimmte …




Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.