Als «logistic» getaggte Fragen

Bezieht sich allgemein auf statistische Verfahren, die die logistische Funktion nutzen, am häufigsten verschiedene Formen der logistischen Regression

4
Vergleich logistischer Regressionskoeffizienten modellübergreifend?
Ich habe ein Logit-Modell entwickelt, das auf sechs verschiedene Sätze von Querschnittsdaten angewendet werden kann. Ich versuche herauszufinden, ob sich die inhaltliche Wirkung einer bestimmten unabhängigen Variablen (IV) auf die abhängige Variable (DV) ändert, die zu unterschiedlichen Zeiten und im Laufe der Zeit nach anderen Erklärungen sucht. Meine Fragen sind: …
11 logistic  spss 

6
Vorhersage nach Ausführung der mlogit-Funktion in R.
predictFolgendes möchte ich tun, aber es scheint keine Methode für den mlogit zu geben. Irgendwelche Ideen? library(mlogit) data("Fishing", package = "mlogit") Fish <- mlogit.data(Fishing, varying = c(2:9), shape = "wide", choice = "mode") Fish_fit<-Fish[-1,] Fish_test<-Fish[1,] m <- mlogit(mode ~price+ catch | income, data = Fish_fit) predict(m,newdata=Fish_test)

4
Berechnung der Stichprobengröße für univariate logistische Regression
Wie berechnet man die Stichprobengröße, die für eine Studie benötigt wird, in der eine Kohorte von Probanden zum Zeitpunkt einer Operation eine einzige kontinuierliche Variable misst und diese zwei Jahre später als funktionelles Ergebnis oder beeinträchtigtes Ergebnis klassifiziert wird? Wir würden gerne sehen, ob diese Messung das schlechte Ergebnis hätte …


1
Warum ist es falsch, SVM als Klassifizierungswahrscheinlichkeiten zu interpretieren?
Mein Verständnis von SVM ist, dass es einer logistischen Regression (LR) sehr ähnlich ist, dh eine gewichtete Summe von Merkmalen wird an die Sigmoidfunktion übergeben, um eine Wahrscheinlichkeit der Zugehörigkeit zu einer Klasse zu erhalten, jedoch anstelle des Verlusts der Kreuzentropie (logistisch) Funktion wird das Training mit dem Scharnierverlust durchgeführt. …

1
R / mgcv: Warum produzieren te () und ti () Tensorprodukte unterschiedliche Oberflächen?
Das mgcvPaket für Rhat zwei Funktionen zum Anpassen von Tensorproduktwechselwirkungen: te()und ti(). Ich verstehe die grundlegende Arbeitsteilung zwischen den beiden (Anpassen einer nichtlinearen Wechselwirkung vs. Zerlegen dieser Wechselwirkung in Haupteffekte und eine Wechselwirkung). Was ich nicht verstehe, ist warum te(x1, x2)und ti(x1) + ti(x2) + ti(x1, x2)kann (leicht) unterschiedliche Ergebnisse …
11 r  gam  mgcv  conditional-probability  mixed-model  references  bayesian  estimation  conditional-probability  machine-learning  optimization  gradient-descent  r  hypothesis-testing  wilcoxon-mann-whitney  time-series  bayesian  inference  change-point  time-series  anova  repeated-measures  statistical-significance  bayesian  contingency-tables  regression  prediction  quantiles  classification  auc  k-means  scikit-learn  regression  spatial  circular-statistics  t-test  effect-size  cohens-d  r  cross-validation  feature-selection  caret  machine-learning  modeling  python  optimization  frequentist  correlation  sample-size  normalization  group-differences  heteroscedasticity  independence  generalized-least-squares  lme4-nlme  references  mcmc  metropolis-hastings  optimization  r  logistic  feature-selection  separation  clustering  k-means  normal-distribution  gaussian-mixture  kullback-leibler  java  spark-mllib  data-visualization  categorical-data  barplot  hypothesis-testing  statistical-significance  chi-squared  type-i-and-ii-errors  pca  scikit-learn  conditional-expectation  statistical-significance  meta-analysis  intuition  r  time-series  multivariate-analysis  garch  machine-learning  classification  data-mining  missing-data  cart  regression  cross-validation  matrix-decomposition  categorical-data  repeated-measures  chi-squared  assumptions  contingency-tables  prediction  binary-data  trend  test-for-trend  matrix-inverse  anova  categorical-data  regression-coefficients  standard-error  r  distributions  exponential  interarrival-time  copula  log-likelihood  time-series  forecasting  prediction-interval  mean  standard-error  meta-analysis  meta-regression  network-meta-analysis  systematic-review  normal-distribution  multiple-regression  generalized-linear-model  poisson-distribution  poisson-regression  r  sas  cohens-kappa 

3
Wie trainiere ich eine (logistische?) Regression in R mithilfe der L1-Verlustfunktion?
Ich kann eine logistische Regression in der RVerwendung trainieren glm(y ~ x, family=binomial(logit))) IIUC optimiert dies jedoch für die Protokollwahrscheinlichkeit. Gibt es eine Möglichkeit, das Modell mit der linearen ( ) Verlustfunktion zu trainieren (die in diesem Fall der gesamten Variationsentfernung entspricht )?L1L1L_1 Das heißt, wenn ein numerischer Vektor und …
11 logistic 

2
Logistische Regression: Interpretation kontinuierlicher Variablen
Ich hatte einige Fragen zur Interpretation von Quotenverhältnissen für kontinuierliche Variablen in der logistischen Regression. Ich denke, dies sind grundlegende Fragen zur logistischen Regression (und wahrscheinlich zur Regression im Allgemeinen), und obwohl ich mich ein wenig schäme, dass ich die Antworten nicht kenne, werde ich meinen Stolz schlucken und sie …

1
So wählen Sie die Grenzwahrscheinlichkeit für eine logistische Regression für seltene Ereignisse
Ich habe 100.000 Beobachtungen (9 Dummy-Indikatorvariablen) mit 1000 positiven. Die logistische Regression sollte in diesem Fall gut funktionieren, aber die Cutoff-Wahrscheinlichkeit verwirrt mich. In der allgemeinen Literatur wählen wir einen Cutoff von 50%, um Einsen und Nullen vorherzusagen. Ich kann dies nicht tun, da mein Modell einen Maximalwert von ~ …

2
Transformieren Sie kontinuierliche Variablen für die logistische Regression
Ich habe große Umfragedaten, eine binäre Ergebnisvariable und viele erklärende Variablen, einschließlich binärer und kontinuierlicher. Ich baue Modellsätze (experimentiere sowohl mit GLM als auch mit gemischtem GLM) und verwende informationstheoretische Ansätze, um das Topmodell auszuwählen. Ich habe die Erklärungen (sowohl kontinuierlich als auch kategorisch) sorgfältig auf Korrelationen untersucht und verwende …

3
Wie erstelle ich eine Verwirrungsmatrix für einen Klassifikator mit mehreren Klassen?
Ich habe ein Problem mit 6 Klassen. Daher erstelle ich einen Klassifikator für mehrere Klassen wie folgt: Für jede Klasse habe ich einen Klassifikator für die logistische Regression, der Eins gegen Alle verwendet, was bedeutet, dass ich 6 verschiedene Klassifikatoren habe. Ich kann für jeden meiner Klassifikatoren eine Verwirrungsmatrix melden. …

2
Warum werden potenzierte logistische Regressionskoeffizienten als „Odds Ratios“ betrachtet?
Die logistische Regression modelliert die logarithmischen Quoten eines Ereignisses als eine Reihe von Prädiktoren. Das heißt, log (p / (1-p)), wobei p die Wahrscheinlichkeit eines Ergebnisses ist. Daher muss die Interpretation der rohen logistischen Regressionskoeffizienten für eine Variable (x) auf der logarithmischen Quotenskala liegen. Das heißt, wenn der Koeffizient für …

2
Testen auf Koeffizientensignifikanz in der Lasso-Logistikregression
[Eine ähnliche Frage wurde hier ohne Antworten gestellt] Ich habe ein logistisches Regressionsmodell mit L1-Regularisierung (Lasso-logistische Regression) angepasst und möchte die angepassten Koeffizienten auf Signifikanz testen und ihre p-Werte erhalten. Ich weiß, dass Walds Tests (zum Beispiel) eine Option sind, um die Signifikanz einzelner Koeffizienten in vollständiger Regression ohne Regularisierung …


3
RBF SVM-Anwendungsfälle (vs. logistische Regression und zufällige Gesamtstruktur)
Support Vector Machines mit Radial-Base-Funktionskernel ist ein universell beaufsichtigter Klassifikator. Obwohl ich die theoretischen Grundlagen für diese SVMs und ihre Stärken kenne, sind mir keine Fälle bekannt, in denen sie die bevorzugte Methode sind. Gibt es also eine Klasse von Problemen, bei denen RBF-SVMs anderen ML-Techniken überlegen sind? (Entweder in …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.