Akaike Information Criterion (AIC) und die c-Statistik (Fläche unter der ROC-Kurve) sind zwei Messgrößen für die logistische Regression. Es fällt mir schwer zu erklären, was passiert, wenn die Ergebnisse der beiden Maßnahmen nicht konsistent sind. Ich denke, sie messen etwas unterschiedliche Aspekte der Modellanpassung, aber was sind diese spezifischen Aspekte? …
Ich habe mich schon einmal mit dem Naive Bayes- Klassifikator befasst. Ich habe in letzter Zeit über Multinomial Naive Bayes gelesen . Auch hintere Wahrscheinlichkeit = (Prior * Likelihood) / (Evidence) . Der einzige Hauptunterschied (während ich diese Klassifikatoren programmierte), den ich zwischen Naive Bayes und Multinomial Naive Bayes fand, …
SPSS bietet verschiedene Methoden zur Faktorextraktion an: Hauptkomponenten (die überhaupt keine Faktorenanalyse sind) Ungewichtete kleinste Quadrate Verallgemeinerte kleinste Quadrate Maximale Wahrscheinlichkeit Hauptachse Alpha Factoring Image Factoring Wenn Sie die erste Methode ignorieren, bei der es sich nicht um eine Faktoranalyse (sondern um eine Hauptkomponentenanalyse, PCA) handelt, welche dieser Methoden ist …
Ich bin etwas neu in der Verwendung der logistischen Regression und ein bisschen verwirrt von einer Diskrepanz zwischen meinen Interpretationen der folgenden Werte, die ich für gleich gehalten hätte: potenzierte Beta-Werte vorhergesagte Wahrscheinlichkeit des Ergebnisses anhand von Beta-Werten. Hier ist eine vereinfachte Version des von mir verwendeten Modells, bei dem …
Die angewandte Wahrscheinlichkeit ist ein wichtiger Zweig der Wahrscheinlichkeit, einschließlich der rechnerischen Wahrscheinlichkeit. Da die Statistik nach meinem Verständnis die Wahrscheinlichkeitstheorie verwendet, um Modelle für den Umgang mit Daten zu erstellen, frage ich mich, was der wesentliche Unterschied zwischen dem statistischen Modell und dem Wahrscheinlichkeitsmodell ist. Wahrscheinlichkeitsmodell benötigt keine realen …
Wir brauchen ein Frühwarnsystem. Ich habe es mit einem Server zu tun, bei dem Leistungsprobleme unter Last bekannt sind. Fehler werden zusammen mit einem Zeitstempel in einer Datenbank aufgezeichnet. Es gibt einige manuelle Eingriffsschritte, mit denen die Serverauslastung verringert werden kann, aber nur, wenn jemand das Problem kennt ... Wie …
Ich versuche nur, eine Behauptung zu wiederholen , die in dem folgenden Artikel , Finden von korrelierten Biklustern aus Genexpressionsdaten , gemacht wurde: Proposition 4. Wenn . dann haben wir:XichJ= RichCTJXichJ=RichCJTX_{IJ}=R_{I}C^{T}_{J} ich. Wenn ein perfekter Bicluster mit additivem Modell ist, dann ist ein perfekter Bicluster mit Korrelation auf Spalten; ii. …
Es scheint mir, dass nur zwei R-Pakete in der Lage sind, Latent Dirichlet Allocation durchzuführen : Einer ist lda, verfasst von Jonathan Chang; und die andere stammt topicmodelsvon Bettina Grün und Kurt Hornik. Was sind die Unterschiede zwischen diesen beiden Paketen in Bezug auf Leistung, Implementierungsdetails und Erweiterbarkeit?
Ich möchte den Unterschied in der Reaktion zweier Variablen auf einen Prädiktor testen. Hier ist ein minimal reproduzierbares Beispiel. library(nlme) ## gls is used in the application; lm would suffice for this example m.set <- gls(Sepal.Length ~ Petal.Width, data = iris, subset = Species == "setosa") m.vir <- gls(Sepal.Length ~ …
Ich habe einen Vektor mit einer Poisson-Verteilung wie folgt generiert: x = rpois(1000,10) Wenn ich ein Histogramm mit mache hist(x), sieht die Verteilung wie eine bekannte glockenförmige Normalverteilung aus. Ein Kolmogorov-Smirnoff-Test zeigt jedoch, ks.test(x, 'pnorm',10,3)dass sich die Verteilung aufgrund des sehr geringen pWerts erheblich von einer Normalverteilung unterscheidet . Meine …
Ich bin ziemlich neu in der Statistik und brauche deine Hilfe. Ich habe eine kleine Auswahl wie folgt: H4U 0.269 0.357 0.2 0.221 0.275 0.277 0.253 0.127 0.246 Ich habe den Shapiro-Wilk-Test mit R durchgeführt: shapiro.test(precisionH4U$H4U) und ich habe folgendes Ergebnis erhalten: W = 0.9502, p-value = 0.6921 Wenn ich …
Gibt es in R (eine eingebaute Funktion) eine Möglichkeit, die Übergangsmatrix für eine Markov-Kette aus einer Reihe von Beobachtungen zu berechnen? Nehmen Sie zum Beispiel einen Datensatz wie den folgenden und berechnen Sie die Übergangsmatrix erster Ordnung? dat<-data.frame(replicate(20,sample(c("A", "B", "C","D"), size = 100, replace=TRUE)))
Ich habe einen Datensatz mit einer großen Anzahl von Ja / Nein-Antworten. Kann ich für diese Art von Daten Hauptkomponenten (PCA) oder andere Datenreduktionsanalysen (z. B. Faktoranalyse) verwenden? Bitte teilen Sie mir mit, wie ich dies mit SPSS mache.
Ich möchte lernen, wie Gibbs Sampling funktioniert, und suche nach einem guten Basis- bis Zwischenpapier. Ich habe einen Informatikhintergrund und grundlegende statistische Kenntnisse. Hat jemand gutes Material gelesen? wo hast du es gelernt? Vielen Dank
Ich verwende die auto.arima () -Funktion im Vorhersagepaket , um ARMAX-Modelle mit einer Vielzahl von Kovariaten zu kombinieren. Ich habe jedoch oft eine große Anzahl von Variablen zur Auswahl und erhalte normalerweise ein endgültiges Modell, das mit einer Teilmenge von ihnen funktioniert. Ich mag keine Ad-hoc-Techniken für die Variablenauswahl, weil …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.