Als «discriminant-analysis» getaggte Fragen

Die lineare Diskriminanzanalyse (LDA) ist eine Methode zur Reduzierung und Klassifizierung der Dimensionalität. Es findet einen niedrigdimensionalen Unterraum mit der stärksten Klassentrennung und verwendet ihn zur Durchführung der Klassifizierung. Verwenden Sie dieses Tag auch für quadratische DA (QDA).

2
Logistische Regression vs. LDA als Zwei-Klassen-Klassifizierer
Ich versuche, mich mit dem statistischen Unterschied zwischen linearer Diskriminanzanalyse und logistischer Regression auseinanderzusetzen . Wenn ich richtig verstehe , sagt LDA für ein Zweiklassen- Klassifizierungsproblem zwei Normaldichtefunktionen (eine für jede Klasse) voraus, die eine lineare Grenze dort bilden, wo sie sich schneiden, während die logistische Regression nur die ungerade …

2
Warum funktioniert Pythons Scikit-Learn-LDA nicht richtig und wie berechnet es LDA über SVD?
Ich habe die lineare Diskriminanzanalyse (LDA) aus der scikit-learnmaschinellen Lernbibliothek (Python) zur Dimensionsreduktion verwendet und war ein wenig neugierig auf die Ergebnisse. Ich frage mich jetzt, was die LDA scikit-learntut, damit die Ergebnisse anders aussehen als beispielsweise ein manueller Ansatz oder eine in R durchgeführte LDA. Es wäre großartig, wenn …


1
PCA, LDA, CCA und PLS
Wie hängen PCA, LDA, CCA und PLS zusammen? Sie scheinen alle "spektral" und linear algebraisch und sehr gut verstanden zu sein (sagen wir 50+ Jahre Theorie, die um sie herum aufgebaut sind). Sie werden für sehr unterschiedliche Zwecke verwendet (PCA zur Dimensionsreduzierung, LDA zur Klassifizierung, PLS zur Regression), fühlen sich …

2
Ist es sinnvoll, PCA und LDA zu kombinieren?
Angenommen, ich habe einen Datensatz für eine überwachte statistische Klassifizierungsaufgabe, z. B. über einen Bayes-Klassifizierer. Dieser Datensatz besteht aus 20 Merkmalen, und ich möchte ihn mithilfe von Dimensionalitätsreduktionstechniken wie der Hauptkomponentenanalyse (PCA) und / oder der linearen Diskriminanzanalyse (LDA) auf zwei Merkmale reduzieren. Beide Techniken projizieren die Daten auf einen …


1
Wie LDA, eine Klassifikationstechnik, auch als Dimensionsreduktionstechnik wie PCA dient
In diesem Artikel verknüpft der Autor die lineare Diskriminanzanalyse (LDA) mit der Hauptkomponentenanalyse (PCA). Mit meinen begrenzten Kenntnissen kann ich nicht nachvollziehen, wie LDA PCA ähneln kann. Ich habe immer gedacht, dass LDA eine Art Klassifizierungsalgorithmus ist, ähnlich der logistischen Regression. Ich würde mich über eine Hilfe freuen, um zu …

1
Berechnen und zeichnen Sie die LDA-Entscheidungsgrenze
Ich habe eine grafische Darstellung der linearen Diskriminanzanalyse (LDA) mit Entscheidungsgrenzen aus den Elementen des statistischen Lernens gesehen : Ich verstehe, dass Daten auf einen unterdimensionalen Unterraum projiziert werden. Ich möchte jedoch wissen, wie wir die Entscheidungsgrenzen in der ursprünglichen Dimension erhalten, so dass ich die Entscheidungsgrenzen auf einen unterdimensionalen …

1
Wie hängt MANOVA mit LDA zusammen?
An mehreren Stellen sah ich die Behauptung, dass MANOVA wie ANOVA plus lineare Diskriminanzanalyse (LDA) ist, aber es wurde immer auf eine Art von Handbewegung gemacht. Ich würde gerne wissen, was es genau bedeuten soll. Ich habe verschiedene Lehrbücher gefunden, die alle Details von MANOVA-Berechnungen beschreiben, aber es scheint sehr …

2
Wie reduziert die lineare Diskriminanzanalyse die Dimensionen?
Es gibt Wörter aus "Die Elemente des statistischen Lernens" auf Seite 91: Die K-Schwerpunkte im p-dimensionalen Eingangsraum überspannen höchstens den K-1-dimensionalen Unterraum, und wenn p viel größer als K ist, ist dies ein beträchtlicher Dimensionsabfall. Ich habe zwei Fragen: Warum überspannen die K-Schwerpunkte im p-dimensionalen Eingaberaum höchstens den K-1-dimensionalen Unterraum? …


2
Was sind "Koeffizienten linearer Diskriminanten" in LDA?
In verwende Rich die ldaFunktion aus der Bibliothek, MASSum die Klassifizierung durchzuführen. Wie ich LDA verstehe, wird dem Eingang die Bezeichnung zugewiesen , die maximiert , richtig?xxxyyyp(y|x)p(y|x)p(y|x) Aber wenn ich das Modell , in das verstehe ich die Ausgabe von nicht ganz , x=(Lag1,Lag2)x=(Lag1,Lag2)x=(Lag1,Lag2)y= D i r e c t …


1
Ableiten der gesamten Streumatrix (innerhalb der Klasse + zwischen den Klassen)
Ich habe mit PCA- und LDA-Methoden herumgespielt und bin an einem Punkt festgefahren. Ich habe das Gefühl, dass es so einfach ist, dass ich es nicht sehen kann. Innerhalb-Klasse ( SWSWS_W ) und zwischen-Klasse ( SBSBS_B ) scatter Matrices ist definiert als: SW=∑i=1C∑t=1N(xit−μi)(xit−μi)TSW=∑i=1C∑t=1N(xti−μi)(xti−μi)T S_W = \sum_{i=1}^C\sum_{t=1}^N(x_t^i - \mu_i)(x_t^i - \mu_i)^T …


Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.