"Fisher's Discriminant Analysis" ist einfach LDA in einer Situation von 2 Klassen. Bei nur 2 Klassen ist eine manuelle Berechnung möglich und die Analyse steht in direktem Zusammenhang mit der multiplen Regression. LDA ist die direkte Erweiterung von Fishers Idee für die Situation einer beliebigen Anzahl von Klassen und verwendet Matrixalgebra-Geräte (wie z. B. eigendecomposition), um diese zu berechnen. Daher kann der Begriff "Fisher's Diskriminanzanalyse" heute als veraltet angesehen werden. Stattdessen sollte "Lineare Diskriminanzanalyse" verwendet werden. Siehe auch . Die Diskriminanzanalyse mit 2+ Klassen (Mehrfachklassen) ist nach ihrem Algorithmus kanonisch (extrahiert Dicriminanten als kanonische Variablen); seltener Begriff "Canonical Discriminant Analysis"
Fisher verwendete die sogenannten "Fisher-Klassifizierungsfunktionen", um Objekte zu klassifizieren, nachdem die Diskriminanzfunktion berechnet wurde. Heutzutage wird im Rahmen des LDA-Verfahrens ein allgemeinerer Bayes-Ansatz zur Klassifizierung von Objekten verwendet.
Auf Ihre Bitte um Erklärungen zu LDA kann ich Ihnen meine Antworten senden: Extraktion in LDA , Klassifizierung in LDA , LDA unter verwandten Verfahren . Auch dies , dies , diese Fragen und Antworten.
Genau wie für ANOVA die Annahme gleicher Varianzen erforderlich ist, ist für LDA die Annahme gleicher Varianz-Kovarianz-Matrizen (zwischen den Eingangsvariablen) der Klassen erforderlich. Diese Annahme ist wichtig für die Klassifizierungsstufe der Analyse. Wenn sich die Matrizen wesentlich unterscheiden, werden Beobachtungen tendenziell der Klasse zugeordnet, in der die Variabilität größer ist. Um das Problem zu lösen, wurde QDA erfunden. QDA ist eine Modifikation von LDA, die die obige Heterogenität der Kovarianzmatrizen von Klassen berücksichtigt.
Wenn Sie die Heterogenität haben (wie zum Beispiel durch den Box-M-Test festgestellt) und keine QDA zur Hand haben, können Sie die LDA weiterhin im Regime der Verwendung einzelner Kovarianzmatrizen (anstelle der gepoolten Matrix) der Diskriminanten bei der Klassifizierung verwenden . Dies löst das Problem teilweise, wenn auch weniger effektiv als bei der QDA, da dies - wie bereits erwähnt - die Matrizen zwischen den Diskriminanten und nicht zwischen den ursprünglichen Variablen sind (welche Matrizen unterschieden sich).
Lassen Sie mich Ihre Beispieldaten selbst analysieren.
Antworte auf @ zyxues Antwort und Kommentare
LDA ist das, was Sie in Ihrer Antwort als FDA definiert haben. LDA erste Extrakte linear Konstrukte (genannt Diskriminanten) , die zwischen der innerhalb Trennung maximieren, und dann verwenden diese (Gaussian) Klassifizierung durchzuführen. Wenn (wie Sie sagen) LDA nicht mit der Aufgabe verbunden wäre, die Diskriminanten zu extrahieren, wäre LDA anscheinend nur ein Gauß-Klassifikator, und es wäre überhaupt kein Name "LDA" erforderlich.
In dieser Klassifizierungsstufe geht die LDA sowohl von Normalität als auch von Varianz-Kovarianz-Homogenität der Klassen aus. DasSwSws sind gleich, die besagten Kovarianzen innerhalb der Klasse sind alle gleich, Identität; das Recht, sie zu benutzen, wird absolut.)
Der Gaußsche Klassifikator (die zweite Stufe der LDA) verwendet die Bayes-Regel, um Beobachtungen den Klassen durch die Diskriminanten zuzuordnen. Das gleiche Ergebnis kann über sogenannte lineare Klassifizierungsfunktionen von Fisher erzielt werden, die die ursprünglichen Merkmale direkt nutzen. Bayes 'Ansatz, der auf Diskriminanten basiert, ist jedoch ein wenig allgemein, da er die Verwendung separater Kovarianzmatrizen für Klassendiskriminanten zusätzlich zu der Standardmethode zur Verwendung einer, der gepoolten, erlaubt. Außerdem wird es möglich sein, die Klassifizierung auf einer Untergruppe von Diskriminanten aufzubauen.
Wenn es nur zwei Klassen gibt, können beide Stufen der LDA zusammen in einem Durchgang beschrieben werden, da sich "Latente Extraktion" und "Beobachtungsklassifikation" dann auf dieselbe Aufgabe reduzieren.