Regeln:
- Ein Klassifikator pro Antwort
- Stimme ab, wenn du einverstanden bist
- Duplikate ablehnen / entfernen.
- Tragen Sie Ihre Bewerbung in den Kommentar ein
Regeln:
Antworten:
Regularisierte Diskriminante für überwachte Probleme mit verrauschten Daten
Link zur Originalarbeit von Friedman et al . Von 1989 hier . Auch gibt es sehr gute Erklärungen von Kuncheva in ihrem Buch " Combining Pattern Classifiers ".
Gaußscher Prozessklassifikator - Er gibt probabilistische Vorhersagen (nützlich, wenn sich die Häufigkeit Ihrer operativen relativen Klassen von der in Ihrem Trainingssatz unterscheidet oder wenn die falsch-positiven / falsch-negativen Kosten unbekannt oder variabel sind). Es liefert auch eine Einschätzung der Unsicherheit in Modellvorhersagen aufgrund der Unsicherheit bei der "Schätzung des Modells" aus einem endlichen Datensatz. Die Co-Varianz-Funktion entspricht der Kernelfunktion in einer SVM und kann daher auch direkt auf nicht-vektorielle Daten (z. B. Zeichenfolgen oder Diagramme usw.) angewendet werden. Der mathematische Rahmen ist auch ordentlich (aber verwenden Sie nicht die Laplace-Näherung). Automatisierte Modellauswahl durch Maximierung der Grenzwahrscheinlichkeit.
Kombiniert im Wesentlichen gute Eigenschaften von logistischer Regression und SVM.
L1-regulierte logistische Regression.
K-bedeutet Clustering für unbeaufsichtigtes Lernen.