Als «machine-learning» getaggte Fragen

Algorithmen für maschinelles Lernen erstellen ein Modell der Trainingsdaten. Der Begriff "maschinelles Lernen" ist vage definiert; Es umfasst das, was auch als statistisches Lernen, Bestärkungslernen, unbeaufsichtigtes Lernen usw. bezeichnet wird. Fügen Sie immer einen spezifischeren Tag hinzu.





1
Kovarianzmatrix für die Gaußsche Prozess- und Wishart-Verteilung
Ich lese dieses Papier über generalisierte Wishart-Prozesse (GWP) durch. Die Arbeit berechnet die Kovarianzen zwischen verschiedenen Zufallsvariablen (nach dem Gaußschen Prozess ) unter Verwendung der quadratischen exponentiellen Kovarianzfunktion, dh . Es heißt dann, dass diese Kovarianzmatrix GWP folgt.K(x,x′)=exp(−|(x−x′)|22l2)K(x,x′)=exp⁡(−|(x−x′)|22l2)K(x,x') = \exp\left(-\frac{|(x-x')|^2}{2l^2}\right) Früher dachte ich, dass eine Kovarianzmatrix, die aus der linearen …



2
Messungen der Klassentrennbarkeit bei Klassifizierungsproblemen
Ein Beispiel für ein gutes Maß für die Klassentrennbarkeit bei Lernenden mit linearer Diskriminanz ist das lineare Diskriminanzverhältnis von Fisher. Gibt es andere nützliche Metriken, um festzustellen, ob Feature-Sets eine gute Klassentrennung zwischen Zielvariablen bieten? Insbesondere bin ich daran interessiert, gute multivariate Eingabeattribute zur Maximierung der Zielklassentrennung zu finden, und …


2
Was ist der Vorteil der Reduzierung der Dimensionalität von Prädiktoren zum Zwecke der Regression?
Was sind die Anwendungen oder Vorteile der Dimensionsreduktion Regression (DRR) oder beaufsichtigten Dimensionsreduktion (SDR) Techniken gegenüber herkömmlichen Regressionstechniken (ohne Dimensionsreduktion)? Diese Klasse von Techniken findet eine niedrigdimensionale Darstellung des Merkmalssatzes für das Regressionsproblem. Beispiele für solche Techniken umfassen in Scheiben geschnittene inverse Regression, Haupt-Hessische Richtungen, Geschnittene durchschnittliche Varianzschätzung, Kernel-Schnitt-Inverse-Regression, Hauptkomponenten-Regression …


2
Was ist die Drosophila der KI jetzt?
Mitte der 1960er Jahre haben Forscher das Schach bekanntlich als " Drosophila der KI" bezeichnet: Wie die Fruchtfliege war das Schachspiel zugänglich und ein relativ einfaches Problem, mit dem experimentiert werden konnte, was jedoch wichtige Kenntnisse und komplexere Probleme hervorbrachte. Nun scheinen die Leute zu sagen "Schach ist nur ein …

1
Erweiterung von 2-Klassen-Modellen auf Mehrklassenprobleme
Dieses Dokument zu Adaboost enthält einige Vorschläge und Codes (Seite 17) für die Erweiterung von 2-Klassen-Modellen auf Probleme der K-Klasse. Ich möchte diesen Code so verallgemeinern, dass ich problemlos verschiedene 2-Klassen-Modelle anschließen und die Ergebnisse vergleichen kann. Da die meisten Klassifizierungsmodelle über eine Formelschnittstelle und eine predictMethode verfügen, sollte ein …


3
Gibt es Bibliotheken für CART-ähnliche Methoden, die spärliche Prädiktoren und Antworten verwenden?
Ich arbeite mit einigen großen Datenmengen unter Verwendung des gbm-Pakets in R. Sowohl meine Prädiktormatrix als auch mein Antwortvektor sind ziemlich spärlich (dh die meisten Einträge sind Null). Ich hatte gehofft, Entscheidungsbäume mit einem Algorithmus zu erstellen, der diese Spärlichkeit ausnutzt, wie hier ). In diesem Artikel haben, wie in …

Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.