Kürzlich hat er in einem Kurs für maschinelles Lernen von Professor Oriol Pujol an der UPC / Barcelona die gängigsten Algorithmen, Prinzipien und Konzepte für eine breite Palette von Aufgaben im Zusammenhang mit maschinellem Lernen beschrieben. Hier teile ich sie mit dir und frage dich:
- Gibt es ein umfassendes Framework, das Aufgaben mit Ansätzen oder Methoden in Bezug auf verschiedene Arten von Problemen im Zusammenhang mit maschinellem Lernen vergleicht?
Wie lerne ich einen einfachen Gaußschen? Wahrscheinlichkeit, Zufallsvariablen, Verteilungen; Schätzung, Konvergenz und Asymptotik, Konfidenzintervall.
Wie lerne ich eine Mischung aus Gaußschen (MoG)? Wahrscheinlichkeit, Erwartungsmaximierung (EM); Generalisierung, Modellauswahl, Kreuzvalidierung; k-means, Hidden Markov Modelle (HMM)
Wie lerne ich eine Dichte? Parametrische vs. nicht-parametrische Schätzung, Sobolev und andere Funktionsräume; l ́ 2 Fehler; Kernel Density Estimation (KDE), optimaler Kernel, KDE-Theorie
Wie prognostiziere ich eine stetige Variable (Regression)? Lineare Regression, Regularisierung, Gratregression und LASSO; lokale lineare Regression; bedingte Dichteschätzung.
Wie prognostiziere ich eine diskrete Variable (Klassifikation)? Bayes-Klassifikator, naiver Bayes, generativ vs. diskriminativ; Perzeptron, Gewichtsabnahme, lineare Stützvektormaschine; Nächster Nachbar Klassifikator und Theorie
Welche Verlustfunktion soll ich verwenden? Maximum-Likelihood-Schätzungstheorie; L -2 Schätzung; Bayesssche Schätzung; Minimax und Entscheidungstheorie, Bayesianismus vs.
Welches Modell soll ich verwenden? AIC und BIC; Vapnik-Chervonenskis-Theorie; Kreuzvalidierungstheorie; Bootstrapping; Wahrscheinlich ungefähr korrekte (PAC) Theorie; Hoeffding-abgeleitete Grenzen
Wie kann ich schickere (kombinierte) Modelle lernen? Ensemble-Lerntheorie; erhöhen; Absacken; Stapeln
Wie kann ich schickere (nichtlineare) Modelle lernen? Verallgemeinerte lineare Modelle, logistische Regression; Kolmogorov-Theorem, verallgemeinerte additive Modelle; Kernelisierung, Reproduktion von Kernel-Hilbert-Räumen, nichtlineare SVM, Gaußsche Prozessregression
Wie kann ich schickere (kompositorische) Modelle lernen? Rekursive Modelle, Entscheidungsbäume, hierarchisches Clustering; Neuronale Netze, Backpropagation, Deep-Believe-Netze; grafische Modelle, Mischungen von HMMs, bedingte Zufallsfelder, Markov-Netzwerke mit maximalem Rand; log-lineare Modelle; Grammatiken
Wie reduziere oder beziehe ich Features? Merkmalsauswahl vs. Dimensionsreduktion, Wrapper-Methoden zur Merkmalsauswahl; Kausalität vs. Korrelation, partielle Korrelation, Bayes-Netzstrukturlernen
Wie erstelle ich neue Funktionen? Hauptkomponentenanalyse (PCA), unabhängige Komponentenanalyse (ICA), mehrdimensionale Skalierung, vielfältiges Lernen, überwachte Dimensionsreduktion, metrisches Lernen
Wie reduziere oder beziehe ich die Daten? Clustering, Bi-Clustering, eingeschränktes Clustering; Assoziationsregeln und Warenkorbanalyse; Ranking / ordinale Regression; Link-Analyse; relationale Daten
Wie behandle ich Zeitreihen? ARMA; Kalman-Filter- und Stat-Space-Modelle, Partikelfilter; funktionale Datenanalyse; Wechselpunkterkennung; Kreuzvalidierung für Zeitreihen
Wie behandle ich nicht ideale Daten? kovariate Verschiebung; Klassenungleichgewicht; fehlende Daten, unregelmäßig abgetastete Daten, Messfehler; Anomalieerkennung, Robustheit
Wie optimiere ich die Parameter? Uneingeschränkte vs. eingeschränkte / konvexe Optimierung, ableitungsfreie Methoden, Methoden erster und zweiter Ordnung, Nachrüstung; natürlicher Gradient; gebundene Optimierung und EM
Wie optimiere ich lineare Funktionen? Computerlineare Algebra, Matrixinversion zur Regression, Singularwertzerlegung (SVD) zur Dimensionsreduktion
Wie optimiere ich mit Einschränkungen? Konvexität, Lagrange-Multiplikatoren, Karush-Kuhn-Tucker-Bedingungen, Innenpunktmethoden, SMO-Algorithmus für SVM
Wie bewerte ich tief verschachtelte Summen? Genaue grafische Modellableitung, Variationsgrenzen für Summen, ungefähre grafische Modellableitung, Erwartungsausbreitung
Wie bewerte ich große Summen und Suchanfragen? Verallgemeinerte N-Körper-Probleme (GNP), hierarchische Datenstrukturen, Suche nach nächsten Nachbarn, schnelle Mehrfachmethode; Monte-Carlo-Integration, Markov-Kette Monte-Carlo, Monte-Carlo-SVD
Wie behandle ich noch größere Probleme? Parallele / verteilte EM, parallele / verteilte BSP; stochastische Subgradientenmethoden, Online-Lernen
Wie wende ich das alles in der realen Welt an? Überblick über die Teile der ML, Auswahl zwischen den für jede Aufgabe zu verwendenden Methoden, Vorkenntnissen und Annahmen; explorative Datenanalyse und Informationsvisualisierung; Auswertung und Interpretation unter Verwendung von Konfidenzintervallen und Hypothesentest, ROC-Kurven; wo die Forschungsprobleme in ML sind