Ich bin ein Neuling im Bereich maschinelles Lernen (auch einige Statistiken), habe eine Weile Wissen gelernt (überwachte / unbeaufsichtigte Lernalgorithmen, relevante Optimierungsmethoden, Regularisierungen, einige Philosophien (wie Bias-Varianz-Kompromiss?)). Ich weiß, dass ich ohne echte Übung kein tiefes Verständnis für diese maschinellen Lerninhalte gewinnen würde.
Ich beginne also mit einem Klassifizierungsproblem mit realen Daten, beispielsweise der handschriftlichen Ziffernklassifizierung (MNIST). Zu meiner Überraschung erreicht die Genauigkeit ohne Feature-Lernen / Engineering 0,97 unter Verwendung eines Zufalls-Wald-Klassifikators mit rohen Pixelwerten als Eingabe. Ich habe auch andere Lernalgorithmen wie SVM, LR ausprobiert, wobei die Parameter angepasst wurden.
Dann habe ich mich verlaufen, wäre es zu einfach oder vermisse ich hier etwas? Nehmen Sie einfach einen Lernalgorithmus aus dem Toolkit und optimieren Sie einige Parameter?
Wenn es in der Praxis nur um maschinelles Lernen gehen würde, würde ich mein Interesse an diesem Bereich verlieren. Ich dachte und las einige Tage lang einige Blogs und kam zu einigen Schlussfolgerungen:
Der wichtigste Teil des maschinellen Lernens in der Praxis ist das Feature-Engineering , dh anhand der Daten eine bessere Darstellung der Features.
Welcher Lernalgorithmus verwendet werden soll, ist ebenfalls wichtig, auch die Parametereinstellung, aber bei der endgültigen Auswahl geht es mehr um Experimente.
Ich bin mir nicht sicher, ob ich es richtig verstehe, in der Hoffnung, dass mich jemand korrigieren und mir Vorschläge zum maschinellen Lernen in der Praxis machen kann.