Welche Algorithmen für maschinelles Lernen (neben SVMs) verwenden das Prinzip der strukturellen Risikominimierung ?
Welche Algorithmen für maschinelles Lernen (neben SVMs) verwenden das Prinzip der strukturellen Risikominimierung ?
Antworten:
Das Prinzip der strukturellen Risikominimierung ist ein Prinzip, das zumindest teilweise in allen Methoden des maschinellen Lernens „angewendet“ wird, da häufig eine Überanpassung berücksichtigt werden muss: Die Reduzierung der Komplexität des Modells ist (angeblich und in der Praxis) ein guter Weg, um dies zu begrenzen Überanpassung.
SVMs haben explizit einen Parameter für die Komplexität (die Dimension des Feature-Space oder sogar die Kernelfunktion) und dies ist notwendig, da die Erhöhung der Komplexität Teil des Lernalgorithmus ist.
Neuronale Netzwerke haben auch einen einfachen Indikator für ihre Komplexität (Anzahl der "Zellen") und sind Teil des zugehörigen Lernalgorithmus.
Ohne dieses Prinzip wäre Grammatikinferenz sowohl dumm als auch perfekt. Grammatik ist die Liste aller möglichen Wörter, so dass jeder nicht triviale Algorithmus dieses Prinzip zumindest anerkennt.
Entscheidungsbäume haben ihre eigene Vorstellung von Entropie .
Cluster können einfach gezählt werden oder das Prinzip intrinsisch "verwenden" oder eine feste Anzahl von Clustern haben. In diesem Fall wenden Sie das Prinzip auf einer höheren Ebene an.
Um ganz ehrlich zu sein, weiß ich nicht wirklich, was in der genetischen Programmierung passiert, aber sie haben keine intrinsische Vorstellung von Komplexität.
Ich kenne mich nicht gut mit induktiver Logikprogrammierung aus, aber sie scheint nicht sehr gut auf dieses Prinzip zu skalieren.