Meine Antwort richtet sich an CART (die C 4.5 / C 5-Implementierungen), obwohl ich glaube, dass sie nicht darauf beschränkt sind. Ich vermute, das ist es, was das OP im Sinn hat - es ist normalerweise das, was jemand meint, wenn er "Entscheidungsbaum" sagt.
Einschränkungen von Entscheidungsbäumen :
Schlechte Leistung
Mit "Leistung" meine ich nicht Auflösung, sondern Ausführungsgeschwindigkeit . Der Grund dafür ist, dass Sie den Baum jedes Mal neu zeichnen müssen, wenn Sie Ihr WARENKORB - Modell aktualisieren möchten - Daten, die von einem bereits trainierten Baum klassifiziert wurden und die Sie dann zum Baum hinzufügen möchten (dh als Trainingsdatenpunkt) erfordert, dass Sie von Übertrainingsinstanzen ausgehen, die nicht inkrementell hinzugefügt werden können, wie dies bei den meisten anderen überwachten Lernalgorithmen der Fall ist. Dies lässt sich am besten damit erklären, dass Decision Trees nicht im Online-Modus, sondern nur im Batch-Modus trainiert werden können. Natürlich werden Sie diese Einschränkung nicht bemerken, wenn Sie Ihren Klassifikator nicht aktualisieren, aber dann würde ich erwarten, dass Sie einen Rückgang der Auflösung sehen.
Dies ist von Bedeutung, da beispielsweise bei mehrschichtigen Perzeptronen nach dem Training die Klassifizierung der Daten beginnen kann. Diese Daten können auch verwendet werden, um den bereits trainierten Klassifikator zu optimieren. Bei Decision Trees müssen Sie jedoch den gesamten Datensatz (die im Training verwendeten Originaldaten sowie alle neuen Instanzen) neu trainieren.
Schlechte Auflösung von Daten mit komplexen Beziehungen zwischen den Variablen
Entscheidungsbäume klassifizieren durch schrittweise Bewertung eines Datenpunkts unbekannter Klasse, wobei jeweils ein Knoten am Wurzelknoten beginnt und mit einem Endknoten endet. Und an jedem Knoten sind nur zwei Möglichkeiten möglich (links-rechts), daher gibt es einige variable Beziehungen, die Decision Trees einfach nicht lernen können.
Praktisch auf die Klassifizierung beschränkt
Entscheidungsbäume funktionieren am besten, wenn sie trainiert sind, einen Datenpunkt einer Klasse zuzuweisen - vorzugsweise einer von nur wenigen möglichen Klassen. Ich glaube nicht, dass ich jemals einen Erfolg bei der Verwendung eines Entscheidungsbaums im Regressionsmodus hatte (dh kontinuierliche Ausgabe wie Preis oder erwartete Einnahmen auf Lebenszeit). Dies ist keine formale oder inhärente Einschränkung, sondern eine praktische. In den meisten Fällen werden Entscheidungsbäume zur Vorhersage von Faktoren oder diskreten Ergebnissen verwendet.
Schlechte Auflösung bei kontinuierlichen Erwartungsvariablen
Grundsätzlich ist es auch hier in Ordnung, unabhängige Variablen wie "Download-Zeit" oder "Anzahl der Tage seit dem letzten Online-Kauf" zu verwenden. Ändern Sie einfach Ihr Aufteilungskriterium in "Varianz" (normalerweise "Informationsentropie" oder "Gini-Verunreinigung" für diskrete Variablen) Erfahrung Entscheidungsbäume funktionieren in diesen Fällen selten gut. Ausnahmen sind Fälle wie das "Studentenalter", das kontinuierlich aussieht, aber in der Praxis ist der Wertebereich relativ klein (insbesondere, wenn sie als ganze Zahlen angegeben werden).