Gibt es eine wirklich einfache Beschreibung der praktischen Unterschiede zwischen diesen beiden Techniken?
Beide scheinen für überwachtes Lernen verwendet zu werden (obwohl Assoziationsregeln auch mit unbeaufsichtigtem Lernen umgehen können).
Beide können zur Vorhersage verwendet werden
Die beste Beschreibung, die ich gefunden habe, stammt aus dem Statsoft-Lehrbuch . Sie sagen, Assoziationsregeln werden verwendet, um:
... erkennen Zusammenhänge oder Assoziationen zwischen bestimmten Werten von kategorialen Variablen in großen Datenmengen.
Während Decision Tree-Klassifikatoren beschrieben werden, um:
... die Zugehörigkeit von Fällen oder Objekten zu den Klassen einer kategorienabhängigen Variablen anhand ihrer Messungen an einer oder mehreren Prädiktorvariablen vorhersagen.
Bei R Data Mining geben sie jedoch ein Beispiel für die Verwendung von Zuordnungsregeln mit einem Zielfeld .
Beides kann also zur Vorhersage der Gruppenmitgliedschaft verwendet werden. Ist der Hauptunterschied, dass Entscheidungsbäume nicht kategoriale Eingabedaten verarbeiten können, während Zuordnungsregeln dies nicht können? Oder gibt es etwas grundlegenderes? Einer Website ( sqlserverdatamining.com ) zufolge ist der Hauptunterschied:
Die Entscheidungsbaumregeln basieren auf dem Informationsgewinn, während die Zuordnungsregeln auf Beliebtheit und / oder Vertrauen basieren.
Bedeutet dies (möglicherweise durch Beantwortung meiner eigenen Frage), dass Zuordnungsregeln nur danach bewertet werden, wie oft sie im Datensatz erscheinen (und wie oft sie "wahr" sind), während Entscheidungsbäume tatsächlich versuchen, die Varianz zu minimieren?
Wenn jemand eine gute Beschreibung kennt, wäre er bereit, mich darauf hinzuweisen, dann wäre das großartig.