Naive Bayes-Klassifikatoren sind eine beliebte Wahl für Klassifizierungsprobleme. Dafür gibt es viele Gründe, darunter:
- "Zeitgeist" - weit verbreitetes Bewusstsein nach dem Erfolg von Spam-Filtern vor etwa zehn Jahren
- Einfach zu schreiben
- Das Klassifikatormodell ist schnell zu erstellen
- Das Modell kann mit neuen Trainingsdaten geändert werden, ohne dass das Modell neu erstellt werden muss
Sie sind jedoch "naiv", dh sie gehen davon aus, dass die Funktionen unabhängig sind. Dies steht im Gegensatz zu anderen Klassifikatoren wie Maximum Entropy-Klassifikatoren (die nur langsam berechnet werden).
Die Unabhängigkeitsannahme kann normalerweise nicht angenommen werden und ist in vielen (den meisten?) Fällen, einschließlich des Spam-Filter-Beispiels, einfach falsch.
Warum funktioniert der Naive Bayes-Klassifikator in solchen Anwendungen immer noch sehr gut, auch wenn die Funktionen nicht unabhängig voneinander sind?