Dies ist ein weites Thema, und Sie werden auf eine Reihe von Gründen stoßen, warum Daten in Eimern gespeichert werden sollten oder bereits sind. Nicht alle von ihnen beziehen sich auf die Vorhersagegenauigkeit.
Hier ist zunächst ein Beispiel, in dem ein Modellierer möglicherweise eine Eimerisierung durchführen möchte. Angenommen, ich baue ein Kreditbewertungsmodell auf: Ich möchte die Neigung der Menschen zum Ausfall eines Kredits kennen. In meinen Daten habe ich eine Spalte, die den Status einer Kreditauskunft angibt. Das heißt, ich habe den Bericht bei einer Ratingagentur bestellt, und die Agentur hat beispielsweise ihre proprietäre Bewertung zusammen mit einer kategorialen Variablen zurückgegeben, die die Zuverlässigkeit dieser Bewertung angibt. Dieser Indikator ist möglicherweise viel feinkörniger, als ich für meine Zwecke benötige. Zum Beispiel kann die "nicht genügend Information für eine verlässliche Punktzahl" in viele Klassen wie "weniger als 20 Jahre alt", "vor kurzem in das Land gezogen", "keine vorherige Bonitätshistorie" usw. unterteilt werden. Viele dieser Klassen kann dünn besiedelt sein und daher in einer Regression oder einem anderen Modell eher nutzlos sein. Um dies zu bewältigen, möchte ich möglicherweise ähnliche Klassen zusammenfassen, um die statistische Aussagekraft in einer "repräsentativen" Klasse zu konsolidieren. Zum Beispiel kann es für mich nur sinnvoll sein, einen binären Indikator "Gute Informationen zurückgegeben" oder "Keine Informationen zurückgegeben" zu verwenden. Nach meiner Erfahrung fallen viele Anwendungen der Bucketisierung in diesen allgemeinen BereichZusammenbruch von dünn besiedelten Kategorietypen .
Einige Algorithmen verwenden die Bucketization intern. Beispielsweise verbringen Bäume, die in Boosting-Algorithmen passen, häufig den größten Teil ihrer Zeit in einem Zusammenfassungsschritt, in dem die kontinuierlichen Daten in jedem Knoten diskretisiert und der Mittelwert der Antwort in jedem Bucket berechnet werden. Dies reduziert den Rechenaufwand beim Finden einer geeigneten Aufteilung erheblich, ohne dass die Genauigkeit aufgrund des Boostings stark beeinträchtigt wird.
Sie können auch einfach empfangen Daten vor-bucketized. Diskrete Daten lassen sich leichter komprimieren und speichern - ein langes Array von Gleitkommazahlen ist nahezu inkompressibel. Wenn Sie jedoch in "hoch", "mittel" und "niedrig" diskretisieren, können Sie viel Speicherplatz in Ihrer Datenbank sparen. Ihre Daten stammen möglicherweise auch aus einer Quelle, die auf eine nicht modellierende Anwendung abzielt. Dies passiert häufig, wenn ich Daten von Organisationen erhalte, die weniger analytische Arbeit leisten. Ihre Daten werden häufig für die Berichterstattung verwendet und auf hohem Niveau zusammengefasst, um die Interpretierbarkeit der Berichte für Laien zu verbessern. Diese Daten können immer noch nützlich sein, aber oft geht etwas Strom verloren.
Was ich weniger wert sehe, obwohl es möglich ist, dass ich korrigiert werde, ist die Vor-Bucketisierung kontinuierlicher Messungen für Modellierungszwecke. Es gibt viele sehr leistungsfähige Methoden zum Anpassen nichtlinearer Effekte an kontinuierliche Prädiktoren, und durch die Buckeisierung können Sie diese nicht mehr verwenden. Ich neige dazu, dies als schlechte Praxis zu betrachten.