Boosting kann allgemein als (gewichtetes) Voting verstanden werden
Im Falle des Boostings gibt einer seiner Erfinder in dieser Einführung zu AdaBoost (Schwerpunkt Mine) eine positive Antwort :
Die endgültige oder kombinierte Hypothese berechnet das Vorzeichen einer gewichteten Kombination schwacher Hypothesen
Dies entspricht der Aussage, dass als gewichtete Mehrheitsabstimmung von berechnet wird die schwachen Hypothesen denen jeweils das Gewicht zugewiesen ist . (In diesem Kapitel verwenden wir die Begriffe "Hypothese" und "Klassifikator" synonym.)F ( x ) = T ∑ t = 1 α t h t ( x ) H h t α tH.
F.( x ) = ∑t = 1T.αtht( x )
H. htαt
Ja, das endgültige Modell ist eine gewichtete Abstimmung aller schwachen Lernenden, die für diese Iteration geschult wurden. Ebenso finden Sie diesen Ausschnitt auf Wikipedia über Boosting im Allgemeinen:
Während das Boosten nicht algorithmisch eingeschränkt ist, bestehen die meisten Boosting-Algorithmen darin, schwache Klassifikatoren in Bezug auf eine Verteilung iterativ zu lernen und sie einem endgültigen starken Klassifikator hinzuzufügen. Wenn sie hinzugefügt werden, werden sie normalerweise in einer Weise gewichtet, die normalerweise mit der Genauigkeit der schwachen Lernenden zusammenhängt.
Beachten Sie auch die darin erwähnte Erwähnung, dass die ursprünglichen Boosting-Algorithmen eine "Mehrheit" verwendeten. Der Begriff der Abstimmung ist ziemlich fest in der Steigerung verankert: Sein Leitprinzip besteht darin, ein Ensemble bei jeder Iteration zu verbessern, indem ein neuer Wähler hinzugefügt wird und dann entschieden wird, wie viel Gewicht jeder Stimme gegeben werden soll.
Intuition gilt für das Beispiel der Gradientenverstärkung : Bei jeder Iteration finden wir einen neuen Lernenden , der an Pseudo-Residuen angepasst ist, und optimieren dann , um zu entscheiden, wie viel Gewicht "Stimme" geben .h m γ m h mmhmγmhm
Die Erweiterung auf alle Ensemble-Methoden führt zu Gegenbeispielen
So wie es ist, würden einige feststellen, dass sogar der Begriff der Gewichtung die Wahlmetapher erweitert. Berücksichtigen Sie bei der Überlegung, ob diese Intuition auf alle Lernmethoden des Ensembles ausgedehnt werden soll, diesen Ausschnitt:
Ensembles kombinieren mehrere Hypothesen, um eine (hoffentlich) bessere Hypothese zu bilden. Der Begriff Ensemble ist normalerweise Methoden vorbehalten, die mehrere Hypothesen mit demselben Basislerner erstellen.
Und diese auf dem Beispiel Ensemble-Methode des Stapelns :
Beim Stapeln (manchmal auch als gestapelte Generalisierung bezeichnet) wird ein Lernalgorithmus trainiert, um die Vorhersagen mehrerer anderer Lernalgorithmen zu kombinieren. Zuerst werden alle anderen Algorithmen unter Verwendung der verfügbaren Daten trainiert, dann wird ein Kombiniereralgorithmus trainiert, um eine endgültige Vorhersage unter Verwendung aller Vorhersagen der anderen Algorithmen als zusätzliche Eingaben zu treffen. Wenn ein beliebiger Kombiniereralgorithmus verwendet wird, kann das Stapeln theoretisch jede der in diesem Artikel beschriebenen Ensemble-Techniken darstellen, obwohl in der Praxis häufig ein einschichtiges logistisches Regressionsmodell als Kombinierer verwendet wird.
Wenn Sie Ensemble-Methoden so definieren, dass sie Stapelmethoden mit einem beliebigen Kombinierer enthalten, können Sie Methoden erstellen, die meiner Ansicht nach den Begriff der Abstimmung über seine Grenzen hinaus erweitern. Es ist schwer zu erkennen, wie eine Sammlung schwacher Lernender, die über einen Entscheidungsbaum oder ein neuronales Netzwerk kombiniert werden, als "Abstimmung" angesehen werden kann. (Abgesehen von der ebenfalls schwierigen Frage, wann sich diese Methode als praktisch nützlich erweisen könnte.)
Einige Einführungen beschreiben Ensembles und Abstimmungen als synonym; Ich bin mit der neueren Literatur zu diesen Methoden nicht vertraut genug, um zu sagen, wie diese Begriffe in letzter Zeit allgemein angewendet werden, aber ich hoffe, diese Antwort gibt eine Vorstellung davon, wie weit der Begriff der Abstimmung reicht.