Möglicherweise ein neueres Papier, das versucht, mehr davon vom Langford- und Shapire-Team anzusprechen: Deep ResNet-Blöcke nacheinander mithilfe der Boosting-Theorie lernen
Teile von Interesse sind (siehe Abschnitt 3):
Der Hauptunterschied besteht darin, dass Boosten ein Ensemble geschätzter Hypothesen ist, während ResNet ein Ensemble geschätzter Merkmalsdarstellungen ist. ∑Tt=0ft(gt(x)) . Um dieses Problem zu lösen, führen wir über jedem Restblock einen linearen Hilfsklassifikator wt ein, um ein Hypothesenmodul zu erstellen . Formal ist ein
Hypothesenmodul definiert als ot(x):=wTtgt(x)∈R
...
(wobei) ot(x)=∑t−1t′=0wTtft′(gt′(x))
Das Papier geht viel detaillierter auf die Konstruktion des schwachen Modulklassifikators ht(x) und dessen Integration in den BoostResNet- Algorithmus ein.
Wenn Sie dieser Antwort etwas mehr Details hinzufügen, können alle Boosting-Algorithmen in irgendeiner Form von [1] geschrieben werden (S. 5, 180, 185 ...):
FT(x):=∑t=0Tαtht(x)
Wobei ht die schwache Hypothese tth , für eine Wahl von αt . Es ist zu beachten, dass unterschiedliche Boosting-Algorithmen auf unterschiedliche Weise αt und ht .
Zum Beispiel verwendet AdaBoost [1] (S. 5) ht um den gewichteten Fehler ϵt mit α t = 1 zu minimierenαt=12log1−ϵtϵt
Andererseits wird in der Gradientenverstärkungseinstellung [1] (S. 190.) ht ausgewählt, das ∇L(Ft−1(x))⋅ht maximiert , und αt>0 wird gewählt (als Lernrate) etc)
Wo wie in [2] unter Lemma 3.2 gezeigt wird, dass die Ausgabe von Tiefe T ResNet F(x) was äquivalent zu ist
F(x)∝∑t=0Tht(x)
Damit ist die Beziehung zwischen Boosting und Resnet abgeschlossen. In der Arbeit [2] wird vorgeschlagen, eine lineare Hilfsschicht hinzuzufügen, um sie in die Form FT(x):=∑Tt=0αtht(x) , was zu ihrem BoostResNet-Algorithmus und einigen Diskussionen darüber führt
[1] Robert E. Schapire und Yoav Freund. 2012. Boosting: Grundlagen und Algorithmen. Die MIT-Presse. S. 5, 180, 189
[2] Furong Huang, Jordan Ash, John Langford, Robert Schapire: Sequentielles Lernen von Deep ResNet-Blöcken mithilfe der Boosting-Theorie, ICML 2018