Ich erinnere mich noch an das Papier Annals of Statistics on Boosting von Friedman-Hastie-Tibshirani und an die Kommentare anderer Autoren (einschließlich Freund und Schapire) zu denselben Themen. Damals galt Boosting in vielerlei Hinsicht als Durchbruch: rechnerisch machbar, eine Ensemblemethode mit hervorragender und dennoch mysteriöser Performance. Etwa zur gleichen Zeit wurde SVM erwachsen und bot ein solides theoretisches Gerüst mit zahlreichen Varianten und Anwendungen.
Das war in den wunderbaren 90ern. In den letzten 15 Jahren schien es mir, dass viele Statistiken eine Reinigungs- und Detaillierungsoperation waren, aber mit wenigen wirklich neuen Ansichten.
Also werde ich zwei Fragen stellen:
- Habe ich ein revolutionäres Papier verpasst?
- Wenn nicht, gibt es neue Ansätze, die Ihrer Meinung nach den Standpunkt der statistischen Inferenz verändern können?
Regeln:
- Eine Antwort pro Post;
- Verweise oder Links sind willkommen.
PS: Ich habe einige Kandidaten für vielversprechende Durchbrüche. Ich werde sie später posten.