Wenn ich mich hier umschaue, scheinen die modischen Lernalgorithmen Dinge wie neuronale Netze, verstärkte Bäume, Support-Vektor-Maschinen, zufällige Wälder und Freunde für überwachte Lernprobleme zu fördern. Dirichlet-Prozesse und ihre Art scheinen hauptsächlich bei unbeaufsichtigten Lernproblemen wie Dokumenten- oder Bildclustern erwähnt zu werden. Ich sehe, dass sie für Regressionsprobleme oder als Allzweckprioren verwendet werden, wenn man Bayes'sche Statistiken nichtparametrisch oder semiparametrisch erstellen möchte (z. B. als flexibler Vorgänger für die Verteilung zufälliger Effekte in bestimmten Modellen), aber meine begrenzte Erfahrung legt dies nahe Dies kommt nicht so sehr von der Masse der maschinellen Lernenden wie von traditionelleren Statistikern. Ich habe ein bisschen gegoogelt und ich '
Sind Dirichlet-Prozesse und ihre Cousins als Prioritäten für flexible Clustering-Modelle am effektivsten? Sind sie nicht wettbewerbsfähig mit Boosting, SVMs und neuronalen Netzen für überwachte Lernprobleme? Sind sie nur in bestimmten Situationen für diese Probleme nützlich? Oder ist mein allgemeiner Eindruck falsch?