So wie ich es verstehe, führen tiefe neuronale Netze "Repräsentationslernen" durch, indem sie Merkmale zusammenfügen. Dies ermöglicht das Lernen sehr hochdimensionaler Strukturen in den Merkmalen. Natürlich handelt es sich um ein parametrisches Modell mit einer festen Anzahl von Parametern, daher besteht die übliche Einschränkung, dass die Komplexität des Modells möglicherweise nur schwer einstellbar ist.
Gibt es eine Bayes'sche (nichtparametrische) Möglichkeit, solche Strukturen im Merkmalsraum zu lernen, damit sich die Komplexität des Modells an die Daten anpassen kann? Verwandte Modelle umfassen:
- Dirichlet verarbeitet Mischungsmodelle, mit denen der Raum in unbegrenzte Cluster aufgeteilt werden kann, sodass die Daten eine endliche Zahl auswählen können
- Fakultätsmodelle wie der Indian Buffet Process (IBP), die möglicherweise unendlich viele latente Merkmale (auch als Themen bezeichnet) finden, die die Daten erklären.
Es scheint jedoch, dass der IBP keine tiefen Darstellungen lernt. Es gibt auch das Problem, dass diese Methoden für unbeaufsichtigtes Lernen konzipiert sind und wir normalerweise Deep Learning für überwachte Aufgaben verwenden. Gibt es eine Variante des IBP oder andere Methoden, mit denen Repräsentationen wachsen können, wenn die Daten dies erfordern?