Ein Variations-Autoencoder (VAE) bietet eine Möglichkeit, die Wahrscheinlichkeitsverteilung lernen die einen Eingang mit seiner latenten Darstellung Beziehung setzt . Insbesondere ordnet der Codierer einen Eingang einer Verteilung auf . Ein typischer Encoder gibt Parameter , die die Gaußsche Verteilung . Diese Verteilung wird als Näherung für .
Hat jemand eine VAE in Betracht gezogen, bei der die Ausgabe eher ein Gaußsches Mischungsmodell als ein Gaußsches ist? Ist das nützlich? Gibt es Aufgaben, bei denen dies wesentlich effektiver ist als eine einfache Gaußsche Verteilung? Oder bietet es wenig Nutzen?