Autoencoder sind neuronale Netze, die eine komprimierte Darstellung der Eingabe lernen, um sie später zu rekonstruieren, sodass sie zur Dimensionsreduzierung verwendet werden können. Sie bestehen aus einem Codierer und einem Decodierer (die separate neuronale Netze sein können). Die Reduzierung der Dimensionalität kann nützlich sein, um die Probleme im Zusammenhang mit dem Fluch der Dimensionalität zu lösen oder abzuschwächen, bei denen Daten spärlich werden und es schwieriger ist, eine "statistische Signifikanz" zu erhalten. Autoencoder (und Algorithmen wie PCA) können also verwendet werden, um mit dem Fluch der Dimensionalität umzugehen.
Warum interessiert uns die Dimensionsreduzierung speziell mit Autoencodern? Warum können wir PCA nicht einfach verwenden, wenn der Zweck die Reduzierung der Dimensionalität ist?
Warum müssen wir die latente Darstellung der Eingabe dekomprimieren, wenn wir nur eine Dimensionsreduktion durchführen möchten, oder warum benötigen wir den Decoderteil in einem Autoencoder? Was sind die Anwendungsfälle? Warum müssen wir den Eingang im Allgemeinen komprimieren, um ihn später zu dekomprimieren? Wäre es nicht besser, nur die ursprüngliche Eingabe zu verwenden (um damit zu beginnen)?