Als «manifold-learning» getaggte Fragen

3
Was ist eine Mannigfaltigkeit?
In Dimensionalitätsreduktionstechniken wie Hauptkomponentenanalyse, LDA usw. wird häufig der Begriff Mannigfaltigkeit verwendet. Was ist eine Mannigfaltigkeit in nicht-technischer Hinsicht? Wenn ein Punkt zu einer Kugel gehört, deren Abmessung ich reduzieren möchte, und wenn es ein Rauschen gibt, und und nicht korreliert sind, dann würden die tatsächlichen Punkte aufgrund des Rauschens …

2
Wie kann man "nichtlinear" wie "nichtlineare Dimensionsreduktion" verstehen?
Ich versuche die Unterschiede zwischen den linearen Dimensionalitätsreduktionsmethoden (z. B. PCA) und den nichtlinearen Methoden (z. B. Isomap) zu verstehen. Ich kann nicht ganz verstehen, was die (Nicht-) Linearität in diesem Zusammenhang impliziert. Ich lese aus Wikipedia , dass Im Vergleich dazu sind die resultierenden Werte nicht so gut organisiert, …

2
Was ist die vielfältige Annahme beim teilüberwachten Lernen?
Ich versuche herauszufinden, was die mannigfaltige Annahme im semi-überwachten Lernen bedeutet. Kann jemand auf einfache Weise erklären? Ich kann die Intuition dahinter nicht verstehen. Es besagt, dass Ihre Daten auf einer niedrigdimensionalen Mannigfaltigkeit liegen, die in einem höherdimensionalen Raum eingebettet ist. Ich habe nicht verstanden, was das bedeutet.

2
Grafische Intuition der Statistik auf einer Mannigfaltigkeit
In diesem Beitrag können Sie die Erklärung lesen: Modelle werden normalerweise durch Punkte θθ\theta auf einer endlich dimensionalen Mannigfaltigkeit dargestellt. Über Differentialgeometrie und Statistik von Michael K. Murray und John W. Rice werden diese Konzepte in lesbarer Prosa erklärt, wobei die mathematischen Ausdrücke ignoriert werden. Leider gibt es nur sehr …


1
Was ist der Unterschied zwischen vielfältigem Lernen und nichtlinearer Dimensionsreduktion?
Was ist der Unterschied zwischen vielfältigem Lernen und nichtlinearer Dimensionsreduktion ? Ich habe gesehen, dass diese beiden Begriffe synonym verwendet werden. Beispielsweise: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html : Manifold Learning (oft auch als nichtlineare Dimensionsreduktion bezeichnet) verfolgt das Ziel, Daten, die ursprünglich in einem hochdimensionalen Raum liegen, in einen Raum mit niedrigeren Dimensionen einzubetten …

2
Wie kann man beweisen, dass die vielfältige Annahme richtig ist?
Beim maschinellen Lernen wird häufig angenommen, dass ein Datensatz auf einer glatten niedrigdimensionalen Mannigfaltigkeit liegt (die Mannigfaltigkeitsannahme), aber gibt es eine Möglichkeit zu beweisen, dass unter der Annahme, dass bestimmte Bedingungen erfüllt sind, der Datensatz tatsächlich (ungefähr) erzeugt wird von einem niedrigdimensionalen glatten Verteiler? Zum Beispiel gegeben eine Datensequenz wobei …

1
Reduzierung der nichtlinearen Dimensionalität: geometrische / topologische Algorithmen im Vergleich zu Autoencodern
Soweit ich weiß, gibt es drei Hauptansätze zur Reduzierung der nichtlinearen Dimensionalität: Vielfältiges Lernen (geometrische / topologische Algorithmen wie ISOMAP, LLE, LTSA) Autoencoder Dinge, die nicht in die ersten beiden Kategorien passen (wahrscheinlichkeitsinspiriertes t-SNE, Kernel-PCA usw.) Was sind die Vor- und Nachteile der ersten beiden Ansätze? Kann man denken, dass …
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.