Was ist der Unterschied zwischen Affinitätsmatrix-Eigenvektoren und Graph-Laplace-Eigenvektoren im Kontext der spektralen Clusterbildung?


8

Bei der spektralen Clusterbildung ist es üblich, das Eigenvektorproblem zu lösen

Lv=λv

wobei der Graph Laplace ist, v der Eigenvektor ist, der mit dem Eigenwert λ zusammenhängt .Lvλ

Meine Frage: Warum sich die Mühe machen, die Grafik Laplace zu nehmen? Könnte ich nicht einfach das Eigenvektorproblem für den Graphen (Affinitätsmatrix) selbst lösen, wie es der Typ in diesem Video getan hat ?

PS: Ich habe dieselbe Frage in CrossValidated gestellt, aber ich denke, dies ist ein geeigneterer Kanal. Vergib mir, wenn ich falsch liege.


Antworten:


4

Das Konzept ist das gleiche, aber Sie werden durch die Art der Daten verwirrt. Spektrale Clusterbildung nach Ng et al. Bei EXPLAIN geht es um das Clustering von Standarddaten, während die Laplace-Matrix eine von Graphen abgeleitete Matrix ist, die in der algebraischen Graphentheorie verwendet wird.

Der Punkt ist also, dass diese Matrix immer dann, wenn Sie die Ähnlichkeit Ihrer Objekte in eine Matrix codieren, für die spektrale Clusterbildung verwendet werden kann.

Wenn Sie über Standarddaten verfügen, z. B. eine Matrix mit Stichprobenmerkmalen, können Sie die Nähe oder Affinität oder wie auch immer Sie sie als Matrix bezeichnen möchten, ermitteln und spektrale Cluster anwenden.

Wenn Sie einen Graphen haben, ist diese Affinität wie eine Adjazenzmatrix, eine Distanzmatrix oder eine Laplace-Matrix. Wenn Sie die Eigenfunktion für eine solche Matrix lösen, erhalten Sie das entsprechende Ergebnis.

Der Sinn der Verwendung von Laplace anstelle von Adjazenz besteht darin, die sogenannte Affinitätsmatrix positiv semidefinit zu halten (und normalisierte Laplace-Matrix ist eine bessere Wahl, da sie normalisierte Eigenwerte zwischen 0 und 2 liefert und die Struktur des Graphen viel besser zeigt).

Kurz gesagt, solange Sie eine Matrix haben, die die Affinität Ihrer Daten enthält, können Sie im Allgemeinen Spektralcluster verwenden. Der Unterschied liegt im Detail (zB die Eigenschaft des normalisierten Laplace, die ich gerade erwähnt habe)


Ja, ich denke ich bin ein bisschen verwirrt. Es ist mir immer noch nicht klar. Wenn ich Standarddaten habe (nicht affinitätsbezogen), kann ich daraus eine Affinitätsmatrix A machen, indem ich den paarweisen Abstand zwischen den Datenproben nehme. Wenn ich nun A als Diagramm sehe, kann ich den Laplace-Wert nehmen und nach den Eigenvektoren auflösen und eine Lösung finden. Wenn ich A nicht als Diagramm sehe, könnte ich einfach nach den Matrixeigenvektoren (PCA) suchen und eine Lösung finden. Was ist der Unterschied?
Felipeduque

Ich habe deine Frage noch einmal gelesen. Die Antwort sind die Eigenschaften (z. B. die, die ich in meiner Antwort erwähnt habe). Die Laplace-Matrix sorgt für eine bessere Zerlegung. Sie können jedoch absolut die Eigenfunktion für alle Ähnlichkeitsmatrizen allein und einige Ergebnisse erhalten, die sich nur im Detail unterscheiden. Zum Beispiel zu der von Ihnen erwähnten PCA: PCA verwendet die Kovarianzmatrix, um zu erfassen, wo die Varianz hoch ist, aber im Allgemeinen folgt das Konzept der gleichen Richtung wie die anderen spektralen Zerlegungstechniken. Ich werde meine Antwort Korrektur
lesen,
Durch die Nutzung unserer Website bestätigen Sie, dass Sie unsere Cookie-Richtlinie und Datenschutzrichtlinie gelesen und verstanden haben.
Licensed under cc by-sa 3.0 with attribution required.